Alexa, Siri, Google a nyní i Alice

Ruská společnost Yandex vstupuje na trh inteligentních asistentů. V Alice In Putin’s Wonderland: How Russia’s AI Assistant Compares To Siri And Alexa navíc uvádějí, že tvůrci jsou spojení s Kremlem a nemusí řešit otázky soukromí a regulací.

2018-04-15 11_40_22-Алиса — ваш голосовой помощник, созданный компанией Яндекс..png

Reklamy

Facebook prý používá AI aby předpovídal budoucí chování uživatelů a zjištění prodává inzerentům.

Technologii „FBLearner Flow“ a její využití vystihuje termín věrnostní predikce začal používat v roce 2016, samozřejmě proto aby „zlepšil uživatelskou zkušenost“. Facebook tvrdí, že dokáže například identifikovat uživatele, kteří chtějí změnit značku. Trochu děsivé, silně neetické a problematické i tím, že „výsledky“, které Facebook získá prostě bude za každou cenu chtít proměnit v peníze. Viz FACEBOOK USES ARTIFICIAL INTELLIGENCE TO PREDICT YOUR FUTURE ACTIONS FOR ADVERTISERS, SAYS CONFIDENTIAL DOCUMENT

13144932_1021274317920924_1889629280_n.jpg

Archiv legendárního Life magazine se s pomocí AI a Google vrátil

Archiv legendárního Life magazine se s pomocí AI a Google vrátil. Skoro 6.5 milionu fotografií si můžete najít na Life Tags. AI může za to, že je možné archiv prohledávat. A jak píší v Google used AI to sort millions of historical Life photos you can explore online jsou tam i nějaké další vychytávky.

2018-03-12 08_06_23-Life Tags - Photographs classified by Machine Learning.png

Pár sekund něčího hlasu stačí k tomu, aby se Deep Voice naučil hlas kompletně napodobit

Pár sekund něčího hlasu stačí k tomu, aby se Deep Voice naučil hlas kompletně napodobit. Podrobnosti v Neural Voice Cloning with a Few Samples. V dobrém případě je tohle skvělé pro vytváření personalizovaných  (a personifikovaných) hlasových rozhraní, ve špatném případě si to už asi dokážete domyslet.

Screen-Shot-2018-02-20-at-3.31.09-PM-768x512.png

Rozpoznávání obličejů funguje lépe, pokud jste bílý muž

Rozpoznávání obličejů funguje lépe, pokud jste bílý muž. Viz Facial recognition software is biased towards white men, researcher finds a pokud jste došli k závěru, že je to dané vzorkem na kterém se software učilo, tak je to velmi pravděpodobně jeden z podstatných důvodů. Ne-li jediný. Kompletní studie viz Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification (PDF)

2018-02-13 09_59_02-buolamwini18a.pdf.png