Deepfake hlasu šéfa firmy vedlo k převodu 243 000 dolarů. CEO fraud tak dostává nový rozměr,

Deepfake hlasu šéfa firmy vedlo k převodu 243 000 dolarů. CEO fraud tak dostává nový rozměr, žádné zfalšované e-maily, teď už hlas šéfa přímo nařizujícího něco proplatit. Problém je ale stejný, nepochopitelná absence kontrolních mechanismů. Viz Fraudsters deepfake CEO’s voice to trick manager into transferring $243,000 a Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case

1600-pexels-164652-banknotes-cash-deal-164652.jpg

Reklamy

Mustava Suleyman z Google DeepMind je na nucené dovolené.

Mustava Suleyman z Google DeepMind je na nucené dovolené. O důvodech se pouze spekuluje, ale samotný DeepMind má za sebou několik kontroverzních aktivit. Do Google se dostala firma věnujíc se AI v rámci akvizice za 400 milionů liber. Sleyman se specificky věnoval využití AI v medicíně. Viz Google DeepMind Co-Founder Placed on Leave From AI Lab

2019-08-22 13_28_02-Homepage _ DeepMind.png

Twitter bude filtrovat urážlivé a nevhodné přímé zprávy.

Založí pro to samostatný oddíl (Additional Messages) v Přímých zprávách, což v praxi bude znamenat, že se budete muset chodit dívat, jestli do něj nespadlo něco, co do něj spadnout nemělo. Cesta kterou se už dříve vydal Facebook a víme, že nefunguje. Stejně jako řešení přes Žádost o poslání zprávy (Message Request) na Facebooku i Twitteru, kde lidé vůbec netuší, že tam něco takového mají. Možnost zcela vypnout Přímé zprávy se na Twitteru bohužel nechystá. Viz Twitter is testing a safety feature to detect and hide offensive DMs

Zda tp bude fungovat i pro češtinu je mimochodem velmi málo pravděpodobné. Je to založené na „AI“ vyhodnocující text. Stejné AI, která začala posuzovat a filtrovat nevhodné tweety.

Facebook nechával přepisovat hlasové komunikace z Messengeru externím dodavatelům. Bez vědomí uživatelů

Stejně jako ostatní (Amazon, Google, Apple, Microsoft, atd) to nejspíš používal pro trénování překladové AI používané pro převod hlasu na text, jednu z funkcí Messengeru, která má umožnit diktovat zprávu místo psaní. Zjistil to Bloomberg (Facebook Paid Contractors to Transcribe Users’ Audio Chats) a Facebook přepisy aktuálně pozastavil. Sami přepisovači netušili odkud záznamy pocházejí. Uživatelům o tom Facebook tradičně zapomněl cokoliv sdělit.  Více viz též Facebook Did the Sneaky Listening Thing, Too

Jakkoliv Irish regulator queries Facebook on transcription of users‘ audio vypadá dobře a reakce je rychlá, ta jde o tentýž úřad, který se v uplynulých deseti letech ukázal jako zcela bezzubý.

Ne nezajímavé je připomenout jednu dávnou konspiraci: Zneužívá Facebook chytré telefony k odposlouchávání lidí?

facebook-messenger

 

Dodavatelé Microsoftu naslouchají tomu, co si říkáte na Skype a Cortaně. Vzorky hovorů, ale i dokument a screenshoty

Dodavatelé Microsoftu naslouchají tomu, co si říkáte na Skype a Cortaně. Vzorky hovorů, ale i dokument a screenshoty, jsou vyhodnocovány s ohledem na funkčnost překladače (ten je součástí Skype od roku 2015). K Google, Apple a Amazonu tak (logicky) můžete přidat i další společnost, kde se vaše případné soukromí dostane ke zcela cizím lidem. Motherboard navíc získal získal příklady, které mu dodavatel zcela bez problémů mohl předat. Překlady navíc mají být dílem AI, ale některé z nich jsou prováděny živými lidmi. Viz Revealed: Microsoft Contractors Are Listening to Some Skype Calls

Do toho co se mezitím dělo u ostatních společností vás uvede V Apple a Google pozastavili monitorování hlasových nahrávek lidmi,  Záznamy ze Siri se také dostávají k cizím lidem. Apple (pochopitelně) dělá totéž co Amazon či GoogleZáznamy z hlasových asistentů od Google, Apple i Amazonu poslouchají živí lidé.

skype-logo

Strojové rozpoznávání emocí nefunguje. Ukazuje to výzkum

Strojové rozpoznávání emocí nefunguje. Ukazuje to výzkum Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements (PDF). Zajímavé na tom je, že vlastně ani lidé nedokáže z prostého pohledu na výraz obličeje jednoznačně určit emoce. Některé emoce navíc jsou obtížnější k rozpoznání, rozlobení to lidé se například pouze v 30 % případů  mračí. Viz též AI ‘EMOTION RECOGNITION’ CAN’T BE TRUSTED

2019-07-28 16_40_55-Window.png