Google slib o zákazu komentářů na dětských videích na YouTube neplní. AI to nedokáže zajistit.

Google slib o zákazu komentářů na dětských videích na YouTube neplní. Za ohrožování soukromí dětí na YouTube přitom zaplatil pokutu 170 milionů dolarů. Aféra s pedofily využívajícími YouTube pro lov na děti před půl rokem vedla k slibu zákazu komentářů, upozornění i personalizované inzerce na všech videích mířících na děti. Mělo to zajistit strojové učení, ale jak se dalo očekávat, nefunguje to.  Viz YouTube promised to halt comments on videos with young kids. It hasn’t

2018-05-16 18_22_02-girl and her horse - YouTube

Reklamy

YouTube má stále problém s doporučováním dětských videí. Funkčnost oblíbená pedofily

YouTube má stále problém s doporučováním dětských videí. Mechanismus se přitom ukázal před několika měsíci jako zásadní pro aktivity pedofilů. Zrušit doporučování ale YouTube nechce, zásadně by se tím snížilo šíření videí a poznávání jiného obsahu. Viz YouTube won’t stop recommending videos with children, despite pedophilia problem

2016-03-04 08_22_38-YouTube

YouTube má opět zásadní skandál s dětským pornem

YouTube má opět zásadní skandál s dětským pornem, inzerenti ruší reklamu a Google ruší stovky kanálu. Jde o reakci na video Matta Watsona, který ukázal jak nesmírně snadné je najít dětská videa, pod kterými jsou záplavy nevhodných komentářů mířících na děti od pedofilů. Včetně odkazů na videa s dětským pornem, privátních videí i výměny kontaktů mezi pedofily. Algoritmy YouTube navíc soustavně doporučují záplavy dalších videí stejného charakteru a obsahu.

Viz YouTube still can’t stop child predators in its comments  a YouTube terminates more than 400 channels following child exploitation controversy

AI algoritmus bude pro policii identifikovat pedofily.

AI algoritmus bude pro policii identifikovat pedofily. Například tak, že z jimi produkovaných fotografií se s pomocí Google Earth a dalších zdrojů fotografií pokusí zjistit, kde je pořizují. Ale také detekcí předmětů používaných pedofily umožnit detekci fotografií, které mohou vést k odhalení. Viz AI-algorithms identify pedophiles for the police — here’s how it works

2018-11-10 09_05_24-AI-algorithms identify pedophiles for the police — here’s how it works.png

Facebook se v anketě ptal uživatelů, zda má povolit dospělým mužům žádat  14leté dívky o sexuální fotografie

Facebook se v anketě ptal uživatelů, zda má povolit dospělým mužům žádat  14leté dívky o  sexuální fotografie. Až poté co na to upozornila média a rozhořčení uživatele anketu stáhl a omluvil se za „chybu“. Viz Facebook asks users: should we allow men to ask children for sexual images?

DXb3vlNX0AATEwh.jpg

YouTube má nový problém, videa spoře oděných dětí s komentáři od pedofilů.

YouTube má nový problém, videa spoře oděných dětí s komentáři od pedofilů. Značky jejichž reklamy se u těchto videí objevily stahují reklamu z YouTube. Paradoxem na tomto novém problému je, že příčinu má prastarou a netýká se pouze YouTube, ale všech sociálních sítí – děti na sociální sítě běžně nahrávají obsah, který by tam v žádném případě být neměl. Co navíc, je poměrně snadno nalezitelný a účty dětí jsou velmi často nezabezpečené a nehlídané rodiči. Google (a ostatní) se naopak stále spoléhají na „algoritmy“, které mají tohle všechno ohlídat. Viz Brands pull YouTube ads over images of children, Firms ditch YouTube ads over predatory comments on videos of children a YouTube adverts fund paedophile habits. Zmíněno je i to, že část takovéhoto obsahu je nahrávána i přímo pedofily.

methode%2Ftimes%2Fprod%2Fweb%2Fbin%2Ff82c903a-d097-11e7-b1ec-8503a5941b97.jpg

Používá vaše dítě Kik? Tak pozor, prý je to „aplikace pro dětské predátory“.

Používá vaše dítě Kik? Tak pozor, prý je to „aplikace pro dětské predátory“. Tedy jako kdyby pedofilové a jiná zvěř nebyla na Alíku, Facebooku a všude jinde. Kik ale prý neodstraňoval účty jedinců usvědčených z obtěžování dětí. Viz Kik has become ‘the defacto app’ for child predators, according to an investigative report kde píší o 300 milionech uživatelů a 40% penetraci mezi mládeží v USA.