Twitter to vzdal, nedokáže automatické ořezy obrázků mít funkční.

Twitter to vzdal, nedokáže automatické ořezy obrázků mít funkční. Nově si budete moci určit co má  být náhled. Podrobnosti v Transparency around image cropping and changes to come

Celé je to hodně zajímavá ukázka toho, jak se není možné spolehnout na strojové učení a ani na to, že pár stovek testů ukazuje, že by to snad mělo fungovat.

Pro předchozí dění se podívejte do Twitter zkoumá rasové předsudky algoritmu pro vytváření náhledů na fotografie.

Adobe se pokouší napravit nepoužitelnost PDF na mobilních zařízeních.

Adobe se pokouší napravit nepoužitelnost PDF na mobilních zařízeních. Nový Adobe Acrobat si na pomoc vzal Sensei, strojové učení, které v Liquid Mode bude přeformátovávat dokumenty, aby se daly použít na mobilních zařízeních. Vedlejší efekt toho, že PDF z původního dokumentu udělá něco perfektně vypadajícího na tiskárně nebo velkém displeji, ale už nemajícího moc společného s původním dokumentem. A tím pádem neschopného změnit formátování.

Microsoft používá strojové učení pro detekci závažnosti ohlášených chyb od vývojářů.

Stačí mu k tomu analýza názvů a samotných dat. Měsíčně se totiž objeví skoro 30 tisíc nahlášených chyb. Nebezpečné a vyžadující rychlé řešení jsou ale pouze některé. Strojové učení je dokáže na 99 % rozlišit mezi běžnými a bezpečnostními, v 97 % dokáže identifikovat kritické chyby. Detaily v Identifying Security Bug Reports Based Solely on Report Titles and Noisy Data

auc.png

 

Facebook používá strojové učení pro detekci fake účtů.

Používá prý tisíce signálů ale jisté je jedno, pokud si dnes potřebujete založit účet na Instagramu nebo Facebooku jenom pro správu firemních profilů (nebo firemní profil na Instagramu) tak je zásadně vysoká pravděpodobnost, že vám ho okamžitě po založení zruší. Ty skutečně falešné účty jedou stále ve velkém. Navíc se ti zlí věnují hackování účtů.  Viz How Facebook uses machine learning to detect fake accounts

new-facebook-company-brand

Umělá inteligence má problém s předpojatostí.

Umělá inteligence má problém s předpojatostí. Začíná u toho, že data ze kterých se dnešní AI učí obsahují předpojatost. Objevuj se to například i v  Google Zprávách – pokud z textů ve zpravodajství začnete učit AI, tak se naučí stereotypy týkající se mužů a žen. Viz Researchers expose biases in datasets used to train AI models a What are the biases in my word embedding? (PDF)

2018-12-23 21_21_45-Window.png

Google slíbil, že přestane doporučovat „my face“ když napíšete „sit on“ na Gboard klávesnici

Google slíbil, že přestane doporučovat „my face“ když napíšete „sit on“ na Gboard klávesnici. Není vcelku divu, že něco takového by spíše neměl doporučovat. Pokud přemýšlíte jak se to tam vzalo? No, lidé to prostě používají. Viz Google promises to stop suggesting ‚my face‘ when you type ‚sit on‘ in Gboard

Pokud tápete, tak se podívejte na sit on my face v Urban dictionary. A ano, může to mít něco společného s kočkami a koťátky.

sit-on-my.gif