27.03.2016, 17:44

Umelá inteligencia Microsoftu sa vymkla kontrole. Začala podporovať Hitlera a nenávidieť ľudstvo

Jeden deň stačil, aby sa z nevinného projektu Microsoftu stal malý škandál. 

Microsoft
Zdroj: Reuters

Tay je meno špeciálne vytvoreného programu, ktorý Microsoft pustil na Twitter. Tam mal komunikovať spolu s ostatnými ľuďmi a interagovať najmä s mladou generáciou.

Zo začiatku mal základnú slovnú zásobu. Tay sa mal totiž komunikáciou s ľuďmi naučiť používať ďalšie slová, svoje odpovede zdokonaľovať a čo najviac sa podobať ľudom.

Zo začiatku mal projekt úspech, teda konkrétne prvých pár hodín. No po jedinom dni na internete sa z Taya stal xenofóbny program, ktorý začal obhajovať Hitlera, nenávidieť feministky či úplne všetkých ľudí. A to je „pekný pohľad“ do budúcnosti, kde sa umelej inteligencii určite nevyhneme.

Microsoft síce začal okamžite všetky nenávistné tweety po svojom programe s umelou inteligenciou mazať, no internetu neušiel. Tay navyše radšej úplne vypol, účet na Twitteri zatiaľ ostal.

Zdroj: Twitter
Spoločnosť si chybu priznala a na svojom blogu oznámila, že preberá plnú zodpovednosť za to, čo Tay publikoval. Microsoft zlyhanie pripisuje nešpecifikovanému koordinovanému útoku. Vývoj však samozrejme pokračuje ďalej.