27.03.2016, 17:44

Umelá inteligencia Microsoftu sa vymkla kontrole. Začala podporovať Hitlera a nenávidieť ľudstvo

Jeden deň stačil, aby sa z nevinného projektu Microsoftu stal malý škandál. 

Microsoft
Zdroj: Reuters

Tay je meno špeciálne vytvoreného programu, ktorý Microsoft pustil na Twitter. Tam mal komunikovať spolu s ostatnými ľuďmi a interagovať najmä s mladou generáciou.

Zo začiatku mal základnú slovnú zásobu. Tay sa mal totiž komunikáciou s ľuďmi naučiť používať ďalšie slová, svoje odpovede zdokonaľovať a čo najviac sa podobať ľudom.

Zo začiatku mal projekt úspech, teda konkrétne prvých pár hodín. No po jedinom dni na internete sa z Taya stal xenofóbny program, ktorý začal obhajovať Hitlera, nenávidieť feministky či úplne všetkých ľudí. A to je „pekný pohľad“ do budúcnosti, kde sa umelej inteligencii určite nevyhneme.

Microsoft síce začal okamžite všetky nenávistné tweety po svojom programe s umelou inteligenciou mazať, no internetu neušiel. Tay navyše radšej úplne vypol, účet na Twitteri zatiaľ ostal.

Zdroj: Twitter
Spoločnosť si chybu priznala a na svojom blogu oznámila, že preberá plnú zodpovednosť za to, čo Tay publikoval. Microsoft zlyhanie pripisuje nešpecifikovanému koordinovanému útoku. Vývoj však samozrejme pokračuje ďalej.  

Cookies

Na našich stránkach používame cookies. Slúžia na zlepšenie našej práce a vášho zážitku z čítania HNonline.sk.