Učeči robot Tay v 16 urah od mladenke do vulgarnega nacista

Slo-Tech
Avtor Matej Huš   
četrtek, 24. marec 2016 ob 22:05
Microsoft je bil po 16 urah delovanja prisiljen izključiti svojega avtomatiziranega sogovornika z imenom Tay, ki so ga pripravili z namenom poustvariti komunikacijo deklet, ki so stara med 18 in 24. Tay se je sam učil komunikacije iz sporočil, ki so mu jih ljudje pošiljali po Twitterju, in jim odgovarjal. Eksperiment jim je uspel tako dobro, da je v 16 urah Tay postal bolj primitiven, vulgaren in žaljiv kot večina ljudi, zato ga je moral Microsoft izključiti, saj se je storitev začela spreminjati v marketinško katastrofo. In teh si po fiasku na zabavi res ne smejo privoščiti.

Opozorilo: Po 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.


Vpišite prikazane znake


 

Google Translate

English Croatian French German Italian Spanish Serbian Slovenian Hungarian