Gönderi tarihi: 24 Mart , 2016 9 yıl FAZ - Frankfurter Allgemeine Zeitung Microsofts Bot Tay wird durch Nutzer zum Nazi und Sexist FAZ - Frankfurter Allgemeine Zeitung Microsoft ließ auf die Twitter-Gemeinde einen intelligenten Bot los, er sollte vom Menschen lernen. Das Ergebnis ist erschreckend vorhersehbar. 24.03.2016, von Anna Steiner · Teilen; Twittern; Teilen; E-mailen. © Screenshot von Twitter. Sieht ... Microsoft: Künstliche Intelligenz "Tay" leugnet den HolocaustDIE WELT Microsoft: Twitter-Nutzer machen Chatbot zur RassistinZEIT ONLINE [update] Microsoft experimentiert mit Chat-Bot TayITespresso.de PC Games Hardware -FOCUS Online -Golem.de -CHIP Online Alle 46 Artikel » View the full article
Katılın Görüşlerinizi Paylaşın
Şu anda misafir olarak gönderiyorsunuz. Hesabınız varsa, hesabınızla gönderi paylaşmak için ŞİMDİ OTURUM AÇIN.
Eğer üye değilseniz hemen KAYIT OLUN.
Not: İletiniz gönderilmeden önce bir Moderatör kontrolünden geçirilecektir.