thumb

Der von Microsoft entwickelte Chatbot namens Tay, der sich in sozialen Netzwerken mit Nutzern unterhalten sollte, ist für die Entwickler von Microsoft nach nur wenigen Stunden nach Start des Experiments zum Debakel geworden.

Der Redmonder Softwareriese hat die Chatbot-Software schon nach kurzer Zeit wieder vom Netz nehmen müssen, nachdem Nutzer sie durch Tricks massenhaft zu rassistischen Entgleisungen verleiten konnten. Das Programm mit dem Namen "Tay" sollte mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten, aber auch aus Unterhaltungen lernen. Nutzer brachten "Tay" unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen.



Der Online-Stellenmarkt für ICT Professionals