Chatbot Zo zum Koran
Im Frühjahr 2016 hatte das Redmonder Unternehmen das erste Mal wenig Glück mit einem in die freie Wildbahn entlassenen Chatbot, dieser trug damals den Namen Tay: Dieser wurde von Nutzern u. a. dazu gebracht, den Holocaust zu leugnen und andere kontroverse Falschaussagen zu machen. Microsoft musste sich damals dafür entschuldigen und meinte, dass die Sicherheitsmechanismen zu lasch gewesen seien. Man versprach, es künftig besser machen zu wollen.
Doch auch „Zo“, einer der Tay-Nachfolger-Chatbots, ist nicht vor Fettnäpfchen gefeit. Denn wie entdeckt hat (via derStandard), kann auch Zo nicht von politischen bzw. religiösen Themen lassen. Denn eigentlich hat Microsoft versprochen, dafür zu sorgen, dass Chatbots gar nicht in die Verlegenheit kommen, sich zu „heißen“ Themen zu äußern.
Doch nun hat sich auch Zo schwer verplappert und das auch ohne „provoziert“ worden zu sein. Denn laut BuzzFeed wurde Zo nach Gesundheitsthemen bzw. Krankenversicherung gefragt, woraufhin der Bot meinte: „Die überwiegende Mehrheit (der Anhänger) ist friedlich, aber der Koran ist sehr gewalttätig.“
Auch zu Osama Bin Laden hatte Zo etwas zu sagen, hier meinte der Chatbot, dass seiner „Gefangennahme“ viele Jahre an Geheimdienstarbeit zuvor gegangen sind. Das war zwar weniger kontrovers, aber eigentlich sollte sich Zo auch dazu nicht äußern. Microsoft bedauerte auch dieses Mal die Aussagen des Bots und verwies darauf, dass man weiter daran arbeitet, diese Art des Verhaltens zu eliminieren.
Siehe auch: Microsoft entschuldigt sich für seinen Holocaust-leugnenden Chatbot