In den vergangenen Tagen sorgten Videos in Sozialen Medien für Aufsehen, die einen kuriosen Fehler der Apple-Diktierfunktion dokumentierten. Dabei versuchten Nutzer das Wort "Racist" (auf Deutsch "Rassist") in einem Messenger-Chat zu diktieren. Statt der richtigen Eingabe erschien für einen kurzen Moment das Wort "Trump", bevor es sich schliesslich selbst korrigierte.
Auf Tiktok gab es viele Nutzer-Kommentare, die den Fehler bestätigten. Und auch die "New York Times" konnte bei einem Test offenbar dieselbe Beobachtung machen. Ein Apple-Sprecher führte das Problem auf phonetische Überschneidungen zwischen den beiden Wörtern zurück. So könne die KI fälschlicherweise "Trump" als Antwort auf mehrere Wörter mit einem "r"-Konsonanten vorgeschlagen haben. Apple versicherte, bereits an einer Lösung zu arbeiten.
Der Gründer des KI-Startups "wonderrush.ai", John Burkey, eine früheres Mitglied des Apple-Siri-Teams, meinte hingegen, es sei unwahrscheinlich, dass die grundlegenden, gesammelten Daten das Problem verursachten. Vielmehr könne ein technischer Fehler des Softwarecodes dafür verantwortlich sein. Burkey stehe laut der "New York Times" noch immer in regelmässigem Kontakt mit dem Apple-Team und spekulierte auch über einen möglichen Streich als Ursache.
Das Malheuer könnte ein weiteres Problem seit der Einführung des neuen KI-Systems namens Apple Intelligence im letzten Jahr sein. Bereits im vergangenen Monat kündigte Apple die Deaktivierung einer Funktion des Systems aufgrund fehlerhafter Nachrichten-Zusammenfassungen an. Und bereits 2018 ereignete sich ein Skandal um die Siri-Sprachassistenz, als sie ein Nacktbild auf die Frage nach Donald Trump zeigte – verursacht durch manipulierte Wikipedia-Daten.
