Datenmanagement als Erfolgsfaktor im Machine Learning (1)

Symbolbild: Pixabay
Symbolbild: Pixabay

Seit Gordon Moore, Mitgründer der Firma Intel, 1965 eine Verdoppelung der Anzahl der Transistoren in einer integrierten Schaltung etwa im Zweijahresrhythmus vorhergesagt hat, ist die Rechenleistung um den Faktor 50 Millionen gestiegen. Die wachsende Leistungsfähigkeit von Computern hat dazu geführt, dass diese das menschliche Gehirn bereits in vielerlei Hinsicht übertreffen. Der Mensch interagiert heute im Durchschnitt etwa 220-mal täglich mit einem vernetzten Gerät. Bis 2025 wird dieser Wert laut Prognosen auf 4800 steigen (1) – Mensch und Maschine hätten dann alle 18 Sekunden miteinander Kontakt. Die Kombination von wachsender Rechenleistung und zunehmender Interaktion ist eine ideale Basis für die sogenannte künstliche Intelligenz, die zielführende Analyse grosser Datenmengen. Der Erfolg von künstlicher Intelligenz hing von der Verfügbarkeit geeigneter Speicher- und Datenmanagementsysteme ab. Die aktuell rasante Entwicklung der künstlichen Intelligenz ist erst dank des heutigen Storage Managements möglich geworden. Wir starten heute mit einer vierteiligen Serie über die Entwicklung von Intelligenz und Machine Learning.

Gastbeitrag von Christoph Schnidrig, Leiter Systems Engineering Team, Netapp Schweiz

Die Anfänge der künstlichen Intelligenz

"Wir schlagen vor, im Laufe des Sommers 1956 über zwei Monate ein Seminar mit zehn Teilnehmern zur künstlichen Intelligenz am Dartmouth College durchzuführen." Mit diesen Worten begann der Projektantrag, den der US-amerikanische Logiker und Informatiker John McCarthy im Jahr 1955 zusammen mit Kollegen bei potenziellen Geldgebern einreichte. Die sogenannte Dartmouth Conference gilt heute als Geburtsstunde der künstlichen Intelligenz. Die zehn Teilnehmer, von denen die meisten am Beginn ihrer Laufbahn standen, entwickelten sich fast ausnahmslos zu international renommierten Fachleuten auf dem damals neuen Gebiet. Der Begriff künstliche Intelligenz (KI) oder Artificial Intelligence (AI) bezeichnet den Versuch, Computer so zu programmieren, dass sie eigenständig Probleme bearbeiten und menschenähnliche Entscheidungen treffen können. Die "Intelligenz" der Maschine entsteht – wie beim Menschen – durch Lernen. So wird das System einerseits mit unzähligen Daten gefüttert, um es zu trainieren. Beim Dateninput handelt es sich typischerweise um Fotos, Text, Zahlen, Videos oder Audiodateien. Diese sind markiert (tagged), es ist also bekannt, was sie darstellen. Das Modell analysiert die Daten und macht eine Vorhersage, indem es zum Beispiel eine Abbildung als Katze errät. Ein separater "Prüfer" gibt Feedback, ob das Ergebnis der Beschreibung (dem tag) entspricht, also richtig/gut oder falsch/schlecht ist. Das Resultat wird ins Modell zurück gespeist. Mit wachsender Datenmenge verbessert sich naturgemäss die Vorhersage

Begriffsentwirrung: Künstliche Intelligenz ist eigentlich maschinelles Lernen

Beim Thema künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI) herrscht eine Sprachverwirrung. KI im engeren Sinne (auch "starke KI") zielt darauf ab, eine Maschine zu entwickeln, die sich wie ein Mensch verhält, also auch intelligent wie ein Mensch reagiert. Dies ist auch nach jahrzehntelanger Forschung nicht ansatzweise gelungen und gilt heute als eine akademische Vision ausser Reichweite. Im Gegensatz dazu befasst sich die sogenannte "schwache KI" mit maschinellem Lernen (Machine Learning oder ML). Dabei wird ein System mit zahlreichen Daten gefüttert und lernt, über die Beispiele hinaus selbstständig Muster und Gesetzmässigkeiten zu erkennen. Nach Abschluss der Lernphase kann das System auch ihm unbekannte Daten beurteilen. Die meisten Entwickler, die sich aus Laiensicht mit künstlicher Intelligenz befassen, würden ihr Spezialgebiet selbst eher als maschinelles Lernen bezeichnen.

Herzstück der Systeme des maschinellen Lernens sind künstliche neuronale Netze. Dabei handelt es sich um eine mathematische Abstraktion, also ein Modell der Informationsverarbeitung, wie sie in ähnlicher Weise im Gehirn stattfindet. Ein Neuron wird als Funktion (Algorithmus) modelliert, einschliesslich Input, Parametern und Output. Beim Lernen werden die Parameter verändert. Das Modell lernt durch Modifikation der Gewichtung, was wichtig ist und was nicht und liefert so zunehmend bessere Resultate. Künstliche neuronale Netze waren ein Schwerpunktthema der Dartmouth Conference von 1956, es gab sie aber schon lange davor. Heute sind sie für die Forschung unverzichtbar.

Expertensysteme sind ein Teilbereich der künstlichen Intelligenz. Sie kommen fachspezifisch zur Anwendung, wo immer Datenmengen verarbeitet werden müssen, deren Grössenordnung das menschliche Leistungsvermögen überschreitet. Ein erfahrener Arzt mag 100 000 Patienten gesehen haben. Ein Computer kann jedoch in wenigen Minuten die Daten von hundertmal so vielen Patienten heranziehen – einschliesslich ihres kompletten genetischen Codes.

Bei Brettspielen gewinnt der Computer immer

Ein ideales Anwendungsgebiet für maschinelles Lernen sind Brettspiele wie Schach oder Go, weil die Spielregeln dem System Grenzen setzen. Beim Schach sind mit den ersten 40 Zügen schätzungsweise 10115 bis 10120 verschiedene Spielverläufe möglich. Mit solchen Dimensionen kann ein Computer weitaus besser umgehen als ein Mensch, wie den meisten Benutzern von Schach-Apps bekannt sein dürfte. So gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schachweltmeister Garri Kasparov in sechs Partien zu bezwingen.

Das Spiel Go ist ungleich komplizierter als Schach, da es auf einem grösseren Brett (19×19 Felder) gespielt wird und dadurch eine viel grössere Anzahl möglicher Züge erlaubt. Mit traditionellen Brute-Force-Algorithmen, bei denen alle möglichen Züge durchgerechnet werden, ist Go praktisch nicht zu handhaben: Alle Supercomputer der Welt würden nicht genügen, um die nötigen Berechnungen anzustellen. Nur dank selbst lernender Verfahren konnte das System Alphago im März 2016 den vermutlich weltbesten Go-Spieler Lee Sedol in fünf Partien mit vier zu eins schlagen. Das System besteht dabei aus zwei Komponenten. (1) Erstens, einem neuronalen Netz, das aus der aktuellen Spielsituation und den letzten (z. B. 16) Zügen den nächsten Zug vorschlägt. Und zweitens, einer selbstlernenden Komponente, die es dem System gestattet mit sich selbst zu spielen, um neue Beispiele für die Optimierung des Modells zu generieren.

Noch komplexer als Go ist das Multiplayer Videokampfspiel Dota2. Dennoch besiegte ein KI-System der Firma OpenAI im Juli 2018 einige der weltbesten Profispieler bei einem Dota2-Turnier. (2) Das System war trainiert worden, indem man es immer wieder gegen sich selbst antreten liess. Seine abschliessende Spielstärke hatte es nach nur vier Monaten erreicht.

Der lange Weg zur Spracherkennung

Praktische und alltägliche Anwendungen von maschinellem Lernen sind zum Beispiel Spracherkennung und Übersetzung. Bereits 1984 stellte IBM ein Spracherkennungssystem vor, das etwa 5000 englische Einzelwörter erkennen konnte. Das Unternehmen investierte grosse Summen in die weitere Entwicklung und stellte 1993 das erste Spracherkennungssystem für den Massenmarkt vor. Der durchschlagende Erfolg blieb allerdings aus, denn erstens ist die Entwicklung dieser Systeme kostspielig, und zweitens ist Spracherkennung auf äusserst leistungsfähige Hardware angewiesen und setzt zudem noch ein diszipliniertes Benutzerverhalten voraus. 2004 gab IBM Teile seiner Anwendungen als Open Source frei und verabschiedete sich bald darauf aus dem Wettbewerb. Marktführer ist heute die Software Dragon Naturally Speaking von Nuance, die 1997 in ihrer ersten Version vorgestellt wurde. Insbesondere Berufsgattungen wie Rechtsanwälte, Ärzte oder Naturwissenschaftler mit ihren komplizierten und daher leicht zu identifizierenden Fachjargons profitieren von inzwischen ausgereiften Systemen mit hoher Erkennungsgenauigkeit und schneller Transkription. Auch Chatbots und digitale Sprachassistenten wie Amazon Echo (Alexa), Siri und Google Assistant profitieren von der immer präziseren Spracherkennung.

Google Translate ist ein weiteres Paradebeispiel für den Fortschritt im maschinellen Lernen. Die ersten Resultate des 2006 eingeführten Systems riefen noch eher Belustigung hervor. Spätestens seit der Verwendung neuronaler Netze ab Ende 2016 erreicht das System für einige der 103 unterstützten Sprachen erstaunlich gute Ergebnisse, weil nicht mehr jedes Wort einzeln, sondern ganze Sätze kontextsensitiv übersetzt werden. Noch wichtiger als beim geschriebenen Text ist der Kontext bei der Spracherkennung – nur so können Homophone unterschieden werden, also Wörter oder Wortformen, die zwar verschieden geschrieben werden, jedoch gleich lauten. Dazu zählen Wörter wie "konnten" und "Konten« oder "Meer" und "mehr. Seit neuestem bewirbt Huawei das Smartphone Mate 10 mit seinen AI-Fähigkeiten. Es kann als persönlicher elektronischer Dolmetscher das gesprochene Wort sekundenschnell in Audio-Output übersetzen. Solche Systeme, darunter auch Google Pixel Buds, dürften schon bald als Simultanübersetzer allgegenwärtig sein.

Fussnoten:
(1) https://medium.com/applied-data-science/alphago-zero-explained-in-one-di...
(2) https://towardsdatascience.com/the-science-behind-openai-five-that-just-...

Zu Teil 2 der Serie hier!!
Zu Teil 3 der Serie hier!!
Zu Teil 4 der Serie hier!!

Digitale Sprachassistenten wie etwa Amazon Echo profitieren stark vom maschinellen Lernen (Bild: Amazon)
Digitale Sprachassistenten wie etwa Amazon Echo profitieren stark vom maschinellen Lernen (Bild: Amazon)