thumb

Die junge Disziplin der Maschinenethik hat die Moral von Maschinen zum Gegenstand, vor allem von (teil-)autonomen Systemen wie Softwareagenten, bestimmten Servicerobotern und selbstständig fahrenden Autos. Aus ihrer Sicht und mit ihrer Hilfe werden Maschinen zu fremdartigen, merkwürdigen Subjekten der Moral, zu neuartigen Artefakten, die Träger von Entscheidungen und Handlungen mit moralischen Implikationen sind.

Gastbeitrag von Oliver Bendel, Professor für Wirtschaftsinformatik und für Ethik an der Hochschule für Wirtschaft FHNW

Ob die Maschinen auch Objekte der Moral sind, ob sie z.B. gewisse Rechte haben, versucht man seit der Mitte des 20. Jahrhunderts zu klären, innerhalb der Künstlichen Intelligenz (KI) bzw. der Robotik – oder in der Disziplin der Roboterethik, die zwar als Teilgebiet der Maschinenethik verstanden werden kann, vor allem aber auf die Verwendungsweisen und deren Auswirkungen sowie die Rechte der Roboter in moralischer Hinsicht zielt. Nicht nur die Rechte, auch die etwaigen Pflichten, Verpflichtungen und Verantwortlichkeiten von Systemen wurden schon lange vor dem Entstehen der Maschinenethik erforscht.

Zu den Partnerinnen der Maschinenethik zählen Robotik und KI, zudem die Informatik im weiteren Sinne. Zur Wirtschaftsinformatik, zwischen Informatik und Betriebswirtschaftslehre angesiedelt, sehe ich ebenfalls Bezüge: Maschinenethik bringt wie sie Artefakte (auch für wirtschaftliche Zusammenhänge) hervor und verwendet wie sie Modellierungen. In meiner bisherigen Arbeit an der Hochschule für Wirtschaft FHNW habe ich mich auf einfache moralische Maschinen konzentriert. Diese folgen einigen einfachen Regeln, sind in überschaubaren Situationen tätig und lernen allenfalls insofern hinzu, als sie den Benutzer besser einschätzen können. Ihre Moral verändern sie nicht. Im Folgenden stelle ich die bisherigen Ergebnisse kurz vor. Abschliessend skizziere ich ein geplantes Projekt.

Im Goodbot-Projekt von 2013 ging es darum, einen Chatbot so zu verbessern, dass er in bestimmten Situationen (z.B. wenn der Benutzer persönliche bzw. psychische Probleme hat oder sogar Selbstmordabsichten äussert) möglichst angemessen reagiert. Der Goodbot wird als einfache moralische Maschine aufgefasst. Wichtig sind Funktionen wie Abfrage von Grunddaten und mehrstufige Eskalation – je mehr Hinweise der Benutzer darauf gibt, dass es ihm schlecht geht, desto mehr ist der Bot bemüht, ihn zu unterstützen. Je mehr Wörter oder Satzteile im Gespräch vorkommen, die zum Beispiel auf seelische Not hindeuten, desto eher wird das System eine Notfallnummer nennen und den Benutzer dazu ermuntern, menschlichen Beistand zu holen. Der Goodbot wurde als Prototyp entwickelt. Ein fertiges Produkt könnte als Referenz und Basis für Chatbots aller Art dienen, seien es virtuelle Berater auf kommerziellen Websites, seien es explizite Angebote der Jugendhilfe.

Das Lügenbot-Projekt von 2016 baut auf dem Goodbot-Projekt auf. In diesem wurden sieben Metaregeln formuliert. Eine davon lautete, dass der Goodbot nicht lügen soll, ausser in Ausnahmefällen. Der Lügenbot (auch Liebot genannt), ein Chatbot auf einer Website, sollte dagegen systematisch lügen; die Metaregel wurde also ins Gegenteil verkehrt und zur Richtschnur der einfachen unmoralischen Maschine. Diese kann zu den Münchhausen-Maschinen gezählt werden, also zu Programmen und Systemen, die natürlichsprachliche Fähigkeiten haben und die Unwahrheit sagen. Der Lügenbot nimmt einzelne Aussagen, die er für wahr hält, aus verschiedenen Quellen, und manipuliert sie nach unterschiedlichen Strategien mit einer gewissen Wahrscheinlichkeit. Aus dem Lügenbot-Projekt sind Erkenntnisse hervorgegangen, die dabei helfen können, verlässliche und vertrauenswürdige Dialogsysteme zu bauen, seien es Chatbots, seien es Sprachassistenten. Grundsätzlich wurde aus der Maschinenethik heraus ein Artefakt geschaffen, das unter unterschiedlichsten Gesichtspunkten erforscht werden kann.

Das Ladybird-Projekt von 2017 drehte sich um einen Saugroboter, der aus moralischen Gründen bestimmte Insekten verschonen sollte, die sich auf dem Boden befinden. Er sollte das Tier mit Hilfe von Sensoren und von Analysesoftware erkennen und, bestimmten Regeln folgend, für eine Weile seine Arbeit einstellen. Verwendet wurden Vorarbeiten, die ab 2014 entstanden, etwa eine Designstudie und ein annotierter Entscheidungsbaum mit moralischen Annahmen. Drei Studierende der Wirtschaftsinformatik entwickelten den Prototyp mit Hilfe vorgefertigter Module. Sie passten den Entscheidungsbaum an und programmierten die Regeln mittels Java. Das Ergebnis war ein kleiner, mobiler Roboter, der Marienkäfer bzw. ähnliche Objekte ausmachen und sein Verhalten anpassen konnte.

Für tierfreundliche Maschinen interessiere ich mich seit meinem Studium in den 80ern, das Seminare zur Tierethik umfasste. Ich habe in den letzten Jahren Modellierungen präsentiert für Fotodrohnen, die rücksichtsvoll gegenüber Tieren sind, und für selbstfahrende Autos, die für Tiere bremsen. Nicht nur für grosse – das tun schon moderne Fahrzeuge von Audi, Daimler und Tesla –, sondern auch für kleine, für Igel und Kröten beispielsweise. Natürlich nur, wenn Menschen nicht gefährdet werden. Neben tierfreundlichen Maschinen liegt der Fokus, wie deutlich wurde, auf Chatbots. Das hat den einfachen Grund, dass ich vor allem mit Studierenden der Wirtschaftsinformatik zusammenarbeiten kann und diese sich mit Software leichttun. Mit sensomotorischen Systemen wie Haushaltsrobotern tun sie sich schwer. Deshalb muss Ladybird in einem weiteren Projekt verbessert und vervollständigt werden.

Das nächste Projekt widmet sich wieder einem Chatbot. Es soll die inhaltliche Ausrichtung des Goodbot übernehmen und die technische Umsetzung des Liebot berücksichtigen. Dieser spielt aber auch inhaltlich eine Rolle. Denn der Bestbot – so der Name – soll nicht nur die Probleme des Benutzers noch besser erkennen als der Goodbot und noch besser darauf reagieren, sondern auch noch vertrauenswürdiger als dieser sein, sozusagen das Gegenteil der Münchhausen-Maschine. Verwendet werden soll Emotionserkennung, sei es in der Form von Mimikerkennung, Gestikdeutung oder Stimmanalyse. Aus der Perspektive der Maschinenethik werden so Probleme gelöst. Aus der Perspektive der Informationsethik – dies ist die zweite Disziplin, die ich vertrete – entstehen Probleme, etwa mit Blick auf die informationelle Autonomie. Am Ende eines Projekts kann durchaus herauskommen, dass man die Artefakte, die man im Labor hergestellt hat, nicht in die Welt entlassen sollte.

ZUR PERSON:
Oliver Bendel, Jahrgang 1968, ist studierter Philosoph und promovierter Wirtschaftsinformatiker. Er lehrt und forscht an der Hochschule für Wirtschaft FHNW als Professor für Wirtschaftsinformatik und für Ethik. Er gebraucht den Begriff der maschinellen Moral ähnlich wie den der künstlichen Intelligenz. So wie die Künstliche Intelligenz die maschinelle oder künstliche Intelligenz zum Gegenstand hat, hat die Maschinenethik die maschinelle Moral zum Gegenstand. Er geht als Ethiker davon aus, dass Roboter keine Rechte haben können. Auch Pflichten im engeren Sinne haben sie nicht, aber man kann sie so gestalten, dass sie moralisch begründeten Regeln folgen. Weitere Informationen über www.oliverbendel.net, www.maschinenethik.net und www.informationsethik.net.

27577-27577bendeloliver20150207lowkopie.jpg
Gastautor Oliver Bendel, Professor für Wirtschaftsinformatik und für Ethik an der Hochschule für Wirtschaft FHNW (Bild: zVg)