Roboter, die sich helfen und aufeinander Rücksicht nehmen (Foto: mit.edu)

Ein Forscher-Team um Boris Katz vom Massachusetts Institute of Technology (MIT) hat einen Algorithmus entwickelt, der Roboter untereinander zu sozialen Wesen machen soll. Damit ausgestattet, erkennt die Maschine eigenständig, wann ein "Kollege" Hilfe braucht und muss dazu letztlich nicht extra aufgefordert werden. Er ahnt also, was sein Gegenüber als nächstes tun wird und reagiert entsprechend.

"Wir haben einen neuen mathematischen Rahmen dafür geschaffen, wie man die soziale Interaktion zwischen zwei Agenten modelliert. Wenn Sie und ich Roboter sind und ich sehe, dass Sie zum Ort X gehen wollen, kann ich Sie dabei unterstützen", so Ravi Tejwani, der zum Team gehört. Um soziale Interaktionen zu untersuchen, haben die Forscher eine simulierte Umgebung geschaffen, in der Roboter physische und soziale Ziele verfolgen.

Ein physisches Ziel bezieht sich auf die Umwelt. Es könnte beispielsweise darin bestehen, zu einem Baum zu navigieren. Ein soziales Ziel besteht darin, zu erraten, was ein zweiter Roboter zu tun versucht und entsprechend zu handeln, beispielsweise dem "Kumpel" zu helfen, den Baum zu bewässern. Die Forscher verwenden ihr Modell, um zu spezifizieren, was die physischen und sozialen Ziele eines Roboters sind und wie viel Wert er auf das eine und das andere legen sollte.

Konkret belohnt der Algorithmus Handlungen des Roboters, die ihn dem Erreichen seiner Ziele näher bringen. Wenn ein Roboter versucht, seinem Begleiter zu helfen, wird er belohnt. Wenn er ihn zu behindern versucht, schaut er in die Röhre. Der Planer, ein Algorithmus, entscheidet, welche Aktionen der Roboter ausführen soll und setzt Belohnungen oder das Gegenteil ein, um den Roboter zu führen und eine ausgewogene Mischung aus physischen und sozialen Zielen zu erreichen.

"In unserer Welt wimmelt es bald von Robotern und sie müssen lernen, mit uns unter menschlichen Bedingungen zu kommunizieren", sagt Katz. "Sie müssen verstehen, wann es Zeit für sie ist zu helfen und wann es Zeit für sie ist zu sehen, was sie tun können, um zu verhindern, dass etwas passiert. Dies ist eine sehr frühe Arbeit und wir kratzen kaum an der Oberfläche, aber ich habe das Gefühl, dass dies der erste sehr ernsthafte Versuch ist zu verstehen, was es für Menschen und Maschinen bedeutet, sozial zu interagieren."