Es gibt Studien, die zeigen, dass sich manche Menschen gegenüber Robotern sehr gehorsam zeigen. Warum ist das so?
In den meisten Fällen stellt der Nutzer zuerst eine Anforderung an den Roboter und dem Service wird erst einmal gefolgt, ohne einen Haken dabei zu erkennen. Wir haben aber auch in Studien gesehen, dass dieser Gehorsam nur so lange hält, wie Menschen sich dem Roboter überlegen fühlen. Gewinnt aber der Roboter z. B. andauernd bei einem Memory-Spiel, fangen die Menschen an zu schummeln und zu rebellieren. Sie glauben, dass der Roboter einen Vorteil hat, der unfair ist. Und verhalten sich dann eben nicht mehr so, wie es ihnen der Roboter sagt.
Mit wie viel künstlicher Intelligenz können wir in Zukunft umgehen?
Ich glaube das ist eine Frage, die sich viel genereller stellt, als nur auf Roboter bezogen. Insbesondere, wenn man sich die neuen Service-Agenten wie Apple „Siri“, Amazon „Alexa“, Google „Now“ oder IBM „Watson“ ansieht, die ihre künstliche Intelligenz als Cloud-Service präsentieren. Für mich sind sie von der Datenauswertung her viel schwieriger zu greifen als ein physischer Roboter, der vor mir steht. Zwar sind bei Robotern auch nicht immer alle Interaktionen eindeutig nachvollziehbar, wir versuchen sie aber in transparente Modelle zu übersetzen.
Wenn Roboter Teil unseres Haushalts werden, müssen wir dann nicht auch Verantwortung für Ihr Verhalten tragen?
Wenn ich einen Roboter für zu Hause kaufe, dann übernehme ich die Verantwortung für das Produkt im Einsatz. Gleichzeitig kann ich nicht immer einschätzen, ob eine Fehlfunktion vorliegt oder ein bewusstes Verhalten des Roboters abläuft. Wie am besten signalisiert wird, was Roboter aus einer bestimmten Situation heraus im Haushalt als nächstes tun werden – das ist einer der Schwerpunkte, woran wir derzeit arbeiten. Hier geht es um Intentionen, die verbal und nonverbal kommuniziert werden.
Welche Vorbereitung braucht man, bevor ein Roboter zuhause einzieht?
Das ist noch nicht so klar ausdiskutiert. Vielleicht brauchen wir einen Roboter-Führerschein. Man muss aber auch sehen, dass sich die Roboter nicht nur in bestimmter Weise verhalten, weil sich ein Ingenieur einen Algorithmus ausgedacht hat. Roboter lernen von den Daten ihrer Benutzer und passen ihr Verhalten daraufhin an. Das heißt zu einem gewissen Grad „programmieren“ sich Roboter durch die Interaktion mit dem Benutzer selber um. Wer dann die Verantwortung trägt, bleibt noch eine offene Frage.
Welche ethischen Abwägungen muss man aus Ihrer Sicht vor dem Einsatz von Robotern geben?
Zum einen müssen wir die Frage klären, inwieweit Roboter bei der Bewältigung des Alltags helfen sollen, ohne die Selbstbestimmung des einzelnen zu verletzen. Zum anderen geht es um Sicherheit. Wollen wir die Verantwortung an die Technik abgeben? Solche Fragen sowie das Recht auf Privatheit werden derzeit auch in der Soziologie und Rechtswissenschaft erforscht.