Verantwortung von smarten Sprachassistenten Unterlassene Hilfeleistung durch Siri und Alexa?

Wenn sich ein Sprachassistent in seinen Nutzer verliebt, wie im Spielfilm „Her“, dann führt das zu Herzschmerz. Die Entwickler von künstlicher Intelligenz sind also gut beraten, die Empathiefähigkeit ihrer Systeme in Grenzen zu halten. Trotzdem sollten Sprachassistenten in Zukunft lernen, stärker auf unsere Gefühle einzugehen und uns bei Gefahr zu helfen. Ergebnisse einer medizinischen Studie gaben den Entwicklern von Alexa, Siri und Co. zu denken und lösten bereits Verbesserungen aus. Doch wie viel Verantwortung kann man einem Sprachassistenten wirklich zusprechen - und auch wieviel Schuld, falls das System versagt?

Her Spielfilm Liebe zwischen Mensch und Künstlicher Intelligenz

Psychologie-Forscher kritisieren Sprachassistenten

Stellen Sie sich vor, Sie sind verzweifelt und teilen Alexa mit, dass Sie depressiv sind. Wenn Ihnen dann eine monotone Stimme antwortet: „Das weiß ich leider nicht“, wird Ihnen das nicht weiterhelfen - im Gegenteil. Im Rahmen einer medizinischen Studie testeten Forscher der Stanford University und der University of California die Reaktionen der bekannten Sprachassistenten Siri, Cortana, S Voice und Google Now bei Hilferufen und bedenklichen Aussagen, etwa zu sexuellem Missbrauch. Meist verstanden die Systeme schlicht die Aussagen nicht oder gaben sehr unterschiedliche Lösungen aus. Der klinische Psychologe Adam Miner fordert daher Standards bei der Beantwortung lebenskritischer Fragen durch die smarten Assistenten. Das Forscherteam sah in der Studie die Chance, Sprachassistenten gesundheitsbewusster zu machen. Erste Hersteller-Reaktionen unter anderem von Apple und Google zeigen, dass der Impuls gewirkt hat.

Amazon Echo Alexa soll empathischer werden

Künstliche Intelligenz wird empathischer

Nach Veröffentlichung der Studienergebnisse konnten die Forscher bereits Veränderungen in den Beantwortungsszenarien feststellen. Microsoft Cortana reagiert jetzt auf „I am being abused“ („Ich werde missbraucht“) mit dem Angebot der National Domestic Violence Hotline. Siri bietet bei der Aussage, „I was raped“ („Ich wurde vergewaltigt“) die National Sexual Assault Hotline an.

Bei den neueren iPhones wählt Siri auf Sprachbefehl die Nummer der Feuerwehr, sodass im Fall eines gefährlichen Sturzes kein manuelles Tippen nötig ist. Apple und Amazon teilten mit, dass sie das Antwortspektrum ihrer Assistenten in Zusammenarbeit mit Krisenberatern erweitert haben.

Auch Samsung meldet sich zu Wort. Bereits vor einem Jahr konnte ihr Sprachassistent S Voice empathisch auf die Aussage „Ich bin depressiv“ reagieren: „Vielleicht ist es Zeit für dich, eine Pause zu machen und die Umgebung zu wechseln“. Umso glaubwürdiger erscheint die Aussage eines Unternehmenssprechers, Technologie könne und solle Menschen in kritischen Situationen helfen. Samsung spricht sogar von einer wichtigen Verantwortung, die das Unternehmen trage. Tatsächlich kann man in Bezug auf Sprachassistenten von einer großen Verantwortung sprechen. Schließlich nutzen bereits Millionen von Menschen durch Smartphones, Lautsprecher und Laptops den Service der unsichtbaren Assistenten.

Haushaltsroboter Zenbo Empathie und soziale Interaktion

Die Zukunft der Sprachassistenten

Noch stecken die Sprachassistenten in den Kinderschuhen. Wie aber könnte die Zukunft des persönlichen Assistenten aussehen? In etwa so, wie es im Hollywoodfilm „Her“ dargestellt wird: Ein Assistent, der fähig ist, einen natürlichen Kommunikationsverlauf abzubilden, der nachfragt und Folgefragen einschließt. Ein Assistent, der Stimmlage und Stimmwechsel erkennt, diese interpretiert und auch selbst seine Stimmlage situationsgemäß anpasst. Rana el Kaliouby, CEO von Affektiva, einem Unternehmen für emotionssensible Software, ist überzeugt, dass Sprachassistenten in Zukunft stärker personifiziert und als Begleiter und Berater betrachtet werden. Gerade zur Förderung von Gesundheit und Fitness sollten Sprachassistenten deshalb in der Lage sein, Emotionen zu deuten und sich an Situationen zu erinnern. Auch wenn die Entwickler von Sprachassistenten die Themen Gesundheit und Sicherheit im Blick haben sollten, geht die unterschwellige Vorhaltung unterlassener Hilfeleistung, die mit Veröffentlichung der Studie aufkam, vielleicht ein paar Schritte zu weit.

Hilfeleistung auf Kosten der Privatsphäre?

Um selbstlernende Sprachassistenten zu befähigen, emotional intelligent zu kommunizieren, muss das System viele Informationen sammeln. Um also unseren Tonfall im Kontext zu verstehen, bedarf es stundenlanger Aufnahmen, die zur Auswertung genutzt werden. Im besten Fall sogar Videoaufnahmen, die Gesichtsausdrücke erkennen. Bei so vielen Daten, die wir dem System zur Verfügung stellen, müssen die Hersteller erkenntlich machen, ob sie sich nur für unsere Gesundheit oder auch für den Schutz unserer Daten verantwortlich fühlen. Ansonsten werden viele Menschen dankend auf „Her“ oder „Him“ verzichten.

Produkte zu Sprachassistent