Seit Jahren wird daher intensiv an Schnittstellen geforscht, die vorgeben, imaginäre Sprache zu „verstehen“. Unter anderem hat es zumindest in vielen Fällen bereits ermöglicht, einfache Gespräche zwischen zwei Personen zu übersetzen. Solche Experimente werden normalerweise mit Epilepsiepatienten durchgeführt, die aufgrund ihrer Krankheit Elektroden im Gehirn haben. Dort kann direkt die Aktivität bestimmter Nervenzellen abgelesen werden. Nicht-invasive Methoden wie die Elektroenzephalographie (EEG) werden nun erprobt.

Elektroden im Gehirn

Andere Studien arbeiten direkt mit Betroffenen, wie etwa die gerade im Fachblatt „Nature Communications“ erschienene Arbeit des Teams um Edward Chang von der University of California, San Francisco: Betroffen war ein 36-jähriger Patient, der fast erkrankt war nach einem schweren Schlaganfall vollständig gelähmt und kann nicht mehr sprechen. Mit Hilfe von nur kleinen Kopfbewegungen funktioniert eine computergestützte Schnittstelle. Für die Experimente wurde dem jungen Mann ohne kognitive Probleme ein scheckkartengroßes Implantat mit 128 Elektroden eingesetzt. Über erste Erfolge berichteten Forscher im vergangenen Jahr im New England Journal of Medicine. Das damals verwendete Programm übte fast 50 Trainingsmodule mit Hilfe von „Deep Learning“, während der Patient versuchte, eines der 50 vorgegebenen Wörter zu artikulieren. Dabei kamen neben maschinellen Lernverfahren aus der künstlichen Intelligenz auch klassische natürlichsprachliche Modelle zum Einsatz, die beispielsweise die Auftrittswahrscheinlichkeit von Wörtern in einem bestimmten Kontext angeben. Auf diese Weise lernte das Programm tatsächlich, Gehirnströme in Sprache umzuwandeln. Am Ende war es sogar möglich, ganze Sätze aus dem begrenzten Wortschatz zu erkennen. Allerdings lag die Fehlerquote bei einem Viertel.

gedanklich zu sprechen

Der für die aktuelle Studie erprobte Ansatz soll nicht nur präziser und umfassender, sondern auch direkter werden. Das bedeutet, dass der Prüfling nicht mehr gedanklich – also körperlich – versuchen musste zu sprechen, sondern direkt an das Wort oder den Buchstaben denken konnte. Das mache den Vorgang weniger unnatürlich und damit vielleicht ein bisschen alltagstauglicher für die Betroffenen, schreiben Chang und Co. Übrigens versuchen auch andere Forschungsgruppen, das Gehirn unter Umgehung der Motorik besser lesbar zu machen, etwa in Form von „Mind Recording“ – so klar vorstellbar wie eine Handschrift, wie eine Gruppe im vergangenen Jahr berichtete. Wie neue Arbeiten nun vermuten lassen, spielt es für den Computer möglicherweise keine so große Rolle, ob das Gehirn die Wörter motorisch oder mental produziert.

Wenige Buchstaben, viele Worte

Changs Team fand auch einen ziemlich einfachen Trick, um das Vokabular der Neuroprothetik ohne großen Aufwand zu erweitern. Anstatt an die vollständigen Wörter zu denken, musste das Subjekt sie diesmal buchstabieren. Die Autoren der Studie weisen darauf hin, dass dadurch eine viel größere Anzahl von Wörtern mit nur 26 Buchstaben dargestellt werden könnte. Damit die Maschine die Buchstaben besser “verstehen” konnte, wurde die internationale Alphabettabelle (“Alpha, Bravo, Charlie,…”) verwendet. Für Training und Test wurden erneut künstliche Intelligenz und klassische Sprachverarbeitungsmodelle kombiniert. Tatsächlich war der Computer in den allermeisten Fällen in der Lage, die durch die Buchstabenmethode generierten mentalen Sätze aus einem Grundwortschatz von 1.152 Wörtern zu erkennen. Die durchschnittliche Fehlerquote pro Zeichen lag bei knapp über sechs Prozent, pro Minute konnten fast 30 Briefe verarbeitet werden. Dieses Vokabular wäre sehr nützlich für die alltägliche Kommunikation. Simulationsrechnungen der Forscher zeigen, dass der Wortschatz ohne große Verluste auf bis zu 9.000 Wörter anwachsen könnte. Selbst dann läge die durchschnittliche Fehlerquote nur bei etwas über acht Prozent.