…über KI, Kommunikation und eine neue Beziehung zur Natur: Aza Raskin
Stell dir vor, du gehst durch einen Wald. Die Blätter bewegen sich im Wind, ein Vogel ruft, irgendwo knackt ein Ast. Für die meisten von uns bleibt das stummes Rauschen der Natur. Für Aza Raskin jedoch, Mitbegründer des Earth Species Project, ist dies eine symphonische Konversation – ein vielstimmiger Chor von Bedeutungen, Stimmen, Emotionen. Und Künstliche Intelligenz, sagt er, könnte der Schlüssel sein, um dieses komplexe Gespräch endlich zu entschlüsseln.
Raskins Vision beginnt mit einer Frage, die mehr ist als bloße Technik-Fantasie: Was, wenn wir wirklich mit Tieren kommunizieren könnten? Nicht mit Dressur, nicht mit Kommandos, sondern im Sinne eines echten Dialogs – mit Symbolen, Bedeutungen, vielleicht sogar einem geteilten Verständnis von Welt. Und was, wenn wir dadurch nicht nur sie besser verstehen, sondern auch uns selbst?
Die Sprache der Erde – unerkannt und allgegenwärtig
Auf der Bühne beginnt Raskin mit einem Rätsel. Ein Klang – bizarr, fremdartig, fast außerirdisch. Das Publikum lacht. Es ist der Paarungsruf eines Bartrobbenmännchens. Ein romantisches Pfeifen aus der Tiefe. Skurril, aber: eine Botschaft. Wie viele solcher Botschaften hören wir tagtäglich – und verstehen nichts?
Der Mensch hat sich in einem schmalen Band sensorischer Wahrnehmung eingerichtet. Zeitlich, räumlich, akustisch. Wir hören nur, was uns evolutionär nützt. Doch die Natur spricht in einer Frequenzvielfalt, die jenseits unserer Sinne liegt. Pflanzen, so zeigt Raskin, reagieren auf die Geräusche von Bienen, indem sie binnen Sekunden süßeren Nektar produzieren. Andere stoßen bei Trockenheit Ultraschalltöne aus – Schreie, die wir nicht hören können.
Die Grenzen unseres Verstehens sind die Grenzen unserer Wahrnehmung.
Und genau dort setzt KI an. Sie kann hören, was wir nicht hören. Sehen, was wir nicht sehen. Und vor allem: Muster erkennen, wo für uns nur Rauschen ist.
Vom Affenruf zum Datensatz
Inspiriert von einem NPR-Beitrag über Gelada-Affen, die eine erstaunlich differenzierte „Sprache“ sprechen, fragte sich Raskin schon 2013: Warum setzt niemand moderne Machine-Learning-Methoden ein, um tierische Kommunikation systematisch zu entschlüsseln?
Damals war die Technologie noch nicht bereit. Erst 2017 änderte sich alles: Zwei Studien zeigten, dass KI in der Lage ist, menschliche Sprachen zu übersetzen – auch ohne Rosetta-Stein. Ohne Beispielübersetzungen. Rein durch Analyse der inneren Struktur der Sprache.
Der Trick: Künstliche Intelligenz kann Bedeutungen so verarbeiten, dass sie wie Punkte auf einer Art Gedankenkarte erscheinen.
Dabei denkt die KI nicht in Wörtern, sondern in Abständen und Richtungen zwischen Bedeutungen. Wörter mit ähnlichem Sinn liegen nah beieinander. Wenn sich eine Bedeutung verändert, bewegt sich der Punkt in eine bestimmte Richtung – so entstehen Beziehungen im Raum.
Ein Beispiel:
„Auto“ minus „Benzin“ plus „Strom“ ergibt „Elektroauto“.
Oder:
„Schüler“ plus „fertig“ ergibt „Absolvent“.
Die KI lernt diese Muster, indem sie Millionen von Texten analysiert. So weiß sie: Wer „lecker“, „frisch“ und „duftend“ sagt, redet wahrscheinlich von Essen. Und wenn jemand „Ball“, „Tor“ und „Spieler“ schreibt, geht es um Fußball.
Sprache wird dadurch zu einer Landkarte aus Bedeutungen – und die KI kann sich darin orientieren. Nicht weil sie versteht wie ein Mensch, sondern weil sie erkennt, wie Wörter sich zueinander verhalten.
Und diese Landschaften lassen sich vergleichen – auch zwischen Mensch und Tier.
Was bedeutet das für Delfine, Wale, Krähen?
Raskin erzählt vom Experiment an der Universität Hawaii: Zwei Delfinen wird das Kommando gegeben: „Tut gemeinsam etwas, das ihr noch nie getan habt.“ Die Tiere tauchen ab, tauschen Informationen aus – und führen synchron eine neue Bewegung aus. Wiederholt, repliziert, belegt.
Das beweist nicht endgültig Sprache – aber es legt nahe, dass da mehr ist als Instinkt: Symbolische Kommunikation. Innovation. Zusammenarbeit. Und das über eine Sprachform, die uns bislang völlig fremd ist.
Das Training der Delfine in diesem Experiment war sehr sorgfältig aufgebaut – Schritt für Schritt, mit viel Wiederholung, positiver Verstärkung und klaren Zeichen. Hier ist eine einfache Erklärung, wie das vermutlich funktioniert hat:
1. Grundverständnis für Handzeichen aufbauen
Zuerst lernen die Delfine die Bedeutung einzelner Handzeichen. Zum Beispiel:
- Ein Zeichen für „Spring“
- Ein Zeichen für „Dreh dich“
- Ein Zeichen für „Wedle mit der Flosse“
Die Trainer*innen zeigen das Zeichen – und belohnen das Tier mit Fisch, Lob oder Spielzeug, wenn es die richtige Bewegung ausführt. So entsteht ein klarer Zusammenhang zwischen Zeichen und Handlung.
2. Das Konzept von „neu“ einführen
In einem nächsten Schritt lernen die Delfine ein neues Zeichen – für:
„Mach etwas, das du in dieser Runde noch nicht gemacht hast.“
Dazu zeigen die Trainer*innen zunächst bekannte Aktionen. Beim neuen Zeichen wartet das Tier. Wenn es eine neue Bewegung macht, die es in dieser Trainingsrunde noch nicht gezeigt hat, wird es belohnt.
So versteht der Delfin allmählich:
„Ich soll etwas anderes machen als vorher – etwas Neues.“
3. Gemeinsames Handeln trainieren
Dann folgt das besonders spannende Zeichen:
„Tut gemeinsam etwas, das ihr noch nie zusammen gemacht habt.“
Zwei Delfine erhalten gleichzeitig dieses Zeichen. Sie tauchen ab – und man beobachtet, wie sie sich unter Wasser offenbar „absprechen“. Wenn sie dann synchron eine neue, gemeinsame Bewegung ausführen, werden sie beide belohnt.
Über Wiederholung lernen die Tiere:
- Neue Ideen zu entwickeln
- Sich mit dem anderen abzustimmen
- Die Geste gemeinsam umzusetzen
4. Positive Verstärkung
Wie bei vielen Tiertrainings wurde mit Belohnung gearbeitet, nicht mit Strafe. Das macht die Tiere neugierig und motiviert sie, zu experimentieren.
Warum das so besonders ist
Die Delfine müssen in diesem Experiment mehr tun, als nur eine Geste auswendig lernen. Sie müssen verstehen, was sie schon gemacht haben – was „neu“ bedeutet – und mit einem Partner zusammenarbeiten. Das ist ein starkes Zeichen für Abstraktionsvermögen, Gedächtnis und möglicherweise eine Form von Sprache.
Ein universalgrammatischer Ozean
Mit der Methode der geometrischen Sprachlandschaften kann KI nun versuchen, auch tierische Kommunikation zu kartieren. Und siehe da: Obwohl menschliche Sprachen – Japanisch, Spanisch, Urdu – sehr unterschiedlich klingen, teilen sie eine verblüffend ähnliche Struktur. Die Form, in der „Hund“, „Freund“, „Heulen“, „Wächter“ miteinander verwoben sind, ist universell.
Wenn auch Tiere ähnliche Beziehungen zwischen ihren Lauten, Bewegungen und Situationen codieren, könnte man ihre „Sprache“ nicht nur analysieren, sondern vielleicht sogar übersetzen.
Und so begibt sich das Earth Species Project auf eine Entdeckungsreise: Hin zu einer neuen Grammatik des Lebens.
Der digitale Ozean – Daten, die nie gehört wurden
Eines der größten Hindernisse ist nicht die Theorie, sondern die Praxis. Belugawale, so erfahren wir, nutzen einen Mix aus Klangerkennung, Signaturlauten und Clan-Codes – akustische Identitätskarten. Doch 97 % der aufgezeichneten Daten müssen verworfen werden, weil man nicht sagen kann: Wer hat das gesagt? Oder wann?
Eine der ersten Lösungen: Ein KI-System, das zwei gleichzeitig bellende Hunde akustisch trennen kann – eine Art auditives Photoshop für komplexe Naturaufnahmen. Daraus entsteht: ein akustisches Mikroskop. Die Entdeckung einer Welt, die zwar da ist – aber für menschliche Sinne verborgen bleibt.
Sprache ist nicht nur Ton – auch Bewegung spricht
Neben Lauten analysiert das Projekt nun auch Bewegungsmuster: Wie bewegt sich ein Wal, wenn er „Hallo“ sagt? Wie fliegen Vögel, wenn Gefahr droht? Wie kommunizieren Elefanten mit ihren Ohren und ihrer Körperspannung?
Ziel: Bewegungen in Bedeutungen übersetzen – und umgekehrt. Ein Wal taucht ab: Warum? Welcher Ruf ging vorher durch die Gruppe? Welche Bedeutung liegt darin?
KI wird hier zum Seismographen eines kollektiven Bewusstseins.
Die Ethik der Spiegel
Doch je tiefer wir dringen, desto größer wird die Verantwortung. In einem eindrucksvollen Experiment spielte das Forschungsteam einem Buckelwal namens „Twain“ seinen eigenen Ruf vor – ohne zu wissen, dass es „sein“ Ruf war. Die Reaktion: Der Wal näherte sich aggressiv dem Boot, umkreiste es, suchte offensichtlich nach dem Absender. Der Moment: ein Audio-Spiegel. Ein Identitätsblitz.
Was, wenn wir in Tiergesellschaften eingreifen, bevor wir sie verstehen? Was, wenn wir aus Versehen den TikTok-Trend eines 34 Millionen Jahre alten Wal-Kulturkreises auslösen? Raskin warnt: Wir könnten versehentlich ein „Wal-QAnon“ erschaffen.
Daher fordert er eine Art Genfer Konvention für interspezifische Kommunikation. Eine Ethik des Zuhörens – bevor wir sprechen.
Die Revolution beginnt mit dem Zuhören
Es gibt keinen Zauberstab für Klimawandel oder Biodiversitätsverlust. Aber vielleicht, so Raskin, gibt es „silberne Schrotkugeln“ – kleine Impulse mit großer Wirkung. Die Erkenntnis, dass Tiere nicht nur fühlen, sondern auch sprechen. Dass Kommunikation nicht unser Monopol ist. Dass Bewusstsein viele Formen kennt.
Künstliche Intelligenz, so sagt er, ist nicht nur Technik. Sie ist ein neues Teleskop. Mit ihr sehen wir nicht in den Kosmos, sondern in unsere Ozeane, Wälder und Nachbarschaften. Und erkennen: Wir sind nicht das Zentrum.
Und wenn wir das verstehen, verändert sich alles. Dann ist KI nicht die Maschine, die die Menschheit ersetzt. Sondern die Maschine, die uns befähigt, wieder Teil eines größeren Gesprächs zu werden.
Ein Gespräch mit all den Stimmen, die immer schon da waren.
Wir müssen nur endlich zuhören: