Babel

„Jedes Kommunikationsmodell ist gleichzeitig ein Modell der Übersetzung“, schrieb George Steiner in seinem monumentalen Werk „Nach Babel“ (1). In diesem Sinne ist auch der folgende Text als ein Übersetzungsversuch zu verstehen. Denn: Ich stehe auch dann schon vor der „Aufgabe des Übersetzers“, wenn ich angesichts einer Reihe von vorliegenden Texten versuche, mir deren Sinn verständlich zu machen. Die Illusion des radikal für sich stehenden Textes ist damit zerstört. Mein eigenes Schreiben ist so immer auch ein Übersetzen, das ggü. seinen Vorläufern in einem ambivalenten Verhältnis steht. Vor diesem Hintergrund wird verständlich, wieso manche heute im Übersetzen ein „Paradigma der Geistes- und Sozialwissenschaften“ (2) sehen.

Bei der Übersetzung innerhalb einer und zwischen mehreren Sprachen kommt es fortlaufend zur Integration fremder Elemente, zu einem Prozess des Verstehens, den man allgemein Hermeneutik nennt. Das lesende und schreibende Verstehen ist immer auch eine Komposition, eine Verwandlung ihrer Vorlage(n). Der entstehende Text ist nicht nur der nachträglich kommende Text. Er knüpft zugleich ein neues Gewebe. Diese Eigenschaft beruht nicht nur auf der Schriftform, sie wohnt der menschlichen Sprache inne.

Folgen wir George Steiner, ruht aber auch die menschliche Sprache auf einem reichhaltigeren, vorsprachlichen Repertoire an semiotischen Möglichkeiten. Mit anderen Worten: Unsere Sprache ist aus Steiners Sicht natürlichen Ursprungs. Die Entstehung der menschlichen Sprachfähigkeit hielt er dabei für alles andere als alternativlos: „Der Erwerb der Sprache war zwar ungeheuer nützlich, aber doch eine reduktive und teilweise einschränkende evolutionäre Auslese aus einem viel größeren Spektrum semiotischer Möglichkeiten.“ (3) Doch die Art und Weise, wie Menschen sprechen, so Steiner, habe gleich-ursprünglich zur Notwendigkeit der Verständigung und Übersetzung geführt: „Als die Sprache einmal ,gewählt‘ war, wurde auch das Übersetzen unumgänglich.“ (4)

Steiners Überlegungen haben selbst Vorläufer. Schon Walter Benjamin stellte in seiner Schrift „Über Sprache überhaupt und über die Sprache der Menschen“ den Vorgang der Übersetzung ins Zentrum seines Sprachverständnisses. Auch er hielt es für „notwendig, den Begriff der Übersetzung in der tiefsten Schicht der Sprachtheorie zu begründen“ (5). Die Tradition, welche Benjamin in diesem Text von 1916 aufgreift, setzte sich nicht nur bei George Steiner fort, sondern auch bei Jacques Derrida. Benjamin, Derrida und Steiner, alle Drei eint ihre Faszination für die Geschichte vom Turmbau zu Babel und der babylonischen Sprachverwirrung, die dem biblischen Mythos zufolge daraus resultierte.

Das Paradigma der Übersetzung ist aber nicht allein das Ergebnis einer vielgliedrigen Denkbewegung des 20. Jahrhunderts, sondern auch einer technologischen Transformation. Gerade das Internet dürfte Theorien der Intertextualität eine durchschlagende Plausibilität verliehen haben, die über die akademischen Elfenbeintürme hinausreichte. Es war das Internet, das aus dem (für das Medium des Buches immer umständlichen) Verweis ein Prinzip machte, welches dem hermetischen Verständnis des Textes die Glaubwürdigkeit entzog.

Die zentrale Rolle der Technologien für unser Sprachverständnis scheint sich dieser Tage erneut zu bestätigen. Während Walter Benjamin noch eine Magie der Sprache beschwor, um sie von der „bürgerliche[n] Auffassung der Sprache“ (6) und damit einem instrumentellen Verständnis von Sprache abzugrenzen, nehmen wir heute geradezu achselzuckend hin, dass lernfähige Systeme wie ChatGPT zur Sprache zu finden scheinen. Technologische Umwälzungen bringen somit eine maschinelle Magie der Sprache in Gang, die gerade mit der erhofften Brauchbarkeit solcher Instrumente motiviert scheint. Aus Sicht Benjamins, scheint mir, wird die zum bloßen Mittel degradierte Sprache so ein weiteres Mal instrumentalisiert. Glaubt man Benjamin, so ist die babylonische Sprachverwirrung eine fast unmittelbare Folge einer derartigen „Mittelbarmachung der Sprache“ (7).

Mit der öffentlich gewordenen Zugänglichkeit zu sprachförmig sich mitteilenden Systemen (so meine ebenso vorläufige wie vorsichtige Benennung) wie ChatGPT wurde uns erst jüngst bewusst gemacht, dass die Technologie unseren Alltag, unsere Gesellschaften und unser Menschsein grundsätzlich zu verändern fähig ist. Wir werden aufgefordert, die sprachförmigen Ausgaben dieser Systeme zu verstehen und selbst wenn wir uns der Nutzung dieser Systeme verschließen, müssen wir uns das Phänomen solcher Systeme verständlich machen.

Doch Wachsamkeit ist geboten. Die sich an die technische Machbarkeit anschließenden Debatten übernehmen allzu leicht eine weg-moderierende Rolle. Der eigentliche Redeanlass droht auf der Strecke zu bleiben. Wir stoßen hier auf ein zutiefst menschliches Phänomen der Verständigung, denn in diesem Zerreden dessen, was die ursprüngliche Aufmerksamkeit erregte, zeigt sich die Natur unserer Verstehensprozesse selbst. George Steiner hat diese hermeneutische Bewegung in „Nach Babel“ als einen Prozess in vier Phasen skizziert (8). So wird auch der Diskurs der Zeitungen und der wissenschaftlichen Journale versuchen, sich (a) das Phänomen vertraut zu machen, es sich (b) gewaltsam anzueignen, (c) einzuverleiben und dem Phänomen so – hier schließt sich der Kreis – (d) ein Fortleben zu sichern (9). Dieser carneologische Kreislauf beschreibt einen hermeneutischen Zirkel, der den verstehenden Umgang mit Texten in seiner Himmel schreienden Ambivalenz kenntlich macht.

Die Rohheit, die uns aus Steiners Modell entgegentritt, ist atemberaubend und Steiner hat sie auch auf sein eigenes Werk angewandt: In einem späteren Vorwort beklagte er (und Kommentatoren bestätigen seine Klage), man habe sich reichlich bei seinem Babel-Werk bedient (10). Das Bild einer großen Plünderung, einer Zerfleischung, einer ungeheuren Aneignung und Weiterverwertung entsteht, ein Bild, das sich ganz einzufügen scheint in Steiners Modell vom menschlichen Umgang mit Texten aller Art. Eine schöne Ironie, mag man denken, wenn man weit genug vom Ort des Grauens entfernt steht.

Dass jeder Prozess des Verstehens eine grausame Seite hat, eine intime Brutalität, und dass die Gewalt mit der Nähe zum Text eher zu- als abnimmt, darf man annehmen. Steiners Modell des Verstehens legt nahe, dass diese Formen des Grauens ohne die digitalen Technologien etabliert waren, dass sie in der Natur des Menschen liegen. Diese monströse Seite der Sprache hat die Philosophie und die Menschen schon lange beschäftigt. Platons Schriftkritik und Orwells dunkle Vision des „Neusprech“ (11, 12) stehen beispielhaft für die philosophische und literarische Auseinandersetzung damit.

Wenn also heute mit einer sprachförmig sich mitteilenden Technologie der Eindruck entsteht, ein neues Grauen ziehe auf, so sollten wir darin kein absolutes Novum sehen, das wir in ewig-naiv bleibender Modernität so gerne beschwören. Das Unbehagen mit der Technik, ja, mit der allerneusten Technik, ist immer auch Unbehagen mit der Kultur und der Kulturgeschichte der Menschen. Die Gefräßigkeit, mit der Google alle Bibliotheken der Welt digitalisiert, die Rücksichtslosigkeit, mit der die Systeme bei ungeheurem Verbrauch an Ressourcen mit einer ungeheuren Menge an Texten „gefüttert“ werden, um das Sprechen zu lernen, die menschenverachtende Sprach-Verrohung, die uns auf den „Playgrounds“ der ewigen Beta-Versionen entgegenschlägt, das alles ist uns so bekannt, dass wir offenbar verdrängt haben, wie sehr es unsere Kultur prägt. Einem Diskurs, der diese Verrohung einseitig der technischen Innovation zuschieben möchte, mangelt es darum schlichtweg an Bereitschaft, sich mit dem spezifisch Menschlichen in der Technik, dem spezifisch Ungeheuren im Menschen selbst zu beschäftigen.

In seinem Aufsatz „babylonische Türme“ kommt auch Jacques Derrida auf dieses Thema zu sprechen. In ungleich engerer Anbindung als Steiner unterzieht er Benjamins Aufsatz „Die Aufgabe des Übersetzers“ einer Relektüre. Derrida nimmt die hebräische Version vom Turmbau zu Babel und Benjamins Interpretation zum Anlass zu zeigen, dass es Gott selbst ist, der mit seinem Namen ein doppeltes Gesetz aufgestellt habe, ein unerfüllbares Gesetz, und zugleich ein Gesetz, das erfüllt werden muss. Derrida bezieht sich hier auf die Doppelbindungstheorie Gregory Batesons, wenn er von einem double bind spricht. Dem (letztlich un-übersetzbaren) Namen Gottes selbst wohnt ein widersprüchlicher Imperativ inne, der auf diesen selbst zurückschlägt. Die kürzestmögliche Formel für diesen Zusammenhang bei Derrida lautet: „Gott dekonstruiert“ (13) Und zwar: „Er selber – sich selber.“ (14) Die babylonische Sprachverwirrung, mit der Gott den Menschen dafür straft, dass er einen Turm bis zum Himmel bauen wollte, trifft also auch Gott selbst.

Derridas Interpretation folgt seinem Verfahren der Dekonstruktion. Laut Derrida geht es also nicht darum, den originalen Sinn des Mythos wiederherzustellen, denn es gibt keinen vollständigen, originalen Sinn. Schon das Original steht in einer Situation des Mangels, ja, der Schuld. Es bedarf der Interpretation, des Umbaus, der Dekonstruktion. Derrida äußert sich insofern gleichermaßen zur Rolle Gottes in den Texten der Menschen als auch dem metaphysischen Überbau, der diese Texte begleitet. In eigentümlicher Nachfolge der heideggerschen Metaphysik-Kritik wird der Turmbau zu Babel und die göttliche Strafe zu einem Schlüsseltext für Derridas Verständnis von Sprache, Dekonstruktion und Übersetzung.

Es ist insofern Gott selbst, der „mit der Dekonstruktion des Turms als Dekonstruktion der universalen Sprache“ (15) beginnt. Gott „zwingt das Übersetzen auf und verbietet es zugleich“ (16), doch auch Gott „ist verschuldet“, er „beweint seinen Namen“ (17). Wenn Derrida den Mythos also im Sinne eines dekonstruktiven Sprachverständnisses deutet, beschreibt er – in anderer Terminologie als Steiner – ein nicht minder monströs anmutendes Prozedere: „Wenn der Übersetzer weder ein Abbild wiedergibt noch ein Original wiederherstellt, so deshalb, weil dieses fortlebt und sich verändert. Die Übersetzung ist in Wahrheit ein Moment im Wachstum des Originals; das Original vervollständigt sich in der Übersetzung, es ergänzt sich selber und vervollständigt sich, indem es sich vergrößert.“ (18) Es ist Babel, der heilige Text selbst, der die Möglichkeit eines Urtextes zerstört. Im Ergebnis erscheint uns „die Sprache selber als babylonisches Ereignis“ (19).

Jeder Prozess der Übersetzung, des Verstehens und der Interpretation dekonstruiert den Sinn. Beständig werden Türme der Sprache aufgebaut, abgebaut. Die Bedeutungen sind in einem Fluss und dies liegt im Kern daran, dass es eine „reine“ Übersetzung, eine reine Sprache nicht geben kann. Immer schon war alles durchmischt. Die babylonische Sprachverwirrung, die Strafe, steht ganz zu Anfang bereits fest, es ist, als sei das Sprechen selbst nur auf dieser Basis möglich. Dekonstruktion wird bei Derrida zur quasi transzendentalen Bedingung der Möglichkeit des Textes.

Aber kann man wirklich alles mit einem Text machen? Gibt es nicht auch „Grenzen der Interpretation“, so hat Umberto Eco gefragt, und sich dabei insbesondere an Derrida gewandt (siehe die Anmerkungen 20 und 21). Mir scheint, Eco trifft einen wichtigen Punkt: Es gibt inakzeptable Interpretationen ebenso wie es inakzeptable Übersetzungen gibt. Gewiss: Derrida nimmt „Babel“ zum Anlass zu zeigen, dass die Aufgabe des Übersetzers immer mit einer Un-entscheidbarkeit konfrontiert ist, wie schon das einzelne Wort zu übersetzen ist. Daraus folgt durchaus, dass sich Sinn oder Bedeutung eines Textes nicht verlustfrei, bedeutungsinvariant von einer Sprache in die andere, oder allgemeiner eben von einem Text zum anderen übertragen, übersetzen lassen.

Doch wenn man den Blick von der strengen Unmöglichkeit der Übersetzung abwendet, zeigt sich: Prozesse der Übertragung, Übersetzung und des Verstehens sind gerade in Abwesenheit absoluter Bedeutung möglich. Wir umschiffen die Momente der Un-Entscheidbarkeit, wir negieren sie, bisweilen brutal, oder machen einen Eiertanz darum. Nichtsdestotrotz: wir lesen, schreiben und verstehen Texte. Selbst scheiternd schreiten wir voran. Es gibt kein Verstehen ohne eine der Sprache innewohnende Dekonstruktion, aber im Rahmen schwer markierbarer, bisweilen kontrovers ausgehandelter „Grenzen der Interpretation“ ist dies eben doch ein Verstehen. Wie oft geschieht es schließlich, dass wir einander – diesseits und jenseits der Sprache – allzu gut verstehen. Der Sprache und dem einzelnen Text sind Mangel und Überschuss inne.

Müssen wir da nicht sagen: Jacques, es ist ja noch viel schlimmer! Wenn Verstehen immer mit Formen der Zähmung, der Aggression und Einverleibung zu tun hat, wie Steiner meint, dann erscheint Derridas Rede von der Dekonstruktion, ihr rhetorisch-architektonischer Pomp, so wunderbar er auf die Geschichte vom Turmbau zu Babel passt, rigoros und verharmlosend zugleich. Im Gegensatz zu Derrida beharren George Steiner und Walter Benjamin (aus unterschiedlichen Gründen) auf der Möglichkeit der Übersetzung und dies angesichts eines namenlosen Grauens und einer nicht minder grauenvollen Geschwätzigkeit, welche die menschliche Sprache geradezu „verflucht“ hat. In der beunruhigenden Nähe des Übersetzers zum Text, in der oft gewaltvollen Intimität, die jedem Verstehensprozess eigen scheint, liegt auch ein Moment der Anerkennung.

Kehren wir ausgehend von diesen Überlegungen zurück zum Phänomen der digitalen Sprachmodelle und ihren jüngsten Anwendungen. Benjamin, Derrida und Steiner haben, in meinem ebenso zudringlichen wie vorläufigen, ebenso beschämten wie schamlosen Versuch der Verständigung, auf ihre je eigene Weise viel zu sagen zu jenem Phänomen der sprachförmigen Mitteilungen, zu denen man die neuronalen Netze trainiert hat. Das heißt aber auch, in einem Prozess der weiterführenden Verständigung, ihre Texte zum Sprechen zu bringen, sie anders zu verstehen, um sie für die technologischen Umwälzungen der jüngsten Gegenwart fruchtbar zu machen.

Wovor ich hier dennoch warnen möchte, ist ein voreiliges Verstehen und – wie nah beieinander liegt es: ein endgültiges Verstehen. Wenn uns die Verwunderung über die sprachförmigen Mitteilungen der sog. K.I. vergeht, wenn wir alsbald in den Modus des Immer-schon-Gewussten wechseln, von „sprachfähigen“, „künstlichen“, „intelligenten“ Systemen sprechen, wie dies so oft, so schnell und leicht geschieht, verspielen wir die Möglichkeit eines eindringlicheren Prozesses des Verstehens, auf den die menschliche Kultur, ich vermute, angewiesen ist. Der Irrtum begänne dann schon bei der Benennung eines Phänomens, vor dessen voreiligem Verstehen wir uns hüten sollten, das zu verstehen gleichwohl unabdinglich scheint.

Gegen die voreilige Einordnung hilft ein Blick zurück, der uns zeigt wie blind die Kritik und wie unkritisch die Prognose machen kann. Steigen wir also in eine kleine Zeitmaschine, ergeben wir uns der Illusion, wir könnten dabei gewesen sein, 1988 und 1968, als zwei sehr unterschiedliche Zusammenkünfte stattfanden und sich im Modus von Kritik und Prognose mit einer Zukunft beschäftigten, die heute Gegenwart geworden zu sein scheint.

Es war einmal die „Deutsche Akademie für Sprache und Dichtung“, die vor 35 Jahren zu einem Symposion einlud und fragte: „Werden wir die Sprache des Computers sprechen?“ (22) Versetzen wir uns also in eine Zeit, in der es schon Computer gab, aber nicht jede:r einen zuhause stehen hatte, eine Zeit vor Smart Phones, aber mit Telefonen, vor der Kommerzialisierung des Internets, aber nach dessen Erfindung, in das Jahr 1988.

Hartmut von Hentigs Antwort auf die Frage der Akademie lautete damals: „Wir werden nicht sprechen wie die Computer – weil das zu mühsam ist. Wir werden die Computer nicht dazu bringen, zu sprechen wie wir – weil das vielleicht nicht möglich, wahrscheinlich nicht rationell und gewiss nicht wünschenswert ist.“ (23) Überhaupt hält er den Fokus auf die Sprache für verfehlt: „Wenn wir etwas von der Computerisierung zu befürchten haben, wird es uns nicht über die Sprache befallen“ (24). Diese eklatante Fehlprognose ging gleichwohl mit einer radikalen Kritik einher, denn Hentig ging davon aus, wir würden bald nicht sprechen, sondern denken wie Computer.

Auch Hubert Dreyfus, ein früher KI-Philosoph, äußerte sich ähnlich: „Wenn wir den höchst optimistischen Voraussagen auf dem Forschungsgebiet der Künstlichen Intelligenz Glauben schenken, werden Computer wie HAL im Jahre 2001 unsere Sprache sprechen, so daß wir nicht ihre sprechen müssen. Das wäre ein idealer Zustand. (…) Aber der gegenwärtige Zustand der Dinge ist anders, und obwohl es im Prinzip nicht unmöglich ist, gibt es gute Gründe, daran zu zweifeln, daß (…) solche Verständigung jemals erreicht oder auch nur annähernd erreicht wird.“ (25) Es zeigt sich: Hentig, Dreyfus (und anderen Autor:innen) schien die Vorstellung abwegig, den Computern das Sprechen beizubringen, obwohl sie die Möglichkeit bereits in Betracht zogen, dann aber zur Seite schoben. Aber wieso eigentlich?

Schon in der Frage der Akademie von 1988 schwang eine Sorge mit, die bis heute den Diskurs bestimmt und das Nachdenken über das Verhältnis von Digitalisierung und Sprache prägt. Es war die Angst vor der Reduktion der Sprache auf „reine Information und deren Weitergabe“ (26). Es ist die Sprache der Bewahrer der Sprache, die hier spricht, eine Sprache, gegen die ich gar nicht polemisieren will, die aber offenbar blind gemacht hat für das Kommende. Denn wie wir heute bemerken, ist es nicht (oder nicht allein) die Reduktion der Sprache, sondern deren rohes Aufblühen, welches die sprachförmigen Mitteilungen der Chatbots charakterisiert. In vielen Beiträgen von 1988 zeigt sich: Man sah in der Sprache der Computer eine Radikalisierung der Schriftlichkeit, man sah Entpersonalisierung, Entgrenzung von Raum, Zeit und Kontext (27). Gegen die Gefahr der computerisierten Reduktion setzte man darum die Trumpfkarten der Philologie: die Vielfalt der sprachlichen Ausdrücke, ihre Mehrdeutigkeit und die Einbettung in den Kontext (28).

Dass es den Teilnehmer:innen des damaligen Symposions an Vorstellungskraft fehlte, dürfte mit einer spezifischen Blindheit zusammenhängen, der jede kritische Perspektive erliegen kann: Die Kritik sieht dann nur jene Entwicklungen vorher, für deren Analyse die kritischen Instrumente bereits griffbereit liegen. Diese Kurzsichtigkeit der Kritik kontrastiert auffällig mit einem zweiten Fundstück, auf das ich jetzt kommen möchte. Es stammt aus einer Zeit, da die K.I.-Forschung, damals gemeinhin als ein Teilgebiet der Kybernetik verstanden, in ihrer ersten Blüte stand und kurz davor, in eine Krise zu geraten.

Es war im Oktober 1968, als ein Kreis von Kybernetikern und Journalisten zusammenkam und über „philosophische Konsequenzen und zukünftige Möglichkeit der Kybernetik“ diskutierte (29). Der damalige Austausch mutet naiver und doch weitsichtiger als die Beiträge von 1988 an.

Auf Basis von Überlegungen, die heute als das Mooresche Gesetz bekannt sind, mutmaßte Computerpionier Heinz Zemanek: „Bis zum Ende dieses Jahrhunderts werden wir imstande sein, das gesamte menschliche Wissen im Direktspeicher eines einzelnen Computers unterzubringen. Dazu muß man sich vorstellen, daß der Computer nicht ein an einen bestimmten Ort gebundenes System ist, sondern daß es ein öffentliches Computersystem geben wird, an dem man teilnimmt wie heute am Telefon.“ (30)

Nicht nur die Idee des Internets lag bereits in der Luft, auch die damit verbundenen Risiken nahm man zur Kenntnis: etwa die Frage, wie in einem global verteilten Netzwerk der Schutz persönlicher Daten zu gewährleisten sei (31). Jürgen Petermann, Wissenschaftsjournalist des SPIEGEL, sprach sogar ein weiteres Problem an, über das gerade in den letzten Jahren so viel diskutiert wird: die Gefahr der Massenmanipulation (32). Erschütternd zeitlos wirkt hier die damalige Mahnung Karl Steinbuchs: „Das bedeutet, daß der Gesetzgeber vorausschauend Rechnung zu tragen hätte. Er darf nicht weiterschlafen!“ (33) Offenbar wenig überzeugt, dass der Gesetzgeber seiner Forderung nachkommen wird, forderte Steinbuch die Verankerung freiheitlicher Grundprinzipien auf technischer Ebene (34).

Die weitreichendsten Fragen, über die man 1968 aber sprach, betreffen das Verhältnis des Computers zur Sprache. Erst zwei Jahre zuvor hatte Joseph Weizenbaum mit dem Programm ELIZA demonstriert, dass sich die sprachförmige Kommunikation mit einem Computerprogramm in Ansätzen realisieren ließe. So ist es wohl zu erklären, dass Zemanek, der damals bereits bei IBM arbeitete, auch fragte: „Soll der Computer Umgangssprache lernen?“ (35) Seine Antwort: „Da gibt es verschiedene Geschmacksrichtungen. Ich persönlich bin für die formale Methode, und zwar aus psychologisch-biologischen Gründen.“ (36)

Bei allem Wagemut erstaunt, wie viele Befürchtungen die Kybernetiker damals selbst kommunizierten: „Ich fürchte, wir gehen einem Zeitalter entgegen, wo die Angaben, die aus dem Computer herauskommen, immer präziser und immer vielfältiger sein werden; aber was sie wirklich bedeuten, wird man immer weniger wissen.“ (37) Zemanek dachte damals, scheint es, in einer losen Nachfolge von Leibniz und seiner Idee einer mathematischen Universalsprache, wenn er annahm, dass es eine an der Sprache der Computer orientierte „einheitliche Sprache“ geben müsse bzw. werde. „Wie weit das gehen soll, ist eine ganz andere Frage, noch eine andere, wie weit es überhaupt möglich sein wird.“ (38)

Und eben hier, bei den weitreichenden prognostischen Übungen der Kybernetik, kommt Zemanek auf den Mythos von Babel zu sprechen: „Vielleicht wird die menschliche Tendenz, ein babylonisches Sprachgewirr hervorzurufen, viel stärker sein als das Ziel der Einheitlichkeit.“ (39) Woraufhin der Wissenschaftstheoretiker Gerhard Frey einwarf: „Das fürchte ich nämlich auch!“ (40)

Auch wenn die Mehrheit der damaligen Kybernetiker davon ausging, dass die Computer bei ihren eigenen Sprachen bleiben würden, sah man das destabilisierende Potential, das von der Nähe des Computers zur Sprache ausgehen kann. Zugleich zeigen Heinz Zemaneks Schlussworte, dass der Glaube an die Machbarkeit gutgläubig macht: „Wir werden in Kürze vor der faszinierenden Aufgabe stehen, diesen Trend zur Verwirrung systematisch unter Kontrolle zu bekommen, und zum Unterschied von den Babyloniern stehen uns dazu einige Werkzeuge zur Verfügung.“ (41)

Über 50 Jahre später stellen uns die technologischen Umwälzungen vor die Aufgabe, unser Verständnis der Sprache angesichts der Möglichkeit ihrer technologisch bedingten Verwirrung erneut zu befragen. Denn, so meine ich, nicht der Mangel an Bedeutung und Sinn ist es, sondern umgekehrt die Möglichkeit eines Sinn-Überschusses, dessen wir nicht mehr Herr werden könnten (42). So besteht die Gefahr der Massenbeeinflussung m.E. weniger darin, dass die Menschen beginnen wie Computer zu denken, sondern eher darin, dass die Computer sprechen wie die Menschen.

Der sich daraus potentiell ergebende Überschuss ist ein Doppelter: Zum einen liegt in einem dialogisch geformten Wissenssystem die bekannte Illusion, alles Wissen der Welt vor sich zu haben. Das ist die Fortsetzung der kathedralen Überwältigung, die von Bibliotheken und Suchmaschinen ausgeht. Zum anderen produziert das sich mitteilende Wissenssystem neue Aussagen, die dem menschlichen Verstehen – ungeachtet ihrer Herkunft – zugänglich sind; ein maschinelles Sprechen, das bedenklich herumeiert zwischen Geschwätzigkeit und Präzision, zwischen Unsinn, Bedeutung und Zungenreden. Diese vielfachen Überschüsse müssen wir in unsere diversen Verstehenshorizonte integrieren und zwar theoretisch und praktisch, mental, emotional, psychisch. Und um dazu fähig zu sein, werden wir Menschen tief in die Trickkiste unserer eigenen Sprache greifen müssen.

Schon Walter Benjamins sprachmagisches Denken machte, in Fortsetzung einer sehr alten Tradition, Sprache und Magie zusammenzudenken, vor dem Ding nicht Halt. Doch während Benjamin sich damals auf eine verloren gegangene Einheit von Name und Ding bezog, erinnern die sprachlichen Mitteilungen der neuronalen Netze an eine wichtige Unterscheidung, die Benjamin an anderer Stelle gemacht hat: der Natur „Sprache verleihen“, merkte er wie nebenbei an, sei nicht das gleiche wie „machen, daß sie sprechen kann“ (43).

Mit Benjamin können wir also fragen: Ist es der KI-Forschung gelungen, den neuronalen Netzen Sprache zu verleihen oder haben wir dafür gesorgt, dass die Maschine sprechen kann? Ob sich dieser Unterschied erhärten lässt oder er sich nur als das verschwindende Erbe einer gnostischen, magischen Tradition entpuppt, ist die Frage. Der Schock jedenfalls, der von den sprachförmigen Mitteilungen der Chatbots heute ausgeht, ist ein doppelter: Es ist der Schock über die offenkundige Verfremdung des Eigenen. Und doch, nicht das ganz Fremde, sondern das Eigene tritt uns hier entgegen, in einem Spiegel, der unsere kulturelle Integrität und die Integrität der menschlichen Sprachen aufs Spiel setzt.

Es ist ein rohes Spiel. Wenn wir digitale Systeme in eine lebendig gewordene Bibliothek von Babel verwandeln, dann offenbart sich uns hierbei eine Rohheit, die im Gebrauch der Sprache selbst angelegt scheint, eine Rohheit, die mit der Neugier des Menschen zu tun hat, eine Rohheit, die ihn deutlich als Kind seiner Natur und der Natur der Sprache erscheinen lässt.

Ich hatte bereits vor der Gefahr voreiliger Einordnungen gewarnt. Und im Sinne dieser Warnung scheint mir der Versuch, das Automatische und Unoriginelle der Chatbot-Ausgaben zu betonen, eben diesen Punkt der unheimlichen Wiedererkennung zu unterschlagen. Nicht nur beruhigen wir uns allzu schnell mit der vordergründigen Unterscheidung natürlich entstandener und künstlich gemachter Sprachen, auch unterschlagen wir, dass die menschliche Sprache mimetisch funktioniert und dass das mimetische Prinzip unserer Sprache älter ist als der Mensch.

Beispielhaft hierfür steht m.E. eine Bemerkung der Ethikratvorsitzenden Alena Buyx, mit der sie jüngst die Leser:innen der FAZ zu beruhigen versuchte: „Die Künstliche Intelligenz ist letztlich ein stochastischer Papagei …“ (44) Sie bezieht sich mit ihrer Rede vom stochastischen Papagei auf eine inzwischen bereits vielfach zitierte Veröffentlichung, die aufgrund der damit verbundenen Kündigung Timnit Gebrus durch Google viel Aufmerksamkeit erhalten hatte (45).

Gegen den Slogan vom stochastischen Papagei spricht jedoch die Erfahrung, die Nutzer:innen im Austausch mit Systemen wie ChatGPT machen. Die sprachförmigen Ausgaben des Chatbots sind ganz offenkundig das Ergebnis einer mimetischen Rekombinatorik, die mit Kontexten und Mehrdeutigkeit teilweise sehr gut umgehen kann und die bisweilen Bezüge herstellt und Implikationen herausarbeitet, die nicht einfach eine Illusion sind, sondern aus der Umsetzung der sprachlichen Eingabe des Menschen entstammen. Gerade dann, wenn man der Maschinerie kein Bewusstsein, kein Verständnis zugestehen will, wird es schwer werden, dieser gigantischen Text-Maschinerie abzusprechen, dass hier mit Bedeutungen gerechnet wird. Und gerade jene Halluzinationen und Konfabulationen des Chatbots, die vielfach belegte Unfähigkeit zum Ziehen logischer Schlüsse, die Beharrlichkeit, mit der das System an Unsinn wie „1 ist größer als 1“ (46) festhält, zeigt uns: die mimetische Rekombinatorik bringt weitaus mehr hervor als Nachgeplapper. ChatGPT & Co. können darum m.E. mehr und weniger als das Label vom stochastischen Papagei ausdrückt. Die Sprachmodelle scheitern und überraschen gleichermaßen und das hat elementar damit zu tun, dass sie mit der menschlichen Sprache mimetisch und rekombinatorisch operieren.

In eben diesem Zusammenhang müssen wir uns bewusst machen, dass stochastische und mimetische Prinzipien für die Generierung von Bedeutung zentral sind – und zwar in Abwesenheit zielgerichteten, motivierten Bewusstseins. Wenigstens seit Entstehung der Einzeller werden schon auf molekularer Ebene Abschriften gemacht (molekulare Transkription) und Übersetzungen von einer Sprache in die andere Sprache angefertigt (molekulare Translation). Eine durch und durch semiotische Evolution prägt die Geschichte dieses Planeten seit über einer Milliarde Jahren. Lesen, schreiben und übersetzen können die molekularen Informationssysteme also seit mehr als einer Ewigkeit. Dass die menschliche Sprache ungleich komplexer gebaut ist, ändert nichts daran, dass sie natürlichen Ursprungs ist.

Wenn der Mensch heute mit Hilfe neuronaler Netze künstliche, semiotische Systeme entwickelt, so beruht der entscheidende Fortschritt darauf, dass diese „digitalen“ Systeme immer bionischer geworden sind, dass also die Konstruktionsprinzipien sich mehr und mehr den natürlichen Prozessen annähern. Wo die Technik auf der „Ingenieursebene“ die Natur nachahmt, dekonstruiert sie diese auch, aber diese Dekonstruktion ist und bleibt, mit Derrida oder gegen ihn, immer auch eine Rekonstruktion. Wenn wir nun das semiotische Vermögen aus der Natur in die technischen Geräte hineinholen, so implementieren wir m.E. auch Ansätze einer hermeneutischen Prozessualität, auf die Steiner hingewiesen hat. Homo faber hat sich der Sprache zugewandt – und beiderlei werden verwandelt aus dieser unerwarteten Begegnung hervorgehen.

In der Maschinerie der künstlichen, semiotischen Systeme liegt eine dekonstruktive Kraft, die der Sprache selbst und der fortlaufenden, sprachlichen Übersetzungsleistung von Text zu Text innewohnt. Dass wir diese Möglichkeit beim Reden über die erstaunlichen Fähigkeiten der Chatbots übersehen, liegt auch daran, dass wir unsere Verstehensprozesse immer noch zu wenig als den Ausdruck biologischer und damit evolutionärer Vermögen begreifen. George Steiner hat hingegen mit einer für die Philologie unerhörten Deutlichkeit herausgestellt, dass Verstehen vom evolutiven Geschehen nicht zu trennen ist. Das hermeneutische ist auch ein historisches und evolutives, es ist auch ein fleischliches Geschehen. Was bei Derrida an vielen Stellen seiner Texte, etwa zur hermeneutischen Bewegung der différance, geschehen müsste und doch nie geschah, war der Brückenschlag zu den Einsichten der Evolutionstheorie.

Mit Derrida, gegen ihn, gilt festzustellen: Gerade weil es bei jeder Übersetzung und bei jedem Prozess der Interpretation und Neukomposition von Texten zu (oft unbemerkten) Bedeutungsverschiebungen, Anpassungen, Umdeutungen, Fehlübersetzungen kommt, gerade weil die Sprache nicht in Selbst-Identität verharrt, ist sie der Entwicklung fähig. Gerade in der unvermeidlichen Drift der Bedeutungen liegt ein evolutionäres Moment.

Indem die Maschinen nun in einen semiotischen Prozess hineingeholt werden, sehen wir uns mit einer neuen Quelle von überschießender Bedeutungen (sog. „Überschusssinn“) konfrontiert, einem Phänomen also, mit dem die Menschen laut Dirk Baecker auch schon bei der Entstehung der Lautsprache, der Schrift und des Buchdrucks konfrontiert waren (47). Es ist diese wiederholte Erfahrung einer überschießenden und doch mangelhaften Erweiterung menschlicher Kommunikation, für welche der welt- und kulturübergreifende Mythos von der Vervielfältigung und Verwirrung der Sprachen, für den insofern auch Babel steht. Dabei resultiert die Schwierigkeit der Menschen, einander zu verstehen, aber nicht aus der Vielfalt der Sprachen, sondern aus dem hermeneutischen Prozess selbst.

Gerade weil Derrida Recht hat, dass keine Sprache hermetisch ist, stellt sich die Frage, ob das eigentliche Grauen nicht eher vom Hermeneutischen als vom Hermetischen ausgeht. Nicht allein der Einschluss und die Abkapselung, nicht der Hang zum Monadischen, Hermetischen, nicht der Selbstverschluss in der Privatsprache ist der Quell für das puristische Denken, sondern der Prozess des Übersetzens, der carneologische Prozess der Aneignung, Überwältigung und Einverleibung, der damit einhergeht. Bei aller Feier der Verständigung ist diese immer auch das Ergebnis einer Aneignung, einer wechselseitigen Verschlingung, einer Verschlingung, die vielfach von der Sprache ausgeht und mit der Sprache betrieben wird und mit der Sprache endet.

Die mit einer Unmenge von Texten gefütterten Sprachmodelle verstärken darum eben auch die monströsen Seiten des hermeneutischen, carneologischen Prozesses. Indem wir die künstlichen, neuronalen Netze immer weiter füttern, machen wir sie zu einem Teil unserer Textwelten. Indem wir sie nutzen, greift deren Logik in den übergreifenden hermeneutischen Prozess ein. Damit erhält die Maschine aber auch eine Mitsprache bei der Aufgabe des Übersetzers. Und falls Derrida Recht hat, wird diese Maschinerie damit auch die Schuld auf sich nehmen, die den Übersetzer von Anfang an begleitet. Dieser Anfang liegt in einer Natur der Zeichen und die menschliche Kultur darf man auch als eine besondere Ausprägung dieser Natur der Zeichen deuten (48). Wenn schon die erste Natur ohne den Gebrauch von Zeichen nicht erklärbar ist, braucht es doch künstliche semiotische Systeme, in denen uns diese erste Natur als dritte Natur erneut begegnet.

Dass man da (auch beim Zählen) durcheinander gerät, ist verständlich. So bedeutet Babel auch die Irritation des Menschen über eine Sprache, die er sein Eigenes wähnt, deren Beherrschung er behauptet und neben der er im Grunde keine anderen Götter duldet. Nicht zuletzt erinnert uns Babel daran, dass der Mensch in der Sprache eben nicht aufgeht, dass schon die menschliche Sprache immer etwas Künstliches war, dass die Menschen auch ihrem eigenen Sprechen immer mit einem Befremden begegneten, das seine Berechtigung hat. Es ist die Sprache selbst, die uns so nachhaltig irritiert.

Die Interaktion von Mensch und Maschine wird vor den Bedeutungsräumen nicht Halt machen. Der künstlich generierte Text hat einen Mangel und einen Überschuss an Sinn. Wir treten an diese Texte bei aller Künstlichkeit ihrer Entstehung doch wieder als Übersetzer heran, mit Gefühlen der Überlegenheit und der Unterlegenheit (49). Angesichts dieser künstlich generierten Sätze, Argumente und Behauptungen werden wir immer wieder neu entscheiden müssen, ob und welchen Sinn wir diesen abgewinnen können oder wollen. Und wenn wir im Austausch mit der Maschine etwas verstehen werden, dann wird dieses System Teil der hermeneutischen Kulturtechniken geworden sein. Sie werden zur Verständigung beitragen und zur Verwirrung. Die bedeutsamsten Effekte dieser Verschiebung dürften quer zu unseren Erwartungen liegen, im Guten wie im Schlechten. Was wir zu erwarten haben, ist keine Singularität, sondern das Unerwartete.

Anmerkungen

(1) Steiner, George: „Nach Babel : Aspekte der Sprache und des Übersetzens“. Erweiterte Neuauflage, 1. Auflage dieser Ausgabe, Frankfurt am Main: Suhrkamp, 1994, S. 45

(2) vgl. etwa Schwarzer, Christine, Borso, Vittoria, (Hrsg.): „Übersetzung als Paradigma der Geistes- und Sozialwissenschaften“, Oberhausen, 2006

(3) Steiner, S. 49

(4) ebd.

(5) Walter Benjamin: „Über Sprache überhaupt und über die Sprache des Menschen“, in: Walter Benjamin: „Gesammelte Schriften“, Band II, Teilband 1, Hrsg. von Rolf Tiedemann und Herrmann Schweppenhäuser, 1. Auflage, Frankfurt am Main: Suhrkamp, 1991, S. 151

(6) ebd., S. 144

(7) ebd., S. 154

(8) Steiner, Kapitel 5 [genauer Textbeleg wird nachgeliefert]

(9) So jedenfalls fasse ich Steiners Modell in aller Kürze zusammen. Wichtig zu erwähnen scheint mir, dass die erste Phase des Vertraut-Machens bei Steiner auch als eine Form des Vertrauens in den Wert des zu übersetzenden Textes erscheint. Hierin liegt bereits eine basale Form der Anerkennung von Bedeutsamkeit im ursprünglichen Text. Man kann vermuten, dass Derrida an dieser Stelle nicht mitgehen würde.

(10) Marco Agnetta & Larisa Cercel (2019): „George Steiner’s After Babel in contemporary Translation Studies“, in: Church, Communication and Culture, 4:3, S. 367

(11) vgl. hierzu etwa diese Passage aus dem Phaidros-Dialog: „Denn diese Erfindung wird der Lernenden Seelen vielmehr Vergessenheit einflößen aus Vernachlässigung des Gedächtnisses, weil sie im Vertrauen auf die Schrift sich nur von außen vermittelst fremder Zeichen, nicht aber innerlich sich selbst und unmittelbar erinnern werden.“ (vgl. Platons Werke. Erster Theil, Übers. nach Schleiermacher, S. 275)

(12) siehe hierzu etwa das ähnlich lautende Motiv des Vergessens bei Orwell: „Bis 2050 – wahrscheinlich sogar früher – wird alles tatsächliche Wissen von Altsprech verschwunden sein.“ (zitiert nach Wikipedia: „Neusprech“, abgerufen am 18. September, 12:30)

(13) Jacques Derrida: „Babylonische Türme. Wege, Umwege, Abwege.“, in: Hirsch, Alfred (Hrsg.): „Übersetzung und Dekonstruktion“, 1. Aufl.,Frankfurt am Main: Suhrkamp, 1997, S. 141

(14) ebd.

(15) ebd., S. 124

(16) ebd.

(17) ebd., S. 140

(18) ebd., S. 145

(19) ebd., S. 159

(20) So betont Umberto Eco an folgender Stelle sehr deutlich die Grenzen der Interpretation: „I hope that the essays in this book (especially the one on Peirce) will make clear that the notion of unlimited semiosis does not lead to the conclusion that interpretation has no criteria. To say that interpretation (as the basic feature of semiosis) is potentially unlimited does not mean that interpretation has no object and that it „riverruns“ for the mere sake of itself. To say that a text potentially has no end does not mean that every act of interpretation can have a happy ending. Even the most radical deconstructionists accept the idea that there are interpretations which are blatantly unacceptable. This means that the interpreted text imposes some constraints upon its interpreters. The limits of interpretation coincide with the rights of the text (which does not mean with the rights of its author).“ (Umberto Eco: The limits of interpretation, Indiana University Press, 1994, S. 6 f.)

(21) Im weiteren weist Umberto Eco mE überzeugend nach, dass Derridas Peirce-Lektüre zu fragwürdigen Über-Interpretationen gekommen sei und man im Sinne von Peirces Text nicht umhin komme, diese Interpretation in Frage zu stellen: „Is this interpretation of Peirce philologically, and philosophically, correct? I understand how ironic my question can sound. If Derrida assumed that his interpretation is the good one, he should also assume that Peirce’s text had a privileged meaning to be isolated, recognized as such and spelled out unambiguously. Derrida would be the first to say that his reading makes Peirce’s text move forward, beyond the alleged intentions of its author. But if we are not entitled, from the Derridian point of view, to ask if Derrida read Peirce well, we are fully entitled to ask, from the point of view of Peirce, if he would have been satisfied with Derrida’s interpretation.“ (Umberto Eco: The limits of interpretation, Indiana University Press, 1994, S. 35)

(22) Gauger/Heckmann: „Wir sprechen anders. Warum Computer nicht sprechen können“, Frankfurt am Main: Fischer, 1988.

(23) Hartmut von Hentig: „Das Ende des Gesprächs“, in: Gauger/Heckmann, S. 87

(24) ebd.

(25) Hubert L. Dreyfus: „Wir werden nie wie die Computer sprechen“, in: Gauger/Heckmann, S. 127

(26) Gauger/Heckmann, Vorwort, S. 9

(27) vgl. etwa Brigitte Schlieben-Lange: „Die Folgen der Schriftlichkeit“ im gleichen Band.

(28) vgl. etwa Mario Wandruszka: „Plädoyer für Mehrdeutigkeit“ im gleichen Band.

(29) Die fünfte Tagung der Starnberger Gespräche fand am 12. und 13.10.1968 statt. Die Diskussion zum Thema „Philosophische Konsequenzen und zukünftige Möglichkeit der Kybernetik“ wurde in folgender Publikation veröffentlicht: Ditfurth, Hoimar &Wolf-Dieter Bach (Hrsg.): „Informationen über Information : Probleme der Kybernetik. Starnberger Gespräche 1968“, Hamburg: Hoffmann & Campe, 1969

(30) Im eben genannten Band, S. 188

(31) So etwa Heinz Zemanek: „Es stellt sich hier die Frage des Schutzes der Privatsphäre. Man wird dafür sorgen müssen, daß gewisse persönliche Interessen in einem automatischen Netz mindestens ebenso geschützt sind, wie es jetzt der Fall ist.“ (ebd., S.189) Und Karl Steinbuch im gleichen Kontext: „Man muß sicherstellen, daß ein Zugriff zum allgemeinen Speichersystem nur den hierzu berechtigten Stellen möglich ist, und daß die Ausführung des Zugriffs registriert wird.“ (ebd., S. 190)

(32) Petermanns visionäre Fragestellung: „Ausgehend von der Vorstellung, daß wir den Großcomputer haben, der die Gesamtheit aller Informationen enthält und daraufhin angezapft werden kann, frage ich: Glauben Sie, daß diese Form der Informationsübermittlung, die vielleicht partiell an die Stelle der Zeitung der Massenmedien treten könnte, dem, was als Manipulation von Information bezeichnet wird etwa im Sinne der Auffassung politischer Zusammenhänge und der Urteilsbildung -, entgegenwirkt oder sie fördert?“ (ebd., S. 204)

(33) ebd., S. 189

(34) Steinbuch: „Wenn wir die ganze Technik ohne vorbedachte Absicherungen benützen, wird diese Möglichkeit [der Massenmanipulation] enorm zunehmen. (…) Man muß also wohl von vornherein, sowohl beim Programmieren als auch beim technischen Aufbau, die Möglichkeit der Massenbeeinflussung beachten. Wir müssen gewissermaßen die Liberalität in der technischen Struktur verankern, das heißt es müssen konkurrierende Informationssysteme entstehen, und das einzelne Individuum muß die Möglichkeit haben, sich verschiedene, voneinander unabhängige Meinungen zu bilden.“ (ebd., S. 205)

(35) ebd., S. 192

(36) ebd.

(37) ebd.,

(38) ebd., S. 209 f.

(39) ebd.

(40) ebd.

(41) ebd.

(42) vgl. Dirk Baeckers zentrale These: „Probleme der Digitalisierung entstehen daraus, dass elektronische Medien der Gesellschaft an der Schnittstelle von Mensch und Maschine einen Überschusssinn bereitstellen, auf dessen Bearbeitung bisherige Formen der Gesellschaft strukturell und kulturell nicht vorbereitet sind.“ (Dirk Baecker: „Wie verändert die Digitalisierung unser Denken und unseren Umgang mit der Welt?“, in: Rainer Gläß und Bernd Leukert (Hrsg.), Handel 4.0: „Die Digitalisierung des Handels – Strategien, Technologien, Transformation“, Berlin: Springer Gabler, 2016, S. 3–24.)

(43) Benjamin: „Über Sprache überhaupt und über die Sprache des Menschen“, S. 155

(44) vgl. FAZ (15.9.2023): „Menschen glauben der Künstlichen Intelligenz sehr schnell alles“, Gespräch von Patrick Bernau mit Alena Buyx, Link: https://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/ethikrat-chefin-alena-buyx-ueber-kuenstliche-intelligenz-19126425.html

(45) BENDER, Emily M., et al.: „On the dangers of stochastic parrots: Can language models be too big?🦜“. In: Proceedings of the 2021 ACM conference on fairness, accountability, and transparency. 2021. S. 610-623.

(46) Arkoudas, K: „ChatGPT is no Stochastic Parrot. But it also Claims that 1 is Greater than 1.“, Philos. Technol. 36, 54 (2023).

(47) vgl. Dirk Baecker: „Wie verändert die Digitalisierung unser Denken und unseren Umgang mit der Welt?“

(48) Möglicherweise ist das Phänomen des „Überschusssinn“, welches Dirk Baecker, ausgehend von Überlegungen bei Niklas Luhmann, vor allem kulturevolutionär ausgedeutet hat, also auf die natürliche Evolution semiotischer Systeme zu erweitern.

(49) So schrieb etwa Klaus Laermann in einem lesenswerten Artikel: „Fast immer haben Übersetzer ein Gefühl der Unterlegenheit und zugleich der Überlegenheit über einen Text und seinen Autor. Denn sie sind zugleich über und unter der Vorlage, die sie übersetzen. Folglich wechseln bei ihnen Ohnmachtsempfindungen mit regelrechten Allmachtsphantasien.“ (Klaus Laermann: „Von Babel bis Pfingsten“, in: NZZ, 9.6.2014) – Link: https://www.nzz.ch/meinung/debatte/von-babel-bis-pfingsten-ld.818309?reduced=true

Bildnachweis: „Großer Turmbau zu Babel“ von Pieter Bruegel der Ältere, gemeinfrei

Ein Kommentar zu „Babel

Hinterlasse einen Kommentar