Kupsch-Transkulturell

Zur Hauptseite von Frau Dr. Kupsch-Losereit
Zur Hauptseite des Fachbereiches
Zur Hauptseite der Universität Mainz


Übersetzen als transkultureller Verstehens- und Kommunikationsvorgang: andere Kulturen, andere Äußerungen

Dr. Sigrid Kupsch-Losereit
Fachbereich Angewandte Sprach- und Kulturwissenschaft
Johannes Gutenberg-Universität Mainz/ Germersheim
D 76711 Germersheim
An der Hochschule 2

Inhalt

  1. Verstehen als hermeneutischer Prozeß
  2. Verstehen in der KI-Forschung bzw. Wissensbasierten Systemen
  3. Searles Chinesisches Zimmer
  4. Verstehen in der Kognitionswissenschaft als neuronales Geschehen
  5. Textverstehen als Resultat kognitiver Prozesse
  6. Didaktische Konsequenzen

siehe auch:


1 Bibliographische Angaben

1.1 Quelle

1.2 Zusammenfassung

Der Beitrag soll die Faktoren, die das Textverstehen des Übersetzers steuern und die Auswirkungen dieses Verstehens auf die Übersetzung, untersuchen. Dazu ist es notwendig, den Verstehensbegriff zu klären, wobei wissenschaftsgeschichtlich drei Konzepte unterschieden werden können:
  1. Verstehen als hermeneutischer Prozeß
  2. Verstehen in der KI-Forschung bzw. Wissensbasierten Systemen
  3. Verstehen im Konnektionismus

Für die moderne Hermeneutik ist Textverstehen ein kontinuierlicher Prozeß, der von geschichtlich bedingten gesellschaftlichen Prozessen sowie individuellen Kommunikationsformen abhängt. Der Sinn eines Textes ergibt sich somit als Entfaltung eines wirkungsgeschichtlich unabschließbaren veränderlichen Bedeutungspotentials eines Textes.

Die künstliche Intelligenzforschung dagegen geht davon aus, daß das menschliche Gehirn wie ein Computer funktioniert, der eine wohldefinierte Folge von Operationen, sog. Algorithmen, ausführt. Verstehen besteht dann darin, in Grammatik und Lexikon modelliertes Wissen als starr abgespeicherte Informationseinheiten zu verarbeiten, ohne das Zusammenspiel von Wörtern und Situationen/ Kontext als Resultat einer Gehirntätigkeit zu berücksichtigen.

Ein völlig neues Verstehensmodell entwickelt die Kognitionswissenschaft mit dem sog. Konnektionismus. Er modelliert - neurophysiologisch - den Verstehensprozeß als vernetzte Integrationsleistung von perzeptuellem, sprachlichem und konzeptuellem Wissen. Dieser als Neuronenfluß vorgestellte integrative Prozeß ist subjektiv-individuell und immer strategisch-konstruktiv, da erst kognitive Prozesse, sog. Inferenzen, Text- und Erfahrungsinhalte in Beziehung setzen. Verstehen ist folglich ein immer wieder neu erfolgender text- und wissensgeleiteter Prozeß, in dem kulturelle, sozial-interaktive, situative, affektive, kognitive und sprachliche Faktoren interagieren und sich wechselseitig ergänzen. An einem französischen Text und dessen deutscher Übersetzung soll detailliert aufgezeigt werden, daß und wie Verstehen erst durch Inferenzen, die sprachliches und außersprachliches Wissen verbinden, möglich ist.


Die Modellierung von Verstehensprozessen und die Konsequenzen für den Übersetzungsunterricht

Beim täglichen Übersetzungsunterricht unterstellen wir meist einen Zusammenhang zwischen den Faktoren, die das Textverstehen des Übersetzers steuern und dem Textprodukt, der Übersetzung. Ich möchte daher zunächst einmal versuchen, den Begriff des Verstehens wissenschaftsgeschichtlich zu klären, wobei ich auf Ergebnisse der Forschung auf dem Gebiet der Künstlichen Intelligenz bzw. Wissensbasierten Systeme und des Konnektionismus zurückgreife. Es scheint mir, daß diese Ergebnisse nicht nur brauchbare Modelle für Verstehensprozesse allgemein liefern sondern uns auch einen guten Schritt näher bringen, um den konkreten Ablauf solcher Prozesse selbst zu begreifen. Solche Verstehensprozesse, verstanden als bewertendes, dialogisches und dynamisches Handeln, stellen sich nämlich als kognitive Prozesse heraus, wie sie fortwährend bei übersetzerischen Entscheidungen ablaufen; sie sind daher für eine Übersetzungsdidaktik von zentraler Bedeutung. Ein zweiter anwendungsbezogener Teil wird somit versuchen, die didaktischen Konsequenzen der kognitionswissenschaftlichen Modelle für den Übersetzungsunterricht aufzuzeigen.

Zuerst also zum Begriff des Verstehens, den ich theoriegeschichtlich erläutern möchte:

  1. Verstehen als hermeneutischer Prozeß
  2. Verstehen in der KI-Forschung bzw. Wissensbasierten Systemen
  3. Searles Chinesisches Zimmer
  4. Verstehen im Konnektionismus als neuronales Geschehen
  5. Textverstehen als Resultat kognitiver Prozesse

1 Verstehen als hermeneutischer Prozeß

Schon die klassische Hermeneutik und erst recht die neuere Hermeneutik à la Gadamer (51986), Habermas (31985) etc. sehen Textverstehen als kontinuierlichen Prozeß, der von geschichtlich bedingten gesellschaftlichen Prozessen sowie individuellen Kommunikationsformen abhängt. Verstehen ist damit stets an einer bestimmten Fragestellung orientiert und mithin von einem Vorverständnis der Sache geleitet. So stellt der Übersetzer den AT (Ausgangstext) zum einen unter Einbeziehung vorhandener sprachlicher wie nichtsprachlicher Wissensbestände von seinem historischen Standpunkt und seinen kulturspezifischen Konventionen und Traditionen aus in ein Überlieferungsgeschehen. Zum anderen liest er ihn mit bestimmten Intentionen, Einstellungen, Dispositionen, normativen Vorstellungen etc., die wir als affektive Faktoren bezeichnen. In seine interessegeleitete Lektüre gehen ebenfalls angenommenes Vorverständnis und Erwartungshaltungen des ZT (Zieltext)-Empfängers mit ein. Für den Übersetzer bedeutet Verstehen also, Verstehen von etwas und für jemanden; es dient der Vermittlung und Überbrückung von historisch-kultureller Distanz zwischen Produzenten- und heterokultureller Rezipientensituation sowie der unterschiedlichen Voraussetzungen und SkopoÔ der Textproduktion. Der Sinn eines Textes ist also nicht zeitlos vorgegeben, er ergibt sich als Entfaltung eines wirkungsgeschichtlich unabschließbaren veränderlichen Sinnpotentials eines Textes, z. B. als vom Übersetzer geleistete Sinnkonstruktion, die die Integration der textuellen Information in die Wissens- und Handlungsstrukturen des Rezipienten ermöglicht.

2 Verstehen in der KI-Forschung bzw. Wissensbasierten Systemen

Völlig neue Impulse erfährt dieses Modell durch die Simulationsstudien der Computerwissenschaft. Insbesondere die KI-Forschung, und seit den 70er Jahren die Forschung zu Wissensbasierten Systemen, wo die KI-Systeme zunehmend mit Wissen über den jeweiligen Anwendungsbereich ausgestattet wurden und das vom System benutzte Wissen explizit kodiert wird, erweiter- und modifizierbar ist, geht davon aus, daß der Mensch wie ein Informationsverarbeitungssystem funktioniert. Der Mensch ist wie der Computer ein symbolverarbeitendes System, wobei Symbole - z. B. Sprachsymbole - sehr allgemein als intern abgespeicherte und festgelegte Informationseinheiten, als abgespeicherte Wissensrepräsentationen aufgefaßt werden. Denken, Verstehen, bedeutungsvolles Verhalten geschehen durch Verarbeitungsvorgänge dieser Symbole und damit auch der Interaktion mit der Welt. Diese Verarbeitungsvorgänge hat man sich als schrittweise festgelegten Ablauf von Operationen vorzustellen, als Algorithmus1. Sie setzt daher Hardware bzw. Maschine in Analogie zum Gehirn und Software bzw. Programm oder Algorithmus in Analogie zum menschlichen Geist. Akzeptiert man diese Prämissen, die geistige Tätigkeit des Menschen zu verstehen als Ausführen einer wohldefinierten Folge von Regeln und Operationen, sog. Algorithmen, also unabhängig von den physikalischen Eigenschaften der neuronalen Ebene des Gehirns, dann scheint die computergesteuerte Simulation kognitiver Prozesse erfolgversprechend. Erfolgversprechend, weil ein Computer die Funktionsweise des menschlichen Gehirns nachahmen könnte, vorausgesetzt, er hat ausreichenden Speicherplatz und hohe Rechengeschwindigkeit. Aber diese Art von Rechnern, einschließlich der Vektorrechner, führen eben nur Algorithmen aus, ohne die Regeln ihrer eigenen Anwendung zu kennen, verarbeiten nur das in Lexikon und Grammatik modellierte Wissen, aber nicht das Wissen um deren Anwendung, um praktische Regeln, soziale Konventionen der Sprechergemeinschaft, Diskursstrategien etc. Das für das Übersetzen erforderliche Wissen zu repräsentieren gelang auch in Expertensystemen bzw. Wissensbasierten Systemen nicht, denn es ist auf formale Strukturen und Prozeduren, standardisierten Texten aus einem bestimmten, winzigen Sachgebiet und auf ein Wissen, das nicht auf Erfahrung beruht, beschränkt. Und damit ergeben sich die Schwachstellen solcher Systeme:

3 Searles Chinesisches Zimmer

Schon für uns Laien ist es äußerst fragwürdig, ob die computationellen Modelle die wesentlichen Prozesse unserer mentalen Verarbeitung abbilden können wie etwa Denken, Fühlen, Verstehen etc. Denn ein Computer führt einen Algorithmus aus, er manipuliert Symbole, ohne eine Geschichte verstehen zu müssen, ja zu können. Ein schlagendes Beispiel dafür lieferte der des Chinesischen nicht mächtige Searle mit seinem hermetisch abgeriegelten chinesischen Zimmer2. Auf Kärtchen mit chinesischen Symbolen wird ihm da eine Geschichte erzählt, die jeweils mit einer Frage endet. Searle nun soll sie beantworten allein mit Hilfe von auf englisch formulierten Regeln, wie er diese Kärtchen zu manipulieren hat. Er beantwortet alle Fragen korrekt. Daraus schließt er, daß er zwar einen Algorithmus richtig ausgeführt hat, aber kein Verstehen stattgefunden hat, weil er nicht im geringsten die Bedeutung der Geschichte erfaßt hat. Er wußte nicht, was die Zeichen, die chinesischen Symbole repräsentierten. Es fehlten ihm dabei die wichtigsten Wesensmerkmale des Verstehens, so Searle, nämlich referentielle Semantik und Intentionalität, die der Verwirklichung eines bestimmten kommunikativen Bedürfnisses dienen und auch durch die situativ und soziokulturell definierte Rolle des Übersetzers bestimmt werden. Das Verstehen einer Äußerung ist also von bereits im Diskurs repräsentierten Dingen abhängig, die auf vorgestellte und erinnerte Dinge Bezug nehmen3, sowie an soziale und interaktionelle Bedingungen geknüpft, und damit also partner- und situationsbezogen sind. Ein einfaches Beispiel für das Gelingen von Referenz als mentale Leistung von Sprecher und Hörer in partikularen Situationen ist die Interpretation von raumzeitlichen Relationen, von deiktischen Angaben allgemein. So kann die einfache Anweisung im Deutschen: Wasch Dich nur unter präziser Kenntnis der lokalen Situation von Sprecher und Hörer ins Französische übersetzt werden, nämlich als lave-toi , wenn der Befehlsempfänger neben mir gemeinsam vor dem Waschbecken steht, oder als Va bzw. viens te laver, wenn der Angewiesene sich außerhalb des Badezimmers befindet.

Searle stellt mit seinem Versuchsdesign die reine Symbolverarbeitung auf Grund von Wörterbuchdefinitionen und Algorithmen dem - modern gesprochen - kontextsensitiven Verstehen gegenüber. Kontextsensitivität soll etwa folgende Faktoren einschließen: Sprechergemeinschaft, soziale Einbettung, situatives Wissen, Kontext und soziale Konventionen einer Gemeinschaft, praktisches Regelwissen, situativ-praktischer Kontext der Handlung und semantisch-kognitiver Kontext der Erklärung und der Interpretation. Kontextsensitivität besagt aber auch, daß wir verdeutlichen und rekonstruieren, was wir jeweils ausblenden und unberücksichtigt lassen, wenn wir in einem begrenzten Objektbereich zu exakten Ergebnissen kommen wollen. In einem solchen Fall liegt quasi ein Dekontextualisierungsprozeß vor. Eine solche De- oder vielleicht besser Umkontextualisierung ist bei fast jedem Übersetzungsvorgang angesprochen; erinnert sei hier an unterschiedliche kontextabhängige wissenschaftliche Spezialsprachen, die je nach Kontext variieren wie z. B. in der Medizin. Dem gelehrten medizinischen Wort lateinischen Ursprungs im Englischen steht im Deutschen - kontextabhängig von Fach- oder Gemeinsprache - entweder das gelehrte lateinische Wort oder das deutsche Wort gegenüber.

4 Verstehen in der Kognitionswissenschaft als neuronales Geschehen

Das von Searle formulierte Unbehagen an computationellen Modellen führte in den 80er Jahren mit dem sog. Konnektionismus zu einer Art Paradigmenwechsel. Man merkte, daß die neuronale Ebene des Gehirns berücksichtigt werden muß, die Fähigkeit des menschlichen Gehirns, parallel zu arbeiten, also separate Operationen unabhängig voneinander auszuführen und diese weitgehend autonomen Operationen permanent miteinander zu kombinieren z. B. bereits repräsentierte Referenzen im Diskurs aufeinander zu beziehen. Nervenzellen pflegen Beziehungen zu benachbarten Zellen und ihre Signalwege sind vielfach verbunden. Kein zentrales Programm steuert diese Signalwege; globales Verhalten, auch Sprachverhalten, ergibt sich als Resultat des Signalaustausches, der hinwiederum von vielerlei Umständen, von einer Anzahl von "Nutzenfunktionen" abhängt, so daß ein optimal angepaßtes Verhalten herauskommt. Das sieht zielgerichtet aus, ist aber opportunistisch (vgl. Hönig 1993). Parallelrechner, die man Connection machines nennt, sollen diese Tätigkeit des menschlichen Gehirns nachahmen. Ein solcher Rechner ist ein künstliches neuronales Netz, das aus vielen parallel arbeitenden Prozessoren - Neuronen und Knoten vergleichbar - besteht, die über Synapsen miteinander verknüpft sind. Hauptmerkmal neuronaler Netze ist ihre Lernfähigkeit; sie erlernen Verbindungen zwischen den Knoten mit Hilfe selbsterstellter Lernalgorithmen dadurch, daß bestimmte Verbindungen zum einen häufig und zum anderen in variierender Leistungsstärke (Stromstärke etc.) aktiviert werden. Später können diese Verbindungen dann schneller wiederaufgebaut werden, um Bilder, Muster oder Sprachzeichen zu erkennen, ja sogar zu vervollständigen. So werden z. B. beim Hörer lexikalische Einheiten aktiviert, zusätzliche Bedeutungskomponenten erregt, semantische Beziehungen hergestellt, je nach Stärke der Verbindung und Aktivierung der Knoten andere Konzepte realisiert etc.

Die Vielzahl unabhängiger, gleichzeitig ablaufender Vorgänge im Parallelrechner, die aber auch bedingt parallel, hin- und herflitzend sich beeinflussen, simulieren also Denkvorgänge, die als Einheit funktionieren. Die wechselseitigen Beziehungen, auch Vernetzungen genannt, z. B. des perzeptuellen, sprachlichen und konzeptuellen Wissenssystems machen Kognition aus. Die Verarbeitungsprinzipien der konnektionistischen Modelle decken sich also größtenteils mit denen neurophysiologischer Modelle und weisen Ähnlichkeiten zu den neuronalen Vorgängen im Gehirn auf. Konnektionistische Modelle stehen diametral symbolischen Modellen gegenüber, die mentale Phänomene rein linear propositional und losgelöst von ihrer neuronalen Verankerung im Gehirn betrachten. Neuronale Aktivität ist keine diskrete Abfolge von Aktionen sondern besteht in parallel sich abspielenden Prozessen. Die strikte Trennung von mentaler (hardware) und neuronaler (software) Ebene ist im Konnektionismus aufgehoben, die Modellierung kognitiver Prozesse ist neuronal, nicht symbolisch-funktional inspiriert4. Konzepte sind im Gedächtnis nicht isoliert abgespeichert sondern mit anderen Konzepten verknüpft. Die interkonzeptuellen Beziehungen stellen kognitive Strukturen dar, die Zusammenhänge eines Realitätsbereichs repräsentieren. Solche komplexen Zusammenhänge und ihre sprachliche Konzeptualisierung in ihrer kulturgebundenen Redesituation oder anders gesagt: die Repräsentationen stereotypen sprachgebundenen Wissens werden frames genannt5. Diese Frames sind Bezugsrahmenvorstellungen für typische Konstellationen und Ereignisse des täglichen Lebens in einem als semantisches Netzwerk konzipierten Modell. Man geht also von der Annahme aus, daß Wissenseinheiten, auch sprachliches Wissen, nicht ungeordnet, sondern in systematischen Zusammenhängen und typischen Konstellationen, wie z. B. Restaurantbesuch, Begrüßung, Immatrikulation etc. abgespeichert, als Muster wiedererkannt und auf analoge Situationen angewandt wird.

Verstehen (und Sinn) beruht damit auf einer vernetzten Integrationsleistung, mit der wir Texte, Sätze, Wörter und außersprachliche Wissensbestände in unser Bewußtsein eingliedern. Dieser integrative Prozeß ist subjektiv-individuell, da die Verknüpfungen in neuronalen Netzwerken nicht vorgegeben sind und sich jeweils selbst organisieren, aus Erfahrung gelernt haben und weiterhin lernen. Verstehen ist also nicht eine starre Zuordnung von Text und hierin objektiv abgebildeter Realität sondern ein subjektiv-interaktiver Prozeß; in ihm erfolgt die mikrosekundenschnelle Selektion, Verknüpfung und Bearbeitung sprachlicher Repräsentation (die natürlich z. T. konventionell und kulturell vorgeprägt ist) sowie deren Integration in die von einem Text eröffneten Handlungszusammenhänge.

5 Textverstehen als Resultat kognitiver Prozesse

Nach kognitions- wie neurowissenschaftlichen Erkenntnissen wird Textverstehen erst möglich durch das im Langzeitgedächtnis gespeicherte Wissen über das Referenzpotential eines Ausdrucks, die mit ihm verbundenen Situationen sog. Standardsituationen, den Bezug eines Ausdrucks zu vorgestellten und erinnerten Dingen, zu sozialen und interaktionellen Mustern etc. Oder anders ausgedrückt: Referenz ist keine von vorneherein festgelegte Relation Sprache - Welt sondern eine aktuell-spontane Relation zwischen Sprache und Situation bzw. Handlungszusammenhängen und ergibt sich als Konstrukt kognitiver Operationen. Diese Operationen aktivieren zunächst die Wissensbasis - Vorstellungsbilder und verbale Einheiten - und die kommunikativen Strategien des Sprechers/ Autors und dann die des Hörers/ Lesers. Dabei ist Referenz nicht nur perzeptuell erfahrbare Welt, sondern konventionelle Bedeutung plus Erfahrungsinhalt, Gebrauch eines sprachlichen Ausdrucks in bestimmten Situationen durch einen Sprecher; sie kommt also erst durch mentale Leistungen von Sprechern und Hörern zustande, die kommunizieren und eine Situation bewältigen wollen. Sprachproduktion als Realisierung der Intention eines Sprechers setzt also Sprachwissen, Wissen über sprachliches Handels, sog. Interaktionswissen (v. a. Wissen über Sprechakte: vgl. Heinemann/ Viehweger 1991, 96-108) sowie Weltwissen und Referentialität voraus. Verstehen beim Leser/ Hörer ist das Resultat kognitiver Prozesse, von Inferenzen, die aus mentalen Schlußfolgerungen, wie z. B. Identität, Ähnlichkeit, Muster feststellen, und Problemlösungsoperationen bestehen. Inferenzen setzen Textinhalte mit Erfahrungs- sowie Wissensinhalten in Beziehung. Verstehen ergibt sich damit als Leistung des Rezipienten, hier des Übersetzers, unter Einbeziehung all seines Interaktionswissens, die Intentionen und Zwecke des Textes erkennen und die Verstehensbedingungen und -möglichkeiten seiner Leser antizipieren zu können. Dazu gehört auch zu wissen, welche kommunikativen und sozialen Funktionen des Textes erwartet werden und mit welchen Voreinstellungen diese "fokussiert" werden6, d. i. die Bewußtseins- und Handlungsdimension.

Textverstehen wird also als strategisch-konstruktiver Prozeß konzipiert, bei dem auf der Grundlage text- und wissensbezogener Informationen eine mentale Repräsentanz der Textbedeutung gebildet wird (Vgl. Biere 1989, Johnson-Laird 1988 und Bower/ Graesser 1990). Verstehen basiert auf der propositionalen Repräsentation, die durch Inferenzprozesse mit zusätzlichen eigenen Wissenselementen (z. B. außersprachlichem Wissen, Kenntnissen von Interessen, Zielsetzungen etc. sowie situativen und sozialen Mustern) zu neuen Propositionen verknüpft werden7. In dieser zweistufigen Modellierung des Verstehensprozesses verschmelzen Textinformation und mentale Modelle zu einem integrierten Ganzen. Verstehen ist folglich ein text- wie wissensgeleiteter Prozeß, in dem sozial-interaktive, situative, affektive, kognitive und sprachliche Faktoren interagieren und sich wechselseitig ergänzen (vgl. Kupsch-Losereit 1993 und 1994).

Auch die Textkohärenz ergibt sich somit als Produkt von Sinnerstellungsoperationen des jeweiligen Lesers, der den Zusammenhang von semantisch-logischen Strukturen, referentiellen Sachverhalten und sozio-kommunikativem Rahmen herstellt. Kohärenz ist also keine Eigenschaft des Textes an sich, sie wird vom Rezipienten erst etabliert, wenn es diesem gelingt, auf der Grundlage der Textinformation durch Inferenzen ein einheitliches mentales Modell zu konstruieren (vgl. Christmann 1989, 86-94). Aus dem Dargestellten ergibt sich die zweifache Rolle des Translators als Deuter und Programmierer, als Rezipient und Produzent. Als Deuter, insofern er durch Rückgriff auf sprachliches und kulturelles Wissen (vgl. die Inferenprozesse) eine mögliche Interpretation und damit Sinn festlegt, Programmierer, insofern er Sinn und damit Handlungsziele entwirft. Und da Kultur, kulturelle Differenz, kulturelle Konventionen und die damit verbundenen Wissensvorräte keine vom Interaktionsprozeß losgelösten Entitäten darstellen, handelt der Translator immer wieder erneut das interaktive Verstehen in Kommunikationssituationen aus; er handelt dieses Verstehen ( z. B. von situativ angemessenem Verhalten) aus, indem er Inferenzprozesse und integratives Verstehen für den Rezipienten ermöglicht. Verstehen gelingt oft deshalb nicht, so Geertz (1987, 19f.), der bekannte Kulturanthropologe, weil wir zwar die Sprache des Fremden verstehen aber nicht die Vorstellungswelt, innerhalb derer seine Handlungen und seine Sprache Zeichen sind. Jetzt können wir auch sagen: weil wir ohne den Rückgriff auf die im Gedächtnis repräsentierten Kenntnisse keine Inferenzen machen können. Ein Beispiel hierzu: Der "Text": Churchill und Adenauer gingen im Garten, dessen Blumenbeete verwahrlost waren, spazieren. Der Rosenliebhaber machte ein betrübtes Gesicht... kann nur verstanden werden, wenn ich weiß, daß Adenauer Rosenliebhaber war und nicht, indem ich die Merkmale zur Bedeutungsfeststellung von Rosenliebhaber aufzähle bzw. im Gehirn präsent habe. Dem Franzosen, dem Kanadier oder dem jungen Deutschen, der Adenauer nicht als Rosenzüchter kennt, muß die Inferenz , also die Schlußfolgerung, die neuronal sprachliches und außersprachliches Wissen verbindet, erst ermöglicht werden, etwa mit: Der Rosenliebhaber Adenauer ... oder: Als Rosenliebhaber machte Adenauer ...oder: Der Rosenliebhaber entfällt ganz, da die metonymische Bezeichnung weder für den weiteren Kontext noch in der respektiven Kultur eine Rolle spielt. Desgleichen verhält es sich mit der metonymischen Paraphrase in folgendem französischen Satz: Le vainqueur d'Iéna est mort en 1821. Eine einzige Studentin übersetzte nicht 'Der Sieger von Jena starb 1821' sondern 'Der Verlierer von Waterloo starb 1821'. Während niemand der ersten Gruppe den Sieger mit Napoleon identifizierte (auch nicht auf meinen Übersetzungsvorschlag hin: 'Der Sieger von Jena und Auerstedt', konnte die Verlierer-Variante von allen Studierenden in ihr Weltwissen integriert werden, wurde verstanden und als angemessenere Übersetzung erachtet, zumal es im Text nicht auf den strahlenden Helden Napoleon ankam.

6 Didaktische Konsequenzen

Didaktisch wirken sich diese Erkenntnisse im wesentlichen auf drei Bereiche aus, die im Übersetzungsunterricht eine große Rolle spielen:

  1. Die Behandlung semantischer Probleme
  2. Das prozedurale Wissen
  3. Die Klärung von Wissensbeständen, insbesondere der Kontexte, innerhalb derer Texte angesiedelt sind und eine Bedeutung haben, sowie die Textauswahl

6.1

Das einschneidendste Ergebnis dieser neuen Verstehenstheorien betrifft die Semantik, insbesondere die lexikalische Semantik. Eine Wortbedeutung besteht demnach nicht mehr aus einem als Lexikoneintrag abgespeicherten starren Merkmalbündel, wie es eine Merkmalsemantik annimmt, noch ergibt sie sich aus festgelegten paradigmatischen Oppositionen, wie es der strukturelle Modelltyp vorsieht, noch ist sie eine inhaltliche, prototypische Einheit, in der untrennbar verbunden propositionales und analoges (Bild)Wissen gespeichert ist. Die Repräsentation von Wortbedeutungen in Netzwerkmodellen muß man sich dagegen etwa so vorstellen: Wortbedeutungen werden repräsentiert als Knoten in Netzen, deren Informationsgehalt sich aus den Beziehungen zu anderen Knoten ergibt. Diese Beziehungen sind nicht exakt absehbar, höchstens vage kalkulierbar, hängen sie doch davon ab, wie häufig - mit gutem Ergebnis - eine solche Beziehung schon hergestellt wurde, ein Neuronenstrom aktiviert und schon geflossen ist. Eine Wortbedeutung ist also keine Summe von Merkmalen, keine von vorneherein festgelegte oppositionelle Relation sondern das Ergebnis einer kognitiven Operation, in der in einer partikularen Situation kontextspezifische Textinformation mit gespeichertem Weltwissen interagiert. Zumindest zwei Aspekte prägen also die sprachliche Referenz:

1. die lexikalische Bedeutung, die mit einem Ausdruck konventionell verbunden ist und das jeweilige Referenzpotential eines Ausdrucks festlegt und

2. der Gebrauch eines Ausdrucks in Standardsituationen durch einen Sprecher einer bestimmten Kultur (vgl. Schwarz 1992, 170 und 178).

Um in dem Satz "Dieser Mann ist ja ein richtiger Falstaff" den vom Sprecher intendierten Referenten identifizieren zu können, muß der Hörer bereits spezielles Kulturwissen über die angesprochene Dramenfigur Falstaff gespeichert haben. Erst die Aktivierung dieses Wissens - der Neuronenstrom muß in einer bestimmten Leistungsstärke fließen, damit die explizit im Text genannten Knoten über einen Schwellenwert gelangen, um inferieren zu können (vgl. Rickheit/ Strohner 1993, 131) - ermöglicht die Identifizierung des Referenzobjekts im wechselnden situativen Kontext und der Sprecherintention. Deutlicher formuliert heißt das, daß die Repräsentationen von Wortbedeutungen keine Informationen sind, die in einem geschlossenen System abgespeichert sind oder holistische Standardrepräsentationen à la Prototypen-Modell. Die Repräsentation von Wortbedeutungen ist ein mentaler Bewußtseinszustand, in dem erst durch das Zusammenspiel von Gedächtnisorganisation, sprachlicher Informationsverarbeitung und kognitiver Strukturbildung eine aktuelle Bedeutung entsteht, die an soziale und interaktionelle wie auch an subjektiv-selbstreferentielle Bedingungen geknüpft ist. Der Bedeutungsaufbau ist also auch nicht an Sprachstrukturen, etwa Wortarten, gebunden. Beim Übersetzen werden vergleichbare Konzepte assoziiert, die ein Verstehen durch den Rezipienten ermöglichen. Dieser komplexe Vorgang der Bedeutungsfindung, der sich jetzt als ein eher assoziativ ganzheitlicher Denkprozeß darstellt, läuft also etwa folgendermaßen ab: das für die Wortverarbeitung relevante semantische Wissen besteht aus einem Netzwerk, dessen Knoten Konzepte repräsentieren. Sowohl die Konzepte wie die Verbindungen zwischen ihnen können unterschiedlich stark aktiviert werden. Die Bedeutung eines bestimmten Konzepts wird realisiert durch die Stärke der Verbindungen zu anderen Konzepten, ist deshalb kontextabhängig.8 So kann aus dem Geburtstagsgeschenk in einem deutschen Text durchaus ein Geschenk zum Namenstag in dem französischen Text werden oder aus dem Klassenbegriff fr. récipient 'Behälter', je nach Kontext - für Flüssigkeiten, Obst oder Käse - eine 'Flasche', ein 'Korb' oder eine 'Käseglocke' bzw. 'Glasglocke'.

6.2

Dem Übersetzerstudenten kann dieser komplexe Vorgang der Bedeutungsfindung mit Hilfe von Problemlösungsprozeduren verdeutlicht werden, indem die in der Situation und der Instruktion enthaltenen Konzepte aktiviert werden und dann aus dieser vorläufigen Repräsentation mit Hilfe adäquater Inferenzen eine definitive Repräsentation erstellt wird. Wie wir sahen, umfaßt die kognitive Kompetenz des Menschen deklaratives, funktionales (intentionales) Wissen und prozedurales Wissen, wobei letzteres im wesentlichen aus mentalen Schlußfolgerungen und Problemlösungsoperationen, also Inferenzen, besteht. Da Schnelligkeit und Automatizität kognitiver Prozesse bereits als übungsabhängige Leistungen beschrieben wurden, müssen metakognitives Wissen und metakognitive Strategien gelernt und gelehrt werden. Dazu gehört dann z. B. das Wissen, welche Strategie man je nach Situationsanforderung und Kontext auszuwählen hat (z. B. Übersetzungsverfahren für AT spezifische Abkürzungen, Organisationen, Realia aus einem nationalen Kulturkontext etc. und irrelevante Inferenz zu hemmen), oder das Wissen um die eigenen kognitiven Fähigkeiten als Kontrollfunktion oder Selbstkorrektur. Es versteht sich jetzt von selbst, daß solche Problemlösungsoperationen als Grundlage für Verstehensprozesse einen didaktisch hohen Stellenwert im Übersetzungsunterricht einnehmen, häufig und bewußt geübt werden, damit sie - quasi automatisiert - dann beim Studierenden schneller ablaufen, vorhandene Kenntnisse schneller verarbeitet werden.

6.3

Die Vermittlung kultureller Kontexte und die eng damit verknüpfte Textauswahl nehmen die Dozenten vor. Sie liefern die Kontexte, innerhalb derer Texte angesiedelt sind und eine Bedeutung haben. Dazu gehören politische, wirtschaftliche und literarische Grunddaten wie z. B.

Der Dozent wie der Studierende muß also all' das Wissen haben, das im Bewußtsein der Mitglieder einer Kultur vorhanden ist wie z. B. das Wissen um bestimmte Handlungen in bestimmten Situationen. Der Dozent zeigt aber nicht nur die Einbindung der Texte in kulturelle Kontexte, Handlungen und Situationen auf, sondern vermittelt auch diese Textkenntnisse selbst, also Textmuster im weitesten Sinne und Sprachverhaltenskonventionen. Dazu gehören die Kenntnis und die Verwendung von Textsorten, Registern, Sprachgebrauchsnormen etc. in den jeweiligen Sprachkulturen und - gegebenenfalls - kultur- und sprachbedingte Text- und Funktionsveränderungen.

Im Unterricht stellt sich von Studienbeginn das Bewußtsein ein, daß Texte immer sprachlich und interkulturell konstituiert sind, wobei Intertextualität alle kulturellen Implikationen von Verstehensoperationen umfaßt. Der Dozent stellt sich mit den Studierenden stets die - nach der vorgestellten Verstehenstheorie unabdingbare - zentrale Frage: Welches Wissen ist im Bewußtsein der Mitglieder einer Kultur vorhanden? Kann der ZT-Leser dieses Wissen haben, kann er es in vorhandenes Vorwissen eingliedern bzw. will ich es vermitteln und wenn ja, mit welchen zielkulturellen sprachlichen Mitteln? Eine erste Folge dieser stets zu Beginn eines zu übersetzenden Textes gestellten Frage ist die Erkenntnis, daß der Translator den ZT so formulieren sollte, daß eine Integration der von diesem Text ermöglichten Handlungszusanmmenhänge und damit ein Verständnis möglich ist. Eine zweite Folge ist, daß die Aufarbeitung des im AT angesprochenen Hintergrundwissens bzw. die Vermittlung v. a. des notwendigen politischen, gesellschaftlichen, sozialgeschichtlichen, historischen und literarischen Wissens viel Zeit einnimmt. Damit verbunden ist eine detailliertere Behandlung entsprechender Nachschlagewerke: von Bibliographien über historische Darstellungen, Landeskunden, Enzyklopädien, Reallexika bis hin zu Literaturgeschichten und Spezialmonographien zu Parteien, Gewerkschaften, Presse- und Schulwesen etc. Eine dritte Folge der Frage: Welches Wissen ist im Bewußtsein der Mitglieder einer Kultur vorhanden? betrifft die Textauswahl. Ist der AT interessant für den ZT-Leser? Die Beantwortung dieser Frage verlangt vom Dozenten die möglichst präzise Einbettung des ZT bis hin zur Angabe eines fiktiven Auftraggebers.

Als Fazit möchte ich formulieren, daß der Übersetzer jenes Minimum an interkultureller Kompetenz besitzen muß, die die Unwissenheit gegenüber dem anderen in dem Maße abbaut, wie sie Verstehen und Selbstreflexion erhöht. In der modernen Welt, in der sich die kulturellen Grenzen bedrohlich verschärfen, obwohl sie global homogener werden, muß Übersetzen diskutiert werden als Problem nicht zwischen Sprachen - sondern innerhalb der und zwischen den Kulturen. Dann wird Übersetzen dazu beitragen, die sprachliche Kommunikation zwischen Menschen teilnehmer-, situations- und medienspezifisch zu verbessern.


Literatur

Biere, Bernd Ulrich:
Verständlich-Machen. Hermeneutische Tradition - Historische Praxis - Sprachtheoretische Begründung; Tübingen 1989 (= Reihe Germanist. Linguistik 92).
Bower, Gordon Howard/ Graesser, Arthur C.
Inferences and text comprehension. San Diego: Acad. Pr., 1990.
Christmann, Ursula:
Modelle der Textverarbeitung: Textbeschreibung als Textverstehen; Münster 1989.
Gadamer, Hans-Georg (51986):
Wahrheit und Methode. Grundzüge einer philosophischen Hermeneutik. Tübingen: Mohr.
Geertz, Clifford:
Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme; Frankfurt 1987 (= stw 696).
Habermas, Jürgen.
Theorie des kommunikativen Handelns. Bd.I und II. Frankfurt: Suhrkamp, 31985.
Heinemann, Wolfgang/ Viehweger, Dieter:
Textlinguistik. Eine Einführung; Tübingen 1991.
Hönig, Hans:
Vom Selbst-Bewußtsein des Übersetzers; in: Holz-Mänttäri, Justa/ Nord, Christiane (ed.): Traducere Navem. Festschrift für Katharina Reiß zum 70. Geburtstag; Tampere 1993, 77-90 (= studia translatologica A 3).
Johnson-Laird, Nicolas Philip/ Byrne, R. M. J. & Schaeken, W. (1992):
"Propositional reasoning by model". In: Psychological Review 99. 418-439.
Kintsch, Walter:
The role of knowledge in discourse comprehension: A construction-integration model; in: Psychological Review 95, 1988, 163-182.
Kupsch-Losereit, Sigrid (1994):
"Die Übersetzung als Produkt hermeneutischer Verstehensprozesse." In: Snell-Hornby, Mary/ Pöchhacker, Franz/ Kaindl, Klaus (eds.) Translation Studies. An Interdiscipline. Amsterdam/ Philadelphia: Benjamins. 45-54.
Kupsch-Losereit, Sigrid (1993):
"Hermeneutische Verstehensprozesse beim Übersetzen." In: Holz-Mänttäri, Justa/ Nord, Christiane (eds.) Traducere Navem. Festschrift für Katharina Reiß zum 70. Geburtstag. Tampere: Universitätsbibliothek Tampere. 203-218.
Penrose, Roger (1991):
Computerdenken. Des Kaisers neue Kleider oder die Debatte um Künstliche Intelligenz, Bewußtsein und die Gesetze der Physik. Heidelberg: Springer.
Rickheit, Gert/ Strohner, Hans (1993):
Grundlagen der kognitiven Sprachverarbeitung. Modelle, Methoden, Ergebnisse. Tübingen/ Basel: Francke.
Schwarz, Monika (1992):
Einführung in die kognitive Linguistik. Tübingen: Narr.
Stolze, Radegundis (1992):
Hermeneutisches Übersetzen. Linguistische Kategorien des Verstehens und Formulierens beim Übersetzen. Tübingen: Narr.
Stolze, Radegundis (1994):
Übersetzungstheorien. Eine Einführung. Tübingen: Narr.
Tabossi, P./Zardon, F.:
Processing ambiguous words in context; in: Journal of Memory and Language 32, 359-372.
Vermeer, Hans J./ Witte, Heidrun:
Mögen Sie Zistrosen? Scenes & frames & channels im tranlatorischen Handeln; Heidelberg 1990 (= TEXTconTEXT, Beih.3).
Vermeer, Hans J.:
Eine kurze Skizze der scenes-&-frames-Semantik für Translatoren; in: Salevsky, Heidemarie (ed.): Wissenschaftliche Grundlagen der Sprachmittlung. Berliner Beiträge zur Übersetzungswissenschaft; Frankfurt 1992, 75-83.

Fußnoten

  1. Nach Turing läßt sich jeder Informationsverarbeitungsprozeß als Algorithmus darstellen, vgl. dazu Penrose (1991, 5ff).
  2. Vgl. Penrose (1991, 16f.), der die genaue Versuchsanordnung angibt. So soll z. B. mit ja oder nein auf die Geschichte eines Restaurantbesuchs geantwortet werden, die mit der Frage endet: Hat der Gast nun gegessen oder ist er wütend davongerannt?
  3. Nach Schwarz (1992, 90ff.) besteht die Repräsentation im Gehirn aus analogen, bildhaften und propositionalen, aussageartigen Darstellungen, oder anders ausgedrückt: Wissenseinheiten werden in Vorstellungsbildern und verbalen Einheiten verarbeitet und gespeichert.
  4. Schon Searle stellte fest, daß zur reinen Symbolverarbeitung eine intensionale und extensionale Semantik von Konzepten genügt. Fragt man aber: Was repräsentieren die Symbole, so braucht man dazu eine explizite Referenzsemantik, die außersprachliche Referenz und repräsentierte Referenzen im Diskurs umfaßt. Erst dann ist die Bedeutung des Satzes mit der kommunikativen Funktion verknüpfbar und aktives Handeln möglich.
  5. Zur kulturellen Unterschiedlichkeit solcher frames vgl. Vermeer ( 1990 und 1992).
  6. Der interaktive Verstehensprozeß läuft strategisch ungefähr folgendermaßen ab:
    1. Der Übersetzer rekonstruiert die illokutive Funktion des AT relativ zum Situations- und Interaktionskontext.
    2. Er bedenkt die neue Kommunikationssituation und die neuen sozialen Interaktionen und richtet die Funktionalität des ZT darauf aus.
  7. Hermeneutisches Verstehen kann daher nicht auf propositionales Verstehen, das sich eher an linguistischen Strukturen orientiert, eingeschränkt werden wie bei Stolze ( 1992 und 1994, 183ff.).
  8. Vgl. Tabossi/ Zardon (1993) zur kontextabhängigen lexikalischen Verarbeitung; Kintsch (1988) hat experimentell nachgewiesen, daß spätestens nach einer halben Sekunde kein Bedeutungsaufbau ohne Kontext erfolgt.

Zur Inhaltsübersicht
Zur Hauptseite von Frau Dr. Kupsch-Losereit
Zur Hauptseite des Fachbereiches
Zur Hauptseite der Universität Mainz


Die URL-Adresse dieser Seite ist: http://www.fb06.uni-mainz.de/user/kupsch/transkult.html

Letzte Bearbeitung: 10.05.96
In die elektronische HTML-/WWW-Fassung konvertiert und bearbeitet von Frank Krüger nach der Vorlage von Frau Dr. Kupsch-Losereit..