VARIATIONslinguistik trifft TEXTlinguistik

Tekst
0
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Czcionka:Mniejsze АаWiększe Aa

3 Die Notwendigkeit von Abstraktionen

Bislang wurde der Gegensatz zwischen sprachwissenschaftlichen Ansätzen betont, die sich auf die Untersuchung der Langue oder aber der Parole konzentrieren. Dabei kann leicht der Eindruck entstehen, beide stünden in geradezu unversöhnlichem Gegensatz zueinander. Davon kann insofern keine Rede sein, als es sicherlich zu den Aufgaben der Sprachwissenschaft gehört nachvollziehbar zu machen, welche Leistungen Interaktanten bei der Entschlüsselung sprachlicher Botschaften erbringen (müssen). Wenn wir uns auf die Rezeptionsseite beziehen, so sind konkret gegeben zunächst nur Sinneswahrnehmungen; das betrifft die Ebene der Parole. Die Verarbeitung besteht darin, sie diversen Kategorien zuzuweisen – diese entsprechen im Prinzip der Langue-Ebene. Die Frage ist allerdings, mit welchen Ebenen und Kategorien wir genau rechnen.

Zunächst geht es darum zu erkennen, ob es sich überhaupt um Sprache handelt. Das kommt sehr gut im Original der Eingangsbeispiele zum Ausdruck, wo die Protagonisten visuelle Wahrnehmungen unterschiedlich deuten und (in der mittleren Strophe) nur das Kind das Hörbare als sprachliche Äußerung auffasst:

 [3] Erlkönig

  […]

  Mein Sohn, was birgst du so bang dein Gesicht? –

  Siehst, Vater, du den Erlkönig nicht?

  Den Erlenkönig mit Kron und Schweif? –

  Mein Sohn, es ist ein Nebelstreif. –

  […]

  Mein Vater, mein Vater, und hörest du nicht,

  Was Erlenkönig mir leise verspricht? –

  Sei ruhig, bleibe ruhig, mein Kind;

  In dürren Blättern säuselt der Wind. –

  […]

  Mein Vater, mein Vater, und siehst du nicht dort

  Erlkönigs Töchter am düstern Ort? –

  Mein Sohn, mein Sohn ich seh es genau:

  Es scheinen die alten Weiden so grau. –

  […]

Wenn etwas als sprachliche Botschaft kategorisiert ist, muss weiter ‚entschieden‘ werden, zu welcher Sprache oder Varietät die Einheiten gehören, zumal es ja vorkommt, dass in einer Äußerung verschiedene davon gemischt sind. Eine möglichst differenzierte Erfassung der menschlichen Lautprodukte (also der materiellen Seite), wie sie das Internationale Phonetische Alphabet (IPA) erlaubt, ist dabei bekanntlich nicht einmal besonders nützlich – so genau will und muss man im Allgemeinen gar nicht wissen, wie sich eine Äußerung angehört hat, man muss nur erkennen, welches Element gemeint war. Deswegen sind gebräuchliche Schriftsysteme sehr viel undifferenzierter als das IPA. Die Einführung der abstrakten Kategorie Phonem, die Varianten, die Allophone, umfasst, stellte für die Systemlinguistik den entscheidenden Durchbruch dar. Ebenso effizient ist dieses Verfahren auf der morphologischen Ebene, wo auch Einheiten, die materiell nicht das Mindeste miteinander zu tun haben (wie die Suppletivformen sein, bin, war), als Repräsentanten derselben abstrakten Kategorie fungieren.

Obwohl nun, wie Abschnitt 2 gezeigt hat, systemlinguistisches Denken in der Textlinguistik durchaus verbreitet ist, spielt die konsequente Übertragung strukturalistischer Analyseverfahren auf Texte dort fast keine Rolle, genauer gesagt wurde damit nur in der Anfangsphase experimentiert. Das schlägt sich in Ausdrücken wie Textem und Allotext nieder, die sich aber nicht etabliert haben und nur sehr selten vorkommen. Stattdessen traten auf der Textebene bald sehr viel abstraktere Einheiten in den Vordergrund, vor allem Textsorten (oder auch ‑klassen, ‑typen etc.). Den frühen Versuchen soll in Kapitel 3.2 etwas genauer nachgegangen werden. Zunächst geht es jedoch darum, den unterschiedlichen Blickwinkel auf Texte gegenüber tieferen Rängen zu verdeutlichen.

3.1 Abstraktionen auf verschiedenen Sprachebenen

Als Ausgangspunkt drängt sich eine Formulierung von Brinker auf, die zu den meistzitierten in textlinguistischer Literatur gehört:

„Nun ist ein konkreter Text aber nicht nur eine Realisierung der allgemeinen Größe ‚Text‘; er repräsentiert vielmehr zugleich auch eine bestimmte Textsorte, d. h., er ist ein Fernsehkommentar, eine Zeitungsnachricht, ein Kochrezept oder eine Werbeanzeige – um nur einige alltagssprachliche Namen für Textsorten zu nennen. [...] Der konkrete Text erscheint immer als Exemplar einer bestimmten Textsorte“ (Brinker u. a. 2014: 133; zuerst Brinker 1985: 118; Hervorhebungen K. A.).

Bezogen auf unser Beispiel hieße das:

Nun ist [3] aber nicht nur eine Realisierung der allgemeinen Größe ‚Text‘; es repräsentiert vielmehr zugleich auch eine bestimmte Textsorte, d. h., es ist ein Gedicht, genauer gesagt eine Ballade.

Übertragen auf die Lautebene entspräche dem etwa die Aussage:

 Nun ist ein konkretes Phon aber nicht nur eine Realisierung der allgemeinen Größe ‚Sprachlaut‘; es repräsentiert vielmehr zugleich auch eine bestimmte Lautsorte, d. h., es ist ein Vokal oder Konsonant, ein Nasal oder Plosiv – um nur einige der üblicherweise unterschiedenen Arten von Lauten zu nennen.

Die Übertragung auf die Wortebene erlaubt diverse Varianten, weil man hier mit abstrakten Einheiten unterschiedlicher Kategorien rechnet, u. a.:

 Nun ist ein konkretes Wort aber nicht nur eine Realisierung der allgemeinen Größe ‚Sprachzeichen‘; es repräsentiert vielmehr zugleich auch eine bestimmte Wortart, d. h., es ist ein Substantiv, Verb, Adjektiv, ...

 Nun ist ein (komplexes) Wort aber nicht nur eine Realisierung der allgemeinen Größe ‚Wort‘; es repräsentiert vielmehr zugleich auch ein bestimmtes Wortbildungsmuster, d. h. es ist z. B. eine Ableitung aus einem Nomen, die Konversion eines Verbs, ...

 Nun ist ein konkretes Textwort aber nicht nur eine Realisierung der allgemeinen Größe ‚Wort‘; es repräsentiert vielmehr zugleich auch eine bestimmte Wortform, d. h. beispielsweise für Verben, es ist ein Infinitiv, Partizip, eine Vergangenheitsform, ...

All diese abstrakten Kategorien sind für das Verständnis einer Äußerung allerdings weniger wichtig, zentral ist die folgende Voraussetzung:

 Nun ist ein konkretes Wort oder Syntagma aber nicht nur eine Realisierung der allgemeinen Größe ‚Sprachzeichen‘; es repräsentiert vielmehr zugleich auch ein bestimmtes Lexem.

Ebenso möchte man auf der Textebene nicht in erster Linie wissen, welche Textsorte vorliegt, sondern welcher Text, jedenfalls wenn es um solche wie die hier zitierten geht, denn bei diesen handelt es sich um individuelle Größen, die als solche bekannt sind und überliefert werden.

Auch bei den Textwörtern muss man allerdings differenzieren: Wenn wir nämlich Lexem als ‚Wörterbuch-Wort‘ auffassen, ist die genannte Voraussetzung nicht für alle gegeben, z. B. nicht für Grünkohlverderber. Es gibt Textwörter, die nicht im Wörterbuch stehen, oder anders formuliert: die nicht ins kollektive Gedächtnis der Sprachgemeinschaft eingehen. Für Syntagmen und Sätze gilt das natürlich noch viel mehr. Sofern diese komplexen Gebilde den phonologischen, morphologischen, Wortbildungs- und syntaktischen Regeln der Sprache folgen, lassen sie sich selbstverständlich trotzdem problemlos interpretieren. Dazu greift man eben auf das Regelwissen und nicht auf bereits fertig gespeicherte komplexe Einheiten zurück. Interpretierbar sind allerdings auch Ausdrücke, die den vertrauten Regeln nicht (ganz) folgen, z. B. [4] oder [5]:

 [4] lichtung

  manche meinen

  lechts und rinks

  kann man nicht velwechsern

  werch ein illtum

  (Ernst Jandl)

 

 [5] Fallweise Liebe

  Ick liebe dir, ick liebe dich,

  Wie‘t richtig is, det weess ick nich

  Und is mich ooch Pomade.

  Ick lieb‘ dir nich im dritten Fall,

  Ick lieb‘ dir nich im vierten Fall,

  Ick liebe dir uff jeden Fall!

  (Autor unbekannt)

[4] und besonders [5] reichen in ihrer Bekanntheit sicher nicht an den Erlkönig heran; auch sie werden aber immer wieder als Ganzheiten reproduziert. Das gilt auch für die übrigen Beispiele, [2] verbreitet sich unter Grünkohlfreunden, [1] und [5] erscheinen mit leichten Variationen, z. B. den/das Bubi oder ohne Artikel bzw. uff jeden Fall oder uff alle Fälle usw. Sie gehören damit ebenso wie Lexeme zum kollektiven Sprachgedächtnis.

Bei der Größe ‚kollektives Gedächtnis‘ handelt es sich natürlich um ein Konstrukt, das sich nur schwer präzise fassen lässt, als Kategorie ist es aber unverzichtbar. Was die Lexemebene angeht, so liegen mit Wörterbüchern Versuche der Rekonstruktion der ‚Schätze‘ vor, die Sprachen und Varietäten ausmachen. Sie umfassen auch komplexe Ausdrücke bis hin zu Kurztexten (Sprichwörter, Redensarten), und es liegen seit langem auch spezialisierte Sammlungen wie etwa Büchmanns Geflügelte Worte (11864) vor.

Wörterbücher oder sonstige Nachschlagewerke können prinzipiell nicht vollständig sein, zumal sie versuchen, ein genuin dynamisches Etwas zu fixieren. In der heutigen Zeit mit den immensen Möglichkeiten der Aufbereitung von Datenmengen führt das dazu, dass in relativ kurzen Abständen, nämlich oft in weniger als zehn Jahren, immer wieder aktualisierte Versionen erscheinen. Sicher ist, dass die Auswahl, die sie jeweils treffen, nicht das Sprachwissen irgendwelcher Sprechergruppen oder gar das des Durchschnittsmenschen spiegelt. Individuelle Wissensbestände umfassen vielmehr grundsätzlich nur einen sehr kleinen Teil des aufbereiteten Materials. Andererseits gehen sie aber auch darüber hinaus, denn gesellschaftliche Gruppen organisieren sich ja gerade über Wissen, das (nur) die Mitglieder teilen und das sie gegenüber anderen Gruppen bzw. gegenüber der Mehrheit oder einem Durchschnittsmenschen auszeichnet. Dazu gehören auch Wissensbestände, die sprachliche Varietäten betreffen.

 

Von diesen gehen bestimmte Ausschnitte aber doch in umfassende Nachschlagewerke ein, sie werden also auch zu (potenziellen) Wissensbeständen von Nicht-Mitgliedern gerechnet. So einfach ist es tatsächlich nicht, Teile des Sprachwissens bestimmten Trägergruppen zuzuordnen. Selbst die Versuche, wenigstens so etwas wie einen allgemein bekannten Grundwortschatz zu bestimmen, führen zu recht unterschiedlichen Ergebnissen und letztlich zur Einsicht, dass auch ein solcher nicht klar bestimmbar ist. Ebenso gelingt es der Fachsprachenforschung höchstens theoretisch, Fachwortschätze und Gemeinsprache als klar abgrenzbare Konstrukte zu etablieren (vgl. Adamzik 2018b: Kap. 5.4.2.).

Sicher ist zunächst, dass (sprachliche) Wissensbestände nicht bei auch nur zwei Individuen genau übereinstimmen können (vgl. dazu aus wissenssoziologischer Perspektive Schütz / Luckmann 2017: Kap. IV C. und aus varietätenlinguistischer Sicht sehr nachdrücklich Schmidt / Herrgen 2011: Kap. 2). Das gilt besonders für eine hochdifferenzierte Gesellschaft wie die unsere. In ihr verfügen alle über Wissen in mehreren Sprachen und Varietäten. Oft beschränkt sich dieses allerdings auf wenige Elemente. So dürfte etwa für einen durchschnittlichen Sprecher des Deutschen [5] klar als berlinerisch identifizierbar sein; vielleicht gibt der Text auch Anlass, neu zu lernen, dass es ist mir/mich Pomade/pomade bedeutet ‚es ist mir gleichgültig‘. Auch Personen, die Berlinerisch als Erstsprache gelernt haben, wissen aber nicht unbedingt, dass dieser Ausdruck zurückgeht auf die Entlehnung des polnischen pomału (‚allmählich, gemächlich, nach und nach‘; erweitert im Sinne von ‚jemand hat es nicht eilig, es kommt ihm nicht darauf an‘). Daher bauen sie vielleicht Assoziationskomplexe zu dem aus romanischen Sprachen entlehnten Wort für Haarcreme auf, mit dem er tatsächlich vermischt wurde. Auch solche Assoziationskomplexe gehören zum individuellen Sprachwissen. Ideen dazu, warum etwas so heißt, wie es heißt, kann man aber auch weitergeben, was dann zu den sog. volksetymologischen Ableitungen oder Geschichten führt. Manche kennen diese, andere nicht.

Das geteilte Gruppenwissen überschreitet sowohl Varietäten- als auch Sprachgrenzen. An sprachspielerischen Aktivitäten sind gerade solche besonders beliebt, in denen ein bekannter Text (z. B. die Weihnachtsgeschichte oder vertraute Märchen) in Varietäten anderer (!) Sprechergruppen übertragen werden, und zwar nicht zuletzt, um sich über diese zu belustigen oder gar zu empören. Außerordentlich beliebt ist dies als Auseinandersetzung mit Jugendsprache. Für Fachsprachen zieht man gern Sprichwörter heran, weil bei längeren Texten der Lustgewinn in keinem adäquaten Verhältnis mehr zum Verarbeitungsaufwand stünde:

 [6] Die Struktur einer ambivalenten Beziehung beeinträchtigt das visuelle und kognitive Wahrnehmungsvermögen extrem – oder wie man früher sagte: Liebe macht blind.1

Schon hier, erst recht aber bei gewöhnlichen Übersetzungen, d. h. solchen in andere Sprachen, bleibt nur der Inhalt eines Textes – mindestens grosso modo – erhalten, nichts dagegen von seiner sprachlichen Gestalt, wenn man einmal von Namen absieht. Dennoch reden wir so, als hätten wir die Odyssee, Konfuzius, Dante, Don Quijote, Hamlet, Anna Karenina usw. gelesen, auch wenn es nur Übersetzungen waren. In einem ziemlich abstrakten Sinn handelt es sich eben immer noch um denselben Text. Um die Behauptung zu rechtfertigen, dass man ihn ‚kenne‘, reicht es sogar aus, von seiner Existenz zu wissen und elementare Kenngrößen (Autor, Entstehungszeit, Plot) sowie Fragmente des Wortlauts kognitiv gespeichert zu haben (und bist du nicht willig, …; Sein oder nicht sein, … usw.).

Zu diesen Wissensbeständen zu Texten kann man grob gesehen auf zweierlei Weisen kommen: Entweder man hat den Text tatsächlich ganz gelesen. Je länger dies zurückliegt, desto mehr hat man allerdings vergessen oder wie man heute lieber sagt: Es werden nur wenige Elemente im Langzeitgedächtnis gespeichert, und zwar sowohl zentrale Inhaltselemente als auch charakteristische Formulierungen. Bei intensiver Lektüre werden diese vielleicht exzerpiert oder durch Anstreichungen usw. markiert, so dass man sie bei erneuter Konsultation schnell wiederfinden kann. Die zweite Möglichkeit besteht darin, gleich auf entsprechende Bearbeitungen anderer Rezipienten zurückzugreifen: Man schlägt in einem Werklexikon oder einer Enzyklopädie nach. In Wikipedia ist tatsächlich eine große Menge von Einzeltexten diverser Textsorten entsprechend aufbereitet, allerdings gerade nicht solcher, die Brinker bei der Erläuterung dieser Kategorie erwähnt, denn reine Gebrauchstexte haben keinen Überlieferungswert. Das macht den Unterschied zwischen Wetterberichten und Bauernregeln aus. Auch die häufig behandelten Kochrezepte gibt es in überlieferungswürdigen Traditionen, und zwar einerseits solchen, die das Brauchtum bestimmter Regionen betreffen (vgl. dazu Gredel in diesem Band), andererseits solchen, die Familientraditionen entsprechen (bzw. dies vorgeben): Aus Großmutters Küche.

Für Texte mit hohem Überlieferungswert muss man nun feststellen, dass sie ‚sich‘ im Laufe der Zeit auch selbst verändern. Liest man einen Text (in der Originalsprache), etwa die Klassiker der deutschen Literatur- und Geistesgeschichte, sogar jene aus der neuhochdeutschen Periode, hat man es nämlich nicht unbedingt mit der Fassung zu tun, die dem ersten Druck oder gar dem Manuskript entspricht: Anpassungen an orthografische und teilweise auch morphologische Entwicklungen werden in modernen Ausgaben stillschweigend vorgenommen. Außerdem existiert mitunter schon ‚das‘ Original in verschiedenen Fassungen. Das gilt nicht nur prinzipiell etwa für die mittelalterlichen Handschriften, sondern z. B. auch für Die Leiden des jungen Werthers/Werther von Goethe oder Der grüne Heinrich von Gottfried Keller. Die Fassungen sind einander hinreichend ähnlich, um nicht als ganz verschiedene Texte, sondern als Versionen desselben Textes, aber auch hinreichend verschieden, um nicht als genau derselbe Text wahrgenommen zu werden.

Den entsprechenden Fragestellungen geht man in diversen Textwissenschaften in Unterzweigen wie der (Editions-)Philologie, Entstehungs-, Überlieferungs- und Wirkungsgeschichte etc. ausführlich nach. Auch für die Variationslinguistik, insbesondere die historisch ausgerichtete, sind sie zentral. In der Textlinguistik hat sich dieser Fragenkomplex dagegen (noch) nicht als relevantes Gebiet etabliert, obwohl es in der Anfangszeit durchaus Bemühungen in diese Richtung gab.

3.2 Wissenschaftshistorisches: Texteme und Allotexte, emische und etische Texte

An der Wende von den 1960er zu den 70er Jahren verortet man (in der Bundesrepublik Deutschland) einen sog. Linguistik-Boom. Seine wichtigste Wirkung bestand in der Reorganisation philologischer (zunächst vor allem germanistischer) Universitätsinstitute. Waren diese traditionell in eine Alte/Ältere und Neue(re) Abteilung untergliedert, so kam jetzt als drittes Untergebiet die Linguistik hinzu.

Im Rahmen solcher Prozesse sind nicht nur administrative, sondern auch bestimmte Fachtexte besonders wichtig. Dazu gehörten in der Bundesrepublik zwei 1973 erschienene Werke, nämlich einerseits das Funk-Kolleg Sprache, andererseits das Lexikon der germanistischen Linguistik (LGL) (Althaus u. a. 1973). Beide beanspruchten, den Stand der modernen Linguistik im Überblick darzustellen. Dabei war wichtig, dass sie nicht nur die strukturalistische, sondern auch die (frühe) generativistische Schule einbezogen sowie Kommunikationsmodelle, Pragma-, Sozio- und Textlinguistik.

Das Funk-Kolleg Sprache nimmt eine Sonderstellung ein. Es gehört zu einer Serie, in der Radiosender in Verbindung mit dem Deutschen Institut für Fernstudien an der Universität Tübingen (für Studien-Begleitbriefe) und Volkshochschulen (für Studien-Begleitzirkel) zusammengearbeitet haben, und zwar vor allem, um Menschen ohne Abitur den Zugang zum Studium zu ermöglichen. Entwickelt seit 1970, wurden die Sendungen ab September 1971 ausgestrahlt. Verbindlich eingeschrieben hatten sich dazu fast 17.000 Hörer, die Prüfungen ablegen konnten (organisiert durch die Kultusministerien von fünf Bundesländern). Diese Zahl ist noch relativ bescheiden, gemessen am Erfolg, den dann die (im Gegensatz zum LGL sehr preiswerte) Taschenbuchausgabe von 1973 erzielen konnte. Deren Vorwort orientiert ausführlich über die damaligen Bedingungen, zu denen insbesondere gehört, dass man noch auf kein vorliegendes Curriculum hatte zurückgreifen können, sondern dieses erst zu entwickeln war. Im Hintergrund standen folgende Voraussetzungen:

„In den nächsten Jahren ist eine grundlegende Neuordnung des Deutsch- und Fremdsprachenunterrichts zu erwarten. Damit Hand in Hand geht eine Neuorientierung des herkömmlichen Philologiestudiums. Grund ist die moderne Linguistik, die nicht mehr nach den historischen Wandlungen der Einzelsprachen fragt, sondern nach den allgemeinen Merkmalen und Strukturen des Zeichensystems Sprache.“ (Aus dem Paratext Über dieses Buch)

Das Funk-Kolleg Sprache vertritt in besonders ausgeprägter Weise die oben angesprochene Variante, nach der systemlinguistische Ansätze zwar die Grundlage der ‚modernen Linguistik‘ bilden (müssen), diese jedoch einzubetten sind in einen kommunikationswissenschaftlich orientierten Rahmen. Das erste Hauptkapitel (von insgesamt fünf) ist betitelt: Kommunikation und Sprache. Der Textlinguistik kommt in diesem Buch (besonders im Verhältnis zur Soziolinguistik) keine besonders große Bedeutung zu. Mit dem Ausdruck Textem erfolgt jedoch eine quasi konsequente Parallelisierung zur Phonem- und Morphemanalyse. Im LGL erscheint dieser Begriff dagegen nicht (auch nicht in der stark bearbeiteten 2. Auflage von 1980). Dieses Handbuch wendet sich auch viel eher an die etablierten Kreise in den Universitäten und bespricht sehr ausführlich verschiedene Ansätze und einzelne Arbeiten aus der frühen Textlinguistik. Auch hier werden jedoch von Anfang an eine auf die Langue gegenüber einer auf die Parole bezogene Sichtweise unterschieden. Während bei der zweiten übereinstimmend mit dem Funk-Kolleg die Kommunikativität thematisiert wird, soll es jedoch bei der ersten um (die Gesamtheit von) Textbildungsregeln gehen, so dass hier nicht Phonologie und Morphologie als Vorbild fungieren, sondern die Syntax.

Nun ist es relativ einfach, den Ausdruck Textem parallel zu Phonem und Morphem zu bilden, weniger klar ist allerdings, was man sich darunter vorzustellen hat. Im Glossar des Funk-Kollegs erscheinen die folgenden Erläuterungen:

Text: Sprachliche Äußerung; Ergebnis der → Realisierung eines → Textems.

Textem: Noch nicht realisierte sprachliche Struktur als Ergebnis der sprachlichen → Kodierung.

Textstruktur (= Textem): strukturierte Ketten von Sprachzeichen als Ergebnis der sprachlichen Kodierung.

Kodierung: vom Sprecher vorgenommene Umsetzung einer Vorstellung in eine sprachliche Äußerung.

Sie zeigen klar, dass Text wie Phon und Morph als konkrete/materielle Realisierung einer abstrakten (vorher nur kognitiv verfügbaren) Einheit konzipiert wird. Gewöhnlich bezeichnet man nicht materialisierte Ketten von Sprachzeichen als Wortlaut, und zwar – ebenso wie bei Morphemen und Lexemen – unabhängig von der medialen Verfasstheit: Die Frage, ob ein Morphem einer gesprochenen oder geschriebenen Einheit entspricht, stellt sich schlicht nicht; wir befinden uns auf einem Abstraktionsniveau, auf dem die Materialisierungsart keine Rolle spielt. Ein Schema (Abb. 1) zur Visualisierung wird als Versuchsanordnung bezeichnet, da alle Faktoren, die sich außerhalb des zentralen Kastens befinden, (und zusätzlich u. a. Intention, Wissens- und Sprachspeicher)

 

„vorübergehend außer acht gelassen werden. Wohlgemerkt vorübergehend: Wenn die kausalen Beziehungen zwischen einem ideal homogenen denotativen Kode, der von einem idealen Sprecher aktiviert wird, zum produzierten Text analysiert und beschrieben sind, werden nach und nach weitere Faktoren in die Analyse einbezogen; so wird Schritt für Schritt die Beschreibung der Komplexität des Sachverhalts angenähert. Genau wie die ideale Kompetenz kann man auch die soziale Rolle eines Sprechers isolieren und dadurch idealisieren und fragen: Welche Merkmale X, Y und Z hat ein Text, der auf der Grundlage eines bereits beschriebenen Kodes in einer bestimmten sozialen Rolle produziert wird?

Wir haben zu zeigen versucht, daß nur einschichtige homogene und also idealisierte Objekte einer präzisen Analyse zugänglich sind. Daraus folgt, daß die Komplexität realer Sachverhalte in einer wissenschaftlichen Beschreibung nur dann annähernd zu erreichen ist, wenn man schrittweise analysiert und eine Menge elementarer Ergebnisse zu einer Gesamtbeschreibung zusammenfügt. Da wir die Aktivierung des Kodes durch einen Sprecher oder Hörer für das grundlegende Ereignis sprachlicher Kommunikation halten, beginnen wir die Gesamtuntersuchung mit der Analyse der idealen Kompetenz des idealen Sprechers/Hörers.“ (Funk-Kolleg Sprache 1973: Bd. 1, 82f.):

Abb. 1:

Reduziertes Faktorenmodell für die Textbildung (nach Funk-Kolleg Sprache 1973: Bd. 1, 82)

Die Ausdrücke Lexem oder gar Lex kommen im Funk-Kolleg nicht vor, stattdessen spricht man dort von Formativen. Auch für Sätze fehlt eine entsprechende Parallele; sie werden als aus Konstituenten aufgebaut verstanden. Somit sind die Analogien auf den oberen Rängen doch nicht besonders konsequent durchgeführt. Auch kommt Textem außerhalb der zitierten Stelle nur noch einmal vor, und zwar in einem Sprachverhaltensmodell. Dieses sehr komplexe Schema setzt (im Rahmen der Studien zur gesprochenen Sprache in der Schule Hugo Stegers) Redekonstellationen und Textexemplare (statt wie früher Texte) in Beziehung (vgl. ebd.: Bd. 2, 196); weitere Erläuterungen zum Verhältnis von Text(exemplar) und Textem finden sich aber nicht.

So ist es eigentlich nicht erstaunlich, dass Textem nicht als gut etablierter Begriff gelten kann. Er erscheint zwar in manchen Fachwörterbüchern (vgl. dazu genauer Kolde 1999), u. a. bei Bußmann. Sogar Felder (2016: 34) benutzt ihn einmal; insgesamt bleibt er aber ebenso selten wie unklar.

Was die meisten davon abhält, ihn überhaupt einzusetzen, erklärt sich natürlich relativ einfach: Schon bei Sätzen rechnet man eigentlich nicht mit konkreten, d. h. im Wortlaut festgelegten Strukturen, die kognitiv gespeichert sind und in der Parole nur materialisiert werden, sondern mit viel abstrakteren Strukturen, nämlich allenfalls Satzschemata, die in Äußerungen gewissermaßen erst lexikalisch und grammatisch ‚gefüllt‘ werden. Erst recht ist es bei Texten die Ausnahme, dass sie bei der materiellen Realisierung direkt aus dem Gedächtnis abgerufen werden, dort also schon gespeichert sind. Für Morpheme gilt dagegen genau das. Diese sind mit ihrer Signifiant-Seite gewiss nicht angeboren (wie man es für syntaktische Kategorien ja teilweise unterstellt), sondern müssen einzeln gelernt werden. Sie können dann allerdings auch nach abstrakten Regeln in neue Konstruktionen eingehen, d. h. in solche, die nicht schon im Lexikon überliefert sind. So ergibt sich die ‚traditionelle Arbeitsteilung‘ zwischen Lexikon – mit Einheiten, die auch über ein Lautbild im Sinne de Saussures verfügen – und Syntax, für die das nicht gilt. Die Parallelisierung von Morphem und Textem, so könnte man den Einwand zusammenfassend formulieren, unterstellt eine Vergleichbarkeit, die schlichtweg nicht gegeben ist. Daher kann es auf der Text- genau wie auf der Satzebene nur darauf ankommen, nach abstrakteren Größen, nämlich nach Satz- bzw. Text-Bildungsregeln, zu suchen, statt zu unterstellen, dass bereits ‚kodierte‘ komplexe Einheiten im Gedächtnis gespeichert sind. Anders gesagt: Morpheme gelten als virtuelle Einheiten, die immer wieder neu realisiert werden, Sätze und Texte dagegen als erst im Äußerungsakt jeweils neu erzeugte.

Diese Vorstellung ist sehr verbreitet, entspricht aber m. E. einer Art denkstilbedingten Blindheit (vgl. Fleck 1980 und dazu Adamzik 2018b: Kap. 5.2.) gegenüber der sehr wohl möglichen Parallelisierung. Bevor dies in Kapitel 4 genauer ausgeführt wird, sollen noch einige frühe textlinguistische Ansätze vorgestellt werden, die der Vorstellung von Texten als virtuellen Einheiten am nächsten kommen (vgl. dazu ausführlicher Adamzik 2015: Kap. 2 und Adamzik 2016: Kap. 2.5.3.).

Besonders darum bemüht, die Parallelen wirklich konsequent durchzuführen, ist Walter A. Koch (1969, 1973), der zu diesem Zweck einen eigenen Begriffsapparat vorschlägt: Der Größe Wort entspricht darin ungefähr Logem, dem Satz ungefähr Syntaktem. Syntakteme sollen aus Subjekt und Prädikat bestehen, Texteme aus Topik, Thema und Komment – es handelt sich also nicht wie bei der ‚Kodierung‘ im Funk-Kolleg um eine spezifische Folge von Sprachzeichen, sondern um hochabstrakte Strukturen und eine Analyse von oben nach unten.

Roland Harweg geht dagegen umgekehrt vor und betrachtet die pronominale Verkettung aufeinanderfolgender Sätze. Er benutzt nicht den Ausdruck Textem, sondern unterscheidet etische von emischen Texten. Dies entspricht einer gewollten „Abkehr von der Performanz- und […] Hinwendung zur Kompetenzorientiertheit“ (Harweg 1968, 21979: V), und zwar in dem Sinne, dass etische Texte dem Sprachgebrauch, nämlich real vorkommenden Einheiten, gleichzusetzen sind, während es sich bei emischen Texten um wohlgeformte Satzfolgen handeln soll, die sich durch ununterbrochene pronominale Verkettung konstituieren. In diesen erkennt Harweg „ein textgrammatisches Ideal, ein Ideal, das die textuelle Wirklichkeit, die aktuell vorliegenden Texte, auch solche von sogenannten guten Autoren, nur in den seltensten Fällen erreicht“ (Harweg 1975: 377). Natürliche Texte erscheinen hier also nicht nur als Performanzphänomene, sondern als ‚schlechte‘, nämlich normalerweise (!) nicht regelkonforme Sprachwirklichkeit.

Harwegs Definition des emischen Textes und die damit verbundene Neudefinition der Kategorie Pronomen wurden bald zurückgewiesen.1 Dennoch haben seine Arbeiten einen bedeutenden Einfluss gehabt, da er in sehr systematischer Weise Nominalgruppen danach differenziert, in welche Wiederaufnahme-Relationen sie eingehen können. Solche Gliederungen bilden noch immer den Kern der Behandlung der Kohäsionsmittel (vgl. dazu weiter Adamzik 2016: Kap. 7.1.).

Noch weniger Einfluss als Harwegs terminologische Neologismen haben diejenigen von Koch gehabt. Die von ihm nur angedeutete Top-Down-Analyse stellt jedoch die zweite wesentliche Methode in der Textlinguistik dar. Besonders bekannt sind die Vorschläge von Teun A. van Dijk, der zwischen Makrostrukturen und Superstrukturen differenziert. Die ersten operieren auf Propositionen, von denen in einem rekursiven Prozess mehrere zu Makropropositionen zusammengefasst werden, bis sich auf der obersten Ebene eine Kurzfassung des Textes ergibt. Die Grundlage bilden also konkrete Texte und das Vorgehen entspricht dem Bottom-Up-Modell. Superstrukturen stellen dagegen Schemata für den Grobaufbau von Textsorten dar. Allerdings stehen dabei nicht hochstandardisierte Kleinformen (Wetterbericht usw.) im Vordergrund, sondern potenziell sehr komplexe Einheiten – besonders häufig zitiert findet sich van Dijks Schema zu Erzähltexten (vgl. van Dijk 1980: 142).

Die Superstrukturen van Dijks sind fast so abstrakt wie das Textem von Koch, der Inhalt ist nämlich überhaupt nicht spezifiziert. Makrostrukturen sind dagegen am Inhalt orientiert, sollen diesen zusammenfassen; daher umfassen sie auch die besonders wesentlichen lexikalischen Elemente bzw. Themenwörter. Bei van Dijk erscheinen Makrostrukturen als Ergebnis wissenschaftlicher Analyseverfahren. Er unterstellt allerdings, dass auch gewöhnliche Sprachteilhaber diese intuitiv anwenden, wenn sie Texte verarbeiten:

„Wir müssen uns Einsicht verschaffen in das sehr wesentliche Vermögen des Sprachgebrauchers, das ihm ermöglicht, auch bei sehr langen und komplizierten Texten Fragen zu beantworten wie ‚Wovon war die Rede?‘, ,Was war der Gegenstand des Gesprächs?‘ u. ä. Ein Sprachgebraucher kann das auch dann, wenn Thema oder Gegenstand selbst als ganzes nicht explizit im Text erwähnt werden. Er muß also das Thema aus dem Text ableiten.“ (van Dijk 1980: 45; Hervorhebung im Orig.)