Einführung in die Publizistikwissenschaft

Tekst
0
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Czcionka:Mniejsze АаWiększe Aa

Semetko, Holly A./Blumler, Jay/Gurevitch, Michael/Weaver, David H. (1991): The Formation of Campaign Agendas. A Comparative Analysis of Party and Media Roles in Recent American and British Elections. Hillsdale (NJ).

|55◄ ►56|

Semetko, Holli/Mandelli, Andreina (1997): Setting the Agenda for Cross-National Research: Bringing Values Into the Concept. In: McCombs, Max/Shaw, Dan/ Weaver, David (Hg.): Communication and Democracy. Exploring the Intellectual Frontiers in Agenda-Setting Theory. Mahwah.

Shoemaker, Pamela J./Vos, Timothy P. (2009): Gatekeeping Theory. New York.

Siebert, Fred S./Peterson, Theodore/Schramm, Wilbur (1956): Four Theories of the Press. The Authoritarian, Libertarian, Social Responsibility and Soviet Communist Concepts of What the Press Should Be and Do. Chicago (IL).

Stevenson, Robert (2003): Mapping the News of the World. In: Dervin, Benda/ Chaffee, Steven H. (Hg.): Communication, a Different Kind of Horse Race: Essays Honoring Richard F. Carter. Cresskill (NJ), S. 149–166.

Strömbäck, Jesper/Kaid, Lynda L. (Hg.) (2008): The Handbook of Election News Coverage Around the World. New York.

Swanson, David L./Mancini, Paolo (Hg.) (1996): Politics, Media and Modern Democracy. An International Study of Innovations in Electoral Campaigning and Their Consequences. Westport (CO).

Tenscher, Jens (2008): Massenmedien und politische Kommunikation in den Ländern der Europäischen Union. In: Gabriel, Oscar W./Kropp, Sabine (Hg.): Die EU-Staaten im Vergleich. Strukturen, Prozesse, Politikinhalte (3., erweiterte Auflage). Wiesbaden, S. 412–447.

Vliegenthart, Rens/Schuck, Andreas R. T./Boomgaarden, Hajo G./de Vreese, Claes H. (2008): News Coverage and Support for European Integration 1990–2006. In: International Journal of Public Opinion Research, Jg. 20, H. 4, S. 415–439.

Weaver, David H. (Hg.) (1998): The Global Journalist. News People Around the World. Cresskill.

Wessler, Hartmut/Skorek, Malgorzata/Kleinen von Königslöw, Katharina/Held, Maximilian/Dobreva, Mihaela/Adolphsen, Manuel (2009): Comparing Media Systems and Media Content: Online Newspapers in Ten Eastern and Western European Countries. In: Journal of Global Mass Communication, Jg. 1, H. 2, S. 1–29.

Wilke, Jürgen (2008): Nachrichtenberichterstattung im internationalen Vergleich. In: Melischek, Gabriele/Seethaler, Josef/Wilke, Jürgen (Hg.): Medien und Kommunikationsforschung im Vergleich. Grundlagen, Gegenstandsbereiche, Verfahrensweisen. Wiesbaden, S. 237–252.

Wu, Denis H. (200): Systemic Determinants of International News Coverage: A Comparison of 38 Countries. In: Journal of Communication, Jg. 50 (2), S. 110–130.

Zhu, Jian-Hua/Weaver, David/Lo, Ven-hwei/Chen, Chongshan/Wu, Wei (1997): Individual, Organizational and Societal Constraints on Media Professionalism: A Comparative Study of Journalists in the U.S., China and Taiwan. In: Journalism and Mass Communication Quarterly, Jg. 74, H. 2, S. 84–96.

|56◄ ►57|

|57◄|

|►57|

Werner Wirth/Benjamin Fretwurst

ZUR BEDEUTUNG DER EMPIRISCHEN METHODEN IN DER PUBLIZISTIK- UND KOMMUNIKATIONSWISSENSCHAFT

|57◄ ►58|

|58◄ ►59|

1 Wozu empirische Methoden?

Bedeutung der Methoden in einer Facheinführung

Wie jede Wissenschaft unterscheidet sich auch die Publizistik- und Kommunikationswissenschaft durch ihre Methode vom einfachen Nachdenken und blossen Dafürhalten. Darum müssen in der Einführung zum Fach die grundlegenden Methoden vorgestellt werden. Für manche Studierende ist die Beschäftigung mit Methoden und Statistik zu Beginn des Studiums mit negativen Assoziationen besetzt. In den meisten Fällen wandelt sich diese anfängliche Skepsis im Laufe des Studiums in eine tolerantere, zweckrationale Haltung, die durch die Einsicht geprägt wird, dass die Beherrschung der empirischen Methoden und der Statistik für den erfolgreichen Abschluss des Studiums unerlässlich ist. Viele Studierende entwickeln geradezu Begeisterung für die Eleganz und die Stringenz der Methodenlehre und der Statistik.

Gegen die Skepsis

Die Gründe für die anfängliche Skepsis sind verständlich. Wer sich für Medien, ihre Funktionen in der Gesellschaft, ihre Inhalte und deren Publika sowie die entsprechenden Berufsbilder interessiert, kann sich zunächst kaum vorstellen, welchen Sinn die hoch abstrakten Inhalte der Methodenlehre und der Statistik für das gewählte Studienfach haben sollen. Der folgende Beitrag möchte daher Einsichten in die Rolle der Methoden und der Statistik für das publizistik- und kommunikationswissenschaftliche Studium und vielleicht auch ein wenig von der Faszination der empirischen Forschung vermitteln.

Methoden sind für die Theoriebildung und -entwicklung entscheidend

Theorien gewinnen nur dann empirischen Gehalt, wenn Sie mit empirischen Methoden geprüft werden

Es mag verwundern, am Anfang eines solchen Beitrags Überlegungen über Theorien, Theorienbildung und Theorienprüfung zu finden. Dies erscheint jedoch sinnvoll und notwendig, wenn man wissen will, wozu Methoden überhaupt nützlich sind. Es ist das Ziel jeder Sozialwissenschaft, gesicherte Erkenntnisse über die Gesellschaft und ihre Mitglieder zu gewinnen. Dazu zählen aus publizistik- und kommunikationswissenschaftlicher Sicht zum Beispiel nationale und internationale Mediensysteme, -strukturen und Öffentlichkeiten auf der Makroebene, Medienakteure und -organisationen sowie deren Medienangebote auf der Mesoebene und schliesslich das Publikum, seine Motive, Rezeptionsweisen und medienbezogenen Reaktionen auf der Mikroebene. Die Publizistik- und Kommunikationswissenschaft möchte mit ihrer Forschungsarbeit dazu beitragen, gesellschaftlich relevante Probleme in den genannten Teilbereichen aufzuspüren, zu beschreiben, zu analysieren, zu strukturieren und schliesslich zu lösen. |59◄ ►60| Dazu erstellt sie Theorien, die die wesentlichen Teilaspekte eines zu untersuchenden Problems nennt und die Funktionsweise und Regeln ihres Zusammenwirkens verdeutlicht. Eine allgemeine Definition von Theorien lautet: Theorien enthalten eine oder mehrere Aussagen über den Zusammenhang zwischen bestimmten Sachverhalten in der Realität (spezifischere Definitionen finden sich z. B. bei Seiffert 2003; Opp 2005). Der Vorteil von Theorien zeigt sich dann, wenn man nicht nur einen Einzelfall, sondern eine Reihe von ähnlich gelagerten Problemzusammenhängen betrachtet. Ein Beispiel: „Wenn der massenmediale Informationszufluss in ein System wächst, dann neigen Personen mit höherem sozio-ökonomischen Status dazu, sich diese Informationen schneller anzueignen als Personen mit niedrigerem sozio-ökonomischen Status“ (Bonfadelli 1994; vgl. auch Wirth 1997; Marr 2005). Diese Theorie von der wachsenden Wissenskluft lässt sich prinzipiell auf viele ähnlich gelagerte Phänomene anwenden. Geprüft werden muss lediglich, ob die Voraussetzung zutrifft und der massenmediale Informationszufluss tatsächlich ansteigt. Mit der Zahl der Phänomene, die eine Theorie zu erklären vermag, steigt ihr Informationsgehalt. Allgemein sind Theorien mit möglichst hohem Informationsgehalt erwünscht (zum Informationsgehalt von Theorien vgl. Opp 2005 oder Schnell/ Hill/Esser 2008).

2 Von der Suche nach „richtigen“ Theorien und „richtigen” Methoden

Methodenlehre legt fest welche Techniken wie angewendet werden müssen, um über den empirischen Wahrheitsgehalt einer Theorie entscheiden zu können.

Die „richtige“ Theorie zur Erforschung eines Problems zu finden, ist nicht leicht. Nicht selten entsteht schon ein Disput darüber, was denn die wesentlichen Aspekte eines Problems sind. Erst recht kann über die Funktionsregeln einer Theorie zur Beschreibung der komplexen Ursache- und Wirkungsverhältnisse eines Problems gestritten werden. Dabei ist der einzelne Wissenschaftler bzw. die einzelne Wissenschaftlerin prinzipiell bestrebt, bessere Theorien und Befunde zu erarbeiten, als sie gemäss dem Stand der Wissenschaft bereits vorliegen. Es ist daher plausibel, wenn gefordert wird, dass die theoretischen Aussagen einer möglichst objektiven bzw. nachvollziehbaren Bewertung unterliegen müssen. Man benötigt also Verfahrensweisen und Techniken, die zunächst imstande sind, die gesuchten Theorien und Befunde tat-|60◄ ►61| sächlich hervorzubringen. Im nächsten Schritt sollen diese Techniken aber auch geeignet sein, zwischen besseren und schlechteren, zuverlässigen und unzuverlässigen–und so gesehen „richtigen“ und „falschen“ –Theorien zu unterscheiden (vgl. dazu auch Wottawa 1993). In der empirischen Methodenlehre und der Statistik werden solche Vorgehensweisen und Techniken sowie ihre relative Bedeutung für die Forschung ebenso wie ihre Probleme und Schwächen erklärt. Das schliesst auch Fragen nach den „richtigen“ Methoden ein. Damit wird die Wissenschaft auf einer Metaebene selbst zum Objekt der Betrachtung: Bei der Methodologie geht es vor allem um Fragen der Angemessenheit, Zuverlässigkeit (Reliabilität) und Gültigkeit (Validität) von Methoden sowie um generelle Überlegungen zum Forschungsprozess. Bei der Wissenschaftstheorie geht es darüber hinaus auch um die Frage, wie man den wissenschaftlichen Fortschritt generell sichern kann und inwiefern sich wissenschaftliche Aussagen über die Realität im Verlauf des wissenschaftlichen Fortschritts der Wahrheit schrittweise annähern. Bei diesen „meta-methodischen“ Disziplinen stehen also vor allem Fragen der optimalen Vorgehensweise beim wissenschaftlichen Forschen im Vordergrund. In verschiedenen Wissenschaften haben sich ganz unterschiedliche Methodologien und Methoden etabliert. So achtet etwa die Rechtswissenschaft stark auf die Übereinstimmung mit den in der Wissenschaft bereits akzeptierten Aussagen und die Mathematik auf die Ableitbarkeit von Aussagen aus konkreten Grundaussagen („Axiomen“). Andere Wissenschaften betonen die Übereinstimmung zwischen wissenschaftlicher Aussage und Beobachtung der Wirklichkeit, also letztlich zwischen Theorie und der Realität. Dieses in den Naturwissenschaften dominierende Prinzip nennt man „empirische Überprüfungsmethodik“. Man spricht von der empirischen Forschung, kurz der Empirie.

 

Publizistik- und Kommunikationswissenschaft ist überwiegend empirische Sozialwissenschaft

Aufgrund der Interdisziplinarität bestehen Berührungspunkte zu anderen Wissenschaftstraditionen

Eine neutrale Unterscheidung zwischen qualitativen und quantitativen Methoden

In einigen Wissenschaftsbereichen existieren mehrere Überprüfungsmethoden nebeneinander. So folgen etwa manche Film- und Medienwissenschaften einer geisteswissenschaftlichen Tradition und präferieren die dort gebräuchlichen deutenden (hermeneutischen) Verfahren. Die Publizistik- und Kommunikationswissenschaft versteht sich im deutschsprachigen wie auch im anglo-amerikanischen Raum überwiegend als empirische Sozialwissenschaft und nutzt zusammen mit der Psychologie, der Soziologie und der Politikwissenschaft (um nur einige weitere wichtige Sozialwissenschaften zu nennen) empirische |61◄ ►62| Methoden zur Aussagen- und Theoriegewinnung. Es gibt jedoch viele Berührungspunkte: So finden etwa in der publizistikwissenschaftlichen Mediengeschichte geisteswissenschaftliche Methoden Anwendung, und auch die empirische Forschung nimmt Anleihen bei geisteswissenschaftlichen Traditionen. Als Brückenkopf können die qualitativen Methoden gelten. Ursprünglich aus der geisteswissenschaftlichen Denktradition kommend, ergänzen sie die in der empirischen Sozialwissenschaft dominierenden quantitativen Verfahren. Die Unterschiede zwischen beiden Paradigmen werden je nach eigenem Standpunkt mehr oder weniger kontrovers dargestellt (vgl. z. B. Lamnek 2005). Bortz und Döring (2002: 295) unterscheiden auf unideologische Weise zwischen beiden Paradigmen: Während für den quantitativen Ansatz die Analyse und Messung von genau definierten Ausschnitten der beobachteten Realität typischerweise in die statistische Verarbeitung von Messwerten mündet, operiert der qualitative Ansatz mit Verbalisierungen, die interpretativ ausgewertet werden. Für den quantitativen Ansatz ist es wichtig, standardisierte Bedingungen für alle Beobachtungen zu schaffen, um Störeinflüsse auszuschalten. Für den qualitativen Ansatz ist es hingegen zentral, die Erhebung möglichst unstandardisiert und offen zu gestalten, um möglichst detailreiche Informationen zu gewinnen. Beim quantitativen Ansatz wird der situative und soziale Kontext der Beobachtungen nur insofern mit in die Analysen einbezogen, als er für eine zu untersuchende Theorie eine Rolle spielt. Beim qualitativen Ansatz hingegen wird besonderer Wert darauf gelegt, den Kontext stets umfassend mit zu erheben. Dementsprechend werden quantitative Verfahren vorrangig zur Prüfung von Theorien angewendet, während qualitative Verfahren ihre Stärken vor allem bei der Entwicklung neuer Theorien entfalten können. Eine Konsequenz daraus ist, dass quantitative Verfahren aufgrund ihres informationsverdichtenden und reduktiven Vorgehens sehr gut für grosse Fallzahlen geeignet sind, während qualitative Verfahren stärker auf Einzelfälle eingehen können und daher eher mit kleinen Fallzahlen operieren. So lässt sich für die Publizistik-und Kommunikationswissenschaft die Frage nach den „richtigen“ Methoden nicht pauschal beantworten. Vielmehr können in einem Fall die quantitativen Verfahren, in einem anderen Fall die qualitativen und in einem (übrigens häufig auftretenden) dritten Fall eine Kombination aus beidem am besten geeignet sein, um eine konkrete Forschungsfrage zu beantworten.

|62◄ ►63|

3 Der Forschungsprozess: Von der Theorie zur empirischen Forschung

Für jede Forschungsfrage muss eine passende Theorie ausgewählt werden.

Ableitung spezifischer Theorie

Konzeptspezifikation und Operationalisierung

Funktionstüchtigkeit der Methode wird in Pretests überprüft

Beginnen wir mit einem Beispiel: Durch das Internet sind so viele Informationen wie nie zuvor auf Knopfdruck verfügbar. Optimisten erhofften sich dadurch, dass nun auch sozial Benachteiligte Zugang zu wertvollen Informationen im Internet erhalten und so ihre soziale Benachteiligung partiell aufheben könnten. Statistiken zeigen allerdings, dass lange Zeit vor allem Hochgebildete und solche, die schon im Besitz von sozial wertvollen Informationen waren, vom Internet profitierten. Wie kann dieses Phänomen erklärt werden? In der Regel existieren bereits theoretische Überlegungen darüber, wie bestimmte Wirklichkeitsbereiche funktionieren und welche Auswirkungen sie auf andere Realitätsbereiche haben. Solche theoretischen Ansätze sind jedoch oft zu umfassend, zu allgemein und damit zu unpräzise, um sie unmittelbar überprüfen zu können. So sprechen etwa Informationsverarbeitungstheorien ganz allgemein davon, wie Menschen Informationen wahrnehmen und verarbeiten, Handlungstheorien davon, wie Handlungen generell zustande kommen, Strukturierungstheorien davon, wie Handlungs- und Strukturebenen miteinander verzahnt sind, Systemtheorien davon, was Systeme generell kennzeichnet und in welchem Verhältnis Systeme zu ihrer Umwelt stehen. Für konkrete Forschungsprobleme sind diese Theorien zu abstrakt und zu allgemein. Daher hat die Forschung in vielen Fällen spezifischere Theorien hervorgebracht, die für eine fest umrissene Klasse von Situationen und Phänomenen Geltung beanspruchen können. Im Einzelfall muss also zunächst überlegt werden, mit welcher Theorie man ein konkretes Forschungsproblem idealerweise angehen kann. Die in Abschnitt 1 dieses Beitrags skizzierte Theorie von der wachsenden Wissenskluft ist eine Theorie, die auf das Problem der sozialen Benachteiligung durch das Internet angewendet werden kann: Sie handelt immerhin vom Informationszuwachs in einem sozialen System (durch das Internet) und von den Vorteilen der sozial Bevorteilten (d. h. Personen mit hohem sozioökonomischem Status). Allerdings ist auch dieser spezifische Ansatz noch zu abstrakt, um ihn unmittelbar empirisch überprüfen zu können. Soll die Theorie der wachsenden Wissenskluft auf das beschriebene Problem angewendet werden, so müssen wir „sozioökonomischen Status“ z. B. mit „Schulbildung“ übersetzen und auch für |63◄ ►64| die anderen Begriffe (wie Informationszuwachs, Vorteile) eine Entsprechung finden, die eine empirische Überprüfung erlauben. Die Umsetzung im Forschungsprozess besteht also aus zwei Schritten: (1) Konzeptspezifikation: Die relevanten Teilaspekte einer Theorie (Konstrukte) müssen präzisiert, definiert und zum Forschungsproblem in Bezug gesetzt werden. (2) Operationalisierung: Es muss angegeben werden, wie den theoretischen Begriffen (den Konstrukten) Indikatoren zugeordnet werden können, die einer systematischen Beobachtung zugänglich sind, und wie diese dann konkret gemessen werden können. Indikatoren sind also beobachtbare und messbare Sachverhalte, die mit einem theoretischen Begriff oder Konstrukt in einem systematischen Zusammenhang stehen. Entsprechend müssen konkrete Messinstrumente entwickelt werden (Codebücher, Fragebögen etc.). Im nächsten Schritt muss ihre Funktionstüchtigkeit unter Beweis gestellt werden. In der Regel werden zu diesem Zweck Voruntersuchungen („Pretests“) durchgeführt und anschliessend die Messinstrumente noch einmal verbessert (vgl. Schnell et al. 2008). Dieser Prozess geht Hand in Hand mit der Auswahl von geeigneten Erhebungsmethoden, einem Untersuchungsdesign sowie geeigneten Auswertungsverfahren.

4 Empirische Erhebungs- und Auswertungsmethoden

Drei Grundmethoden der Datenerhebung

Bei der Wahl der konkreten Erhebungsmethode kommt es auf die jeweilige Fragestellung an. In der Hauptsache stehen drei Erhebungsmethoden (Befragung, Beobachtung und Inhaltsanalyse) zur Auswahl, bei denen jeweils eine Vielzahl von Varianten unterschieden werden können.

Befragung

Es werden mündliche, schriftliche, telefonische sowie Online-Befragungen unterschieden.

Die Befragung ist neben der Inhaltsanalyse die am häufigsten eingesetzte kommunikationswissenschaftliche Methode. Die Befragung kann definiert werden als ein planmässiges Vorgehen mit wissenschaftlicher Zielsetzung, bei dem Personen durch eine Reihe gezielter Fragen zu verbalen Reaktionen veranlasst werden sollen (Bortz/Döring 2002; Diekmann 2002). Bei der Befragung generiert also der Befragte selbst die Informationen, die dann zu den Forschungsfragen in Bezug gesetzt werden. Dabei kann jede Frage als mehr oder weniger spezifischer Reiz (Stimulus) und die Antwort als Reaktion (Response) verstanden |64◄ ►65| werden. Die Befragung wird in erster Linie dazu eingesetzt, Meinungen, Einstellungen, Wissen und Wertvorstellungen zu erfassen. Im Allgemeinen unterscheidet man mündliche, schriftliche und telefonische Befragungen sowie standardisierte und nicht standardisierte Befragungsformen. In jüngerer Zeit erfreut sich die (in der Regel standardisierte) Online-Befragung steigender Beliebtheit. Stark standardisierte Befragungen dienen der besseren Vergleichbarkeit, erreichen eine grössere analytische Schärfe, lassen sich quantifizieren und daher auf grosse Stichproben anwenden und statistisch auswerten. Gering standardisierte Befragungen wie das Leitfadeninterview, die Gruppendiskussion oder das Experteninterview sind ganzheitlicher, erreichen oft eine grössere Tiefe und eignen sich insbesondere für kleine Fallzahlen.

Inhaltsanalyse

Die Inhaltsanalyse in der Publizistik- und Medienwissenschaft dient der systematischen, intersubjektiv nachvollziehbaren Erfassung von Kommunikationsinhalten, die sich sowohl auf inhaltliche, formale sowie visuelle Aspekte beziehen kann. Beispielsweise können Zeitungsartikel oder TV-Nachrichten auf das Thema der Berichterstattung, Argumente verschiedener Akteure, Satzlängen oder die visuelle Darstellung von menschlichen Handlungen oder Emotionen untersucht werden. Die Kommunikationsinhalte werden dabei codiert, d. h. es wird das Vorkommen einer Aussage mit einer bestimmten vorher festgelegten Zahl (Code) versehen. Die Codierung erfolgt mithilfe eines Codebuches und Codieranweisungen. Wie bei der Befragung werden mehr oder weniger stark standardisierte Verfahren unterschieden. Quantitative Inhaltsanalysen zeichnen sich insbesondere durch ihre Systematik aus. Sie dienen primär der Theorieprüfung. Die quantitative Inhaltsanalyse ist intersubjektiv nachvollziehbar, weil unterschiedliche Personen bei der Codierung zu demselben Ergebnis kommen sollten. Zu diesem Zweck lassen sich nach einer Phase der Testcodierung die Verlässlichkeit (Reliabilität) und Güte der Codierung statistisch berechnen. Qualitative Inhaltsanalysen legen weniger strenge methodologische Kriterien an, weswegen sie sich weniger zur Theorieprüfung als viel mehr zur Theorieentwicklung eignen.

Beobachtung

Die Methode der Beobachtung ist bisher weitaus weniger als die Befragung oder die Inhaltsanalyse gebräuchlich (vgl. Gehrau 2002: 10). Wie den beiden anderen Methoden liegen auch ihr im wissenschaftlichen Kontext stets forschungsleitende Fragestellungen zugrunde. Entsprechend erfolgt eine wissenschaftliche Beobachtung–anders als |65◄ ►66| Alltagsbeobachtungen–kontrolliert und systematisch. Gegenstand von Beobachtungen sind im weitesten Sinne menschliche Handlungen und Reaktionen. Dazu gehören zum einen konkretes Verhalten oder Verhaltensabläufe (z. B. nonverbale Reaktionen während der Rezeption eines Horrorfilms, d. h. Mimik, Gestik, Körpersprache). Zum anderen sind auch sprachliche Äusserungen (z. B. rezeptionsbegleitende Gespräche in Gruppennutzungssituationen, Ausrufe, Kommentare) und andere soziale Merkmale (Kleidung, Symbole, Gebräuche, Wohnformen etc.) der Beobachtung zugänglich (vgl. Diekmann 2002). Wiederum werden verschiedene Formen der Beobachtung unterschieden. Die wichtigsten Dimensionen sind dabei teilnehmend vs. nicht teilnehmend, verdeckt vs. offen, Feld- vs. Laborbeobachtung und Selbst- vs. Fremdbeobachtung (vgl. Gehrau 2002). Die Beobachtung wird v. a. dann angewandt, wenn man unbewusste Phänomene (z. B. routiniertes Verhalten) untersuchen möchte, die Zielpersonen sich sprachlich nicht ausreichend äussern können (z. B. Kleinkinder) oder wenn es um ein Themengebiet geht, bei dem sozial erwünschte Antworten wahrscheinlich sind und vermieden werden sollen (vgl. Friedrichs 1990: 274; Gehrau 2002: 9).

Psychophysiologische Messungen

Zu nennen sind auch psychophysiologische Messmethoden, die in den letzten Jahren zunehmend praktikabler geworden sind und verstärkt in der psychologischen Kommunikationsforschung zum Einsatz kommen. Dabei geht es um die direkte und objektive Messung von physiologischen Begleitreaktionen der Mediennutzung an der Körperoberfläche wie z. B. das EEG an der Schädeloberfläche (Gehirnaktivitäten), die Schweissdrüsenaktivität an der Hautoberfläche (Erregung) sowie die Herzschlagsfrequenz oder die periphere Pulsfrequenz (Herz-Kreislauf-Aktivität) (vgl. Kempter/Bente 2004).

 

Auswertungsverfahren

Verfahren multivariater Statistik

Mit Auswertungsverfahren sind üblicherweise quantitative Verfahren gemeint, auch wenn es beispielsweise für qualitative Inhaltsanalysen ebenfalls entwickelte Auswertungsstrategien gibt (vgl. z. B. Glaser/Strauss 1998, Mayring 2002a). Standardisiert gewonnene Informationen werden üblicherweise statistisch ausgewertet. Die sozialwissenschaftliche Statistik und Datenanalyse hat einen umfangreichen Kanon an Auswertungsprozeduren entwickelt, die nach entsprechender Schulung auch für Nichtstatistiker gut anwendbar sind. Grob kann zwischen Verfahren unterschieden werden, die Zusammenhänge, und solchen, die Unterschiede zwischen verschiedenen Merkmalen |66◄ ►67| (Variablen) oder Fällen aufzeigen und statistisch überprüfen. Hierfür gibt es jeweils datenanalytische Prozeduren im Programmpaket SPSS (Statistical Package for the Social Sciences), das als Standard in den Sozialwissenschaften gilt (vgl. Bortz/Schuster 2010; Brosius 2008; Bühl 2009). Neben einfachen Verfahren gibt es auch komplexe multivariate Verfahren, mit denen die realen Verhältnisse der sozialen Wirklichkeit besser erfasst und analysiert werden können als mit einfachen Verfahren. Sie können Beziehungen und Unterschiede zwischen einer Vielzahl von Merkmalen bzw. Fällen gleichzeitig aufzeigen: So gruppiert die Clusteranalyse einander ähnliche Fälle, die Faktorenanalyse miteinander in statistischer Beziehung stehende Merkmale (Variablen), die Varianzanalyse untersucht Unterschiede zwischen mehr als zwei Gruppen und die Regressionsanalyse erlaubt die Erklärung und Prognose von Phänomenen anhand einer Vielzahl von Prädiktoren (vgl. Backhaus et al. 2003).

Untersuchungsdesign als Anlage der Erhebung

Kontrolle von Störeinflüssen

Querschnittvs. Längsschnittdesigns

Ebenso wichtig wie die Wahl der Erhebungsmethode ist die Wahl des Untersuchungsdesign. Das Design muss exakt so gewählt werden, dass die Forschungsfrage präzise beantwortet bzw. eine aufgestellte Hypothese entweder gestützt oder widerlegt werden kann. Die entscheidende Frage lautet dabei stets, wie sichergestellt werden kann, dass die Ergebnisse tatsächlich im Sinne der Forschungsfrage interpretiert und nicht etwa auf andere Einflüsse zurückgeführt werden können, die in der Untersuchungsanlage nicht bedacht und nicht berücksichtigt wurden. Solche potenziellen Störeinflüsse müssen kontrolliert werden, indem sie entweder erstens explizit ausgeschlossen oder aber zweitens explizit eingeschlossen (und in das Forschungsdesign integriert) werden. Sie können drittens statistisch kontrolliert werden. Schliesslich kann man sich unter bestimmten Bedingungen (Zufallsauswahl der Untersuchungseinheiten) darauf verlassen, dass sich alle weiteren, nicht interessierenden Einflüsse zufällig und nicht systematisch (verzerrend) auf die Ergebnisse auswirken. Grob können zwei Untersuchungsdesigns, jeweils mit zahlreichen Varianten, unterschieden werden. Bei Querschnittdesigns werden zu einem einzigen Zeitpunkt, bei Längsschnittdesigns an mindestens zwei Zeitpunkten Erhebungen durchgeführt, sodass Veränderungen zwischen den Messzeitpunkten protokolliert und analysiert werden können. Bei den Längsschnittdesigns kann weiter unterschieden werden: Bei einer Panelstudie werden die gleichen Personen zu mehreren Zeitpunkten befragt, bei Trendstudien wird |67◄ ►68| für jede Erhebung immer wieder eine neue Stichprobe gezogen. Zum exakten Nachweis von Kausalzusammenhängen eignen sich Experimente (vgl. Huber 2005). Dabei können etwa Medienwirkungen unter kontrollierten Bedingungen erfasst und auf konkrete Ursachen zurückgeführt werden.

5 Gütekriterien empirischer Forschung

Qualitätsmanagement in der Forschung

Egal, welche Methode bzw. welches Forschungsdesign ausgewählt wird, stets geht es darum, ein möglichst hohes Qualitätsniveau zu erreichen. Man könnte sagen, dass mithilfe von Gütekriterien ein Qualitätsmanagement in der Forschung betrieben werden kann, dessen Regeln von allen Forschern und Forscherinnen geteilt werden und das daher dazu dient, Forschungsarbeit nachvollziehbar und damit auch der Kritik zugänglich zu machen. Letztlich dienen diese Gütekriterien also dazu, den wissenschaftlichen Fortschritt zu sichern.

Validität, Reliabilität, Objektivität

Solche Gütekriterien sind beispielsweise die Reliabilität, die Validität sowie die Objektivität (in ihrer wissenschaftlichen Variante, der intersubjektiven Nachprüfbarkeit).

Intersubjektive Nachprüfbarkeit

Die intersubjektive Nachprüfbarkeit ist vielleicht das wichtigste Kriterium, da bei einer Missachtung auch die anderen Gütekriterien sinnlos werden. Die Intersubjektivität verlangt, dass die im Forschungsprozess getroffenen Entscheidungen (Methoden, Designs, Stichproben, Messungen, Analysen) wie auch die Aussagen hinsichtlich ihres Zustandekommens in allen Schritten von Dritten nachvollzogen werden können. Jede andere Person, die die gleichen Entscheidungen trifft, muss zu denselben Aussagen gelangen wie der Forscher oder die Forscherin selbst. Die Kompetenz des Forschers bzw. der Forscherin liegt allein darin, relevante Forschungsentscheidungen zu treffen. Er/ sie muss sie jedoch stets ausführlich begründen und dokumentieren (dabei hilft es freilich, nach einem anerkannten Regelwerk vorzugehen).

Reliabilität

Das Gütekriterium der Reliabilität betrifft den Messvorgang. Der Messvorgang soll zuverlässig und genau erfolgen, und die wiederholte Messung mit den gleichen Messmethoden soll zu identischen Ergebnissen führen. Mit verschiedenen methodenspezifischen Varianten kann die Reliabilität sehr differenziert überprüft werden (vgl. Schnell et al. 2008).

|68◄ ►69|

Validität

Validität ist ein weiterer zentraler Aspekt der empirischen Forschung. Hier geht es um die Frage, ob die interessierenden Einflüsse empirisch so umgesetzt wurden, dass die Ergebnisse tatsächlich eine gültige Beantwortung der Forschungsfrage erlauben. Im Prinzip lässt sich diese Frage auf alle Phasen des Forschungsprozesses beziehen, aber meist wird sie auf den Erhebungs- bzw. den Messvorgang angewandt. Die Validität einer Messung bezieht sich auf die Frage, ob das gemessen wurde, was gemessen werden sollte. Um das zu verstehen, muss man sich überlegen, welche Schritte zur Messung geführt haben. Zunächst wurden die Begriffe konzeptualisiert und definiert. Dann wurde nach Indikatoren gesucht, mit denen der Begriff am besten erfasst werden kann. Schliesslich wurden die Indikatoren in konkrete Messvorschriften (Fragen, inhaltsanalytische Kategorien etc.) übersetzt. Bei all diesen Schritten können Fehlentscheidungen auftreten, die letztlich dazu führen, dass das, was gemessen wurde, nicht wirklich dem entspricht, was man erfassen wollte.

Interne und externe Validität

Ferner wird zwischen der internen und der externen Validität unterschieden. Mit interner Validität ist gemeint, dass der Forscher oder die Forscherin das Forschungsdesign und die Erfassung so wählt und gestaltet (sozusagen das „Innenleben“ der Forschung), dass sich möglichst eindeutige Aussagen über das Forschungsproblem ergeben. Das heisst, dass möglichst alle Störfaktoren beseitigt oder kontrolliert werden. Die höchste interne Validität wird in der Regel in Experimenten erreicht. Mit der externen Validität ist die Übertragbarkeit der Forschungsergebnisse auf die Realität gemeint (vgl. Schnell et al. 2008). Sind beispielsweise die Teilnehmerinnen einer Befragung nicht zufällig ausgewählt, so kann die Stichprobe keine Repräsentativität beanspruchen, und somit sind die Ergebnisse der Befragung nicht auf die Bevölkerung übertragbar. Wichtig in diesem Zusammenhang ist, dass die externe von der internen Validität abhängt: Was schon falsch oder ungenau gemessen wurde (interne Validität), kann natürlich auch nicht sinnvoll auf die Realität übertragen werden (externe Validität).