PolitCamp 2010

Es war für mich eine recht spontane Entscheidung, das PolitCamp zu besuchen. Ich hatte ohnehin vor, am Freitag (19. März) die Leipziger Buchmesse zu besuchen, um mich mit einigen Bekannten zu treffen. Erst am Dienstag zuvor bemerkte ich dann, dass das PolitCamp ja passenderweise am darauffolgenden Samstag und Sonntag war, und mit Berlin auch nur einen Katzensprung entfernt.

Leipziger Buchmesse

Die Leipziger Buchmesse hat sich aus meiner Sicht klar gelohnt; feste Termine hatte ich mit Michael Wache (Anime on Demand) und Yasuko Sakaedani (Japanische Botschaft), mit denen ich mich ohnehin immer sehr gut verstehe, außerdem nette Gespräche mit Myriam von den Fireangels, Mille vom Schwarzen Turm und ein kurzes Begutachten des e-Book-Readers txtr. Der Animexx-Stand gab optisch richtig viel her – da ich ja selbst nicht an der Planung und Durchführung beteiligt war, darf ich das hoffentlich sagen, ohne des Eigenlobs bezichtigt zu werden. 🙂

Politcamp

Aber jetzt zum eigentlichen Thema: das PolitCamp, das unter dem Motto „Politik trifft Web 2.0“ lief und zum zweiten Mal stattfand.

Von der Organisationsform war ich zugegebenermaßen etwas überrascht: ich kannte aus diesem Themengebiet bis jetzt fast ausschließlich den Chaos Computer Congress, der ein recht straff durchorganisiertes, im Vorfeld festgelegtes Programm von früh bis spät in die Nacht hat.

Das PolitCamp ist dagegen sehr stark „Bottom Up“ organisiert: ein wesentlicher Teil des Programms wurde erst auf dem Camp selbst festgelegt, einige Sessions fanden völlig spontan statt.

Das Programm verteilte sich auf fünf Räume: ein großer Saal und vier kleinere Workshop-Räume. Im großen Saal fanden vor allem jene Veranstaltungen statt, an denen die „Promis“ teilnehmen (Kristina Schröder, Franziska Heine, Konstantin v. Notz, Volker Beck, etc.; Peter Kruse war angekündigt, musste krankheitsbedingt leider absagen).

Am Anfang beider Tage fand für jeweils eine Stunde die Session-Planung statt: alle, die einen Vortrag oder Workshop halten wollen, stellten ihr Thema kurz auf der Bühne vor; anhand eines kurzen Feedbacks aus dem Publikum (Handzeichen) wurden dann anhand der zu erwartenden Besucherzahl und den technischen Anforderungen der Raum und Zeitslot zugewiesen.

Ein paar persönliche Anmerkungen zu den Vorträgen, die ich besucht habe:

Whistleblowing: Der Referent definierte Whistleblower (Personen, die interne Dokumente oder Informationen aus Firmen oder anderen Organisationen meist anonym veröffentlichen, um dadurch auf Missstände hinzuweisen; klar abzugrenzen von Denunzianten, deren Ziel es ist, sich mit der Macht zu arrangieren) und erklärte die Notwendigkeit von Whistleblowing. Einwände seitens des Publikums gab es vor allem dahingehend, dass das anonyme Publizieren auch dazu genutzt werden könne, mittels Falschinformationen gezielten Rufmord zu begehen; das sei besonders dann gefährlich, wenn die Fehlinformationen gängige Klischees und Vorurteile bedient. Außerdem ist es besonders in kleinen Arbeitseinheiten häufig nicht wirklich möglich, Dokumente anonym zu veröffentlichen.

Datenschutz als Ideologie: Dieser Vortrag empfand ich als einen der Inspirierendsten des gesamten Camps. Christian Heller stellte bewusst provozierend seine Thesen vor, warum der Datenschutz völlig überbewertet, und die Gründe der Datenschützer mitunter gar gefährlich seien („Meine Daten gehören mir“ und Konzepte wie „Digitales Vergessen“ führten implizit zu Konzepten wie „Geistiges Eigentum“ und „DRM“). Ich möchte die Thesen hier gar nicht alle wiederholen – Christian hat sie auch online veröffentlicht und den Vortrag gibt es auch als Stream im Netz (etwa ab 1:56:00). Man muss wohl nicht allen Thesen zustimmen, aber es lohnt sich, einmal diese konträre Position anzuschauen. Und es war herrlich zu sehen, wie einige im Publikum nahezu explodiert sind vor Drang, Christian zu widersprechen…

Politik trifft Web 2.0: In dieser „Elefantenrunde“ wurde das Verhältnis der (Bundes-)Politik zum Web 2.0 diskutiert. Star der Veranstaltung war freilich die „Twitter-Ministerin“ (Spiegel Online) Kristina Schröder, die Grünen waren durch Volker Beck repräsentiert, die FDP durch Müller-Sörenksen, die Linke durch Wawzyniak, außerdem diskutierten noch Martin Stadelmeier und Thomas Knüwer mit. Inhaltlich gibt es zu diesem Panel nur wenig zu  sagen – ich hatte auch nicht wirklich das Gefühl, dass die Inhalte hier irgendwen interessierten, das ganze wurde wohl vor allem als Image-Veranstaltung verstanden.

Witziges Detail am Rande: das BMFSFJ stellte gleich am Samstag noch ein Video von Schröders Auftritt auf dem Panel online. Da der Applaus in real (auf ZapLive etwa um 00:08:20 rum) wohl nicht gereicht hat, wurde anscheinend nachträglich noch etwas mehr hinzugemischt…

Diskussion zum Jugendmedienschutz-Staatsvertrag: Auch ein Vortrag, der mir jetzt inhaltlich wenig Neues geboten hatte (was allerdings auch daran lag, dass ich den Entwurf auf der Hinfahrt einmal genauer mit der bisherigen Fassung verglichen hatte und dadurch schon etwas damit vertraut war), aber zumindest von den Positionen der Diskussionsteilnehmer her teils recht interessant. Überraschend war hier vor allem, dass CDU’ler Jarzombek den Vertrag äußerst scharf kritisierte – im besonderen das Vorgehen, Gesetze praktisch komplett unter Ausschluss der parlamentarischen Ebene zu erlassen. Außerdem bezweifelte er, dass es jemals staatlich anerkannte Jugendschutz-Programme geben könne. Stadelmeier trat als Verteidiger des JMStV auf. Seine Aussage, der JMStV habe keine Transparanz-Probleme, das Vorgehen dahinter sei vielmehr ähnlich Transparent wie bei EU-Verträgen, mochte nicht so richtig überzeugen; fairerweise muss man aber anmerken, dass zumindest ein gewisser Teil der ablehnenden Haltung des Publikums auch daher rührte, dass Stadelmeiers Argumente auch einfach nicht verstanden werden wollten.

Grünes Vernetzungstreffen: Später am Samstag fand ein grünes Vernetzungstreffen statt, auf dem etwa 30-40 Mitglieder und ein paar Interessierte sich gegenseitig bekannt machten. Es wurde kurz eine mögliche zukünftige Zusammenarbeit besprochen, das Wurzelwerk und die Idee eines „GrünenCamps“. Da für die Diskussion aber nur etwa 15 Minuten Zeit war, da die Vorstellungsrunde bereits eine halbe Stunde dauerte, wurden die Themen nicht weiter vertieft.

Wurzelwerk: Da auf dem Vernetzungstreffen größeres Interesse am Wurzelwerk bestand, meldete Fabian Heil spontan am Sonntag noch einen Workshop zum grünen Mitgliedernetzwerk an. Der Workshop war überraschend gut besucht, auch Mitglieder der Piratenpartei und der SPD interessierten sich offensichtlich dafür. Der Vorstellung folgte eine ausgesprochen interessante Diskussion. Fabian räumte recht freimütig viele Probleme beim Wurzelwerk ein und gab auch eine Vorstellung von den finanziellen Dimensionen des Projekts, der wohl besonders für einige Vertreter der Piratenpartei recht überraschend war. Mir selbst war zum Beispiel neu, dass das Wurzelwerk vor allem auch bereits existierende Insellösungen vereinigen soll und sich dabei in die zentrale Mitgliederverwaltung integrieren muss. Die Piraten bestätigten, gerade bei der Mitgliederverwaltung auch recht ähnliche Probleme zu haben, und auch dem SPD-Vertreter kamen wohl einige Probleme recht bekannt vor.

Diskussionsrunde „Netzneutralität“: Dem Votrag von Markus Beckedahl am Samstag zur Einführung in die Thematik folgte eine größere Diskussionsrunde am Sonntag. Mit Konstantin v. Notz (Grüne), Sebastian Blumenthal (FDP), Peter Tauber (CDU), Matthias Groote (SPD) und Stefan Engeln (vom Internet-Provider 1&1) war die Runde wieder recht hochkarätig besetzt – und dieses Panel war inhaltlich tatsächlich auch recht ergiebig, die Diskussionsteilnehmer konnten ihre unterschiedliche Positionen recht deutlich darstellen:

  • Für Notz (Grüne) ist der neutrale Netzzugang Teil der Daseinsvorge; da die Provider ein kommerzielles Interesse an der Traffic-Regulierung hätten und es in anderen Ländern bereits einige Probleme dahingehend gab (und Skype auch in vielen Mobilfunksystemen blockiert wird, was eben gerade ein Verstoß gegen die Neutralität ist), solle der Staat generell, aber insbesondere in Fällen, in denen Staatssubventionen fließen, auf einen neutralen Netzzugang bestehen.
  • Blumenthal (FDP) sprach sich ebenfalls für Netzneutralität aus; der Staat solle aber erst nicht schon präventiv regulierend eingreifen, sondern erst dann, wenn ein Missbrauch auch tatsächlich festgestellt wurde. Ein Missbrauch ist für ihn dabei nicht automatisch, wenn die Netzneutralität verletzt wird, sondern nur dann, wenn dies geschieht, ohne in den AGBs geregelt zu sein.
  • Für den 1&1-Vertreter ist die ganze Debatte ohnehin nur eine „Scheindebatte“; die Neutralität werde mindestens genauso von den Herstellern proprietärer Mobilfunksysteme bedroht; dass Skype in manchen Mobilfunksystemen blockiert wird, sei auch kein gutes Beispiel für die Verletzung der Netzneutralität, da Skype ja ein proprietäres System sei, das damit selbst nicht neutral sei; außerdem zeige doch gerade die Diskussion um die Netzsperren, dass sich die Politik aus der Regulierung des Internets besser heraus halten solle.

Politik-Bashing und Online-Diskussionskultur: Hier diskutierten die Leiter einiger Online-Magazine (u.a. taz,Vorwärts) darüber, wie sie mit den Nutzer-Diskussionen zu ihren Artikeln umgehen und welche Erfahrungen sie mit Trollen und radikalen Äußerungen gemacht haben. Allzu interessant war das ganze nicht, eben eine Aneinanderreihung von Einzelerfahrungen. Julia Seliger (taz) brachte aber reichlich Würze mit in die Diskussion, indem sie mit Äußerung wie „Ich würde gerne noch sehr viel mehr zensieren“ oder „90% des Internets ist völliger Müll“ (wohl völlig bewusst) das Publikum zum Kochen brachte, und zeitweise noch während der Podiumsdiskussion auf Tweets antwortete…

Fazit

Ich bereue es nicht, aufs PolitCamp gefahren zu sein, bin aber nun auch nicht hellauf begeistert.

Die Organisation des Camps machte einen recht soliden Eindruck. Die Location, ein zum Veranstaltungszentrum umgebautes ehemaliges Pumpwerk, lag leicht zugänglich am Ostbahnhof und sah von außen richtig cool aus. Die Verpflegung war okay – richtig toll war aber, dass es das Mittagessen kostenlos gab. Ein wirklich netter Service, beim ohnehin schon recht moderaten Eintrittspreis von knapp vierzig Euro.

Grundsätzlich hatte ich oft das Gefühl, dass die Teilnehmerzahl von etwa 900 am Samstag doch schon etwas zu hoch war um noch eine wirklich persönliche Atmosphäre aufkommen zu lassen. Am Sonntag war das schon eher der Fall, da waren es geschätzt nur noch etwas mehr als halb so viele.

Als störend empfand ich auch die auch seitens der Organisation forcierte Twitter-Fixierung. Diese kristallisierte sich besonders in einer großen Twitter-Wall hinter der Bühne des großen Saals, die live alle „#pc10“-Tweets anzeigte. Sie motivierte die Zuschauer in ganz besonderem Maße, ständig jede Aussage mitzukommentieren und die Leinwand als Live-Chat über die gerade stattfindende Diskussion zu verwenden – Schirrmacher würde hier seine Thesen zur Konzentration in Zeiten des Internets wohl mehr als bestätigt sehen. Als Mittel um sich kennenzulernen erfüllte Twitter dagegen sehr gute Zwecke – es lernten sich viele erstmals im RL kennen, die sich bisher nur als Follower ihrer jeweiligen Tweets kannten.

Und ich denke, so muss man das PolitCamp auch begreifen: eine Gelegenheit, Leute kennenzulernen und alte Kontakte zu pflegen – die Diskussionspanels stehen dem gegenüber nur an zweiter Stelle.

Zu diesem Blog

Meine Beweggründe, dieses Blog zu starten:
Ich hatte in den letzten Monaten häufiger gemerkt, dass ich eine Plattform brauche, um Artikel oder Kommentare zu veröffentlichen. Wenn ich etwas im Rahmen des Animexx mache, ist dafür natürlich das Aktiven-Weblog ideal.
Seit September ’09 bin ich nun in meiner Freizeit bei Bündnis 90 / Die Grünen aktiv, und nach einer etwas längeren „Schnupperphase“ zeichnet sich für mich langsam ab, dass ich hier einfach richtig bin und daher wohl auch längerfristig aktiv sein werde.
Ich habe mich daher dazu entschlossen, ein weiteres Weblog aufzusetzen. Ich hätte freilich auch das Animexx-Weblog-System dafür nutzen können – nach dem „eating your own dog food“-Prinzip wäre das auf der einen Seite auch konsequent gewesen. Auf der anderen Seite halte ich es für enorm wichtig, dass ich meine persönlichen politischen Einstellungen und Aktivitäten aus meinem Beruf bzw. meiner langjährigen Leidenschaft, dem Betreiben der Anime/Manga-Jugend-Plattform Animexx, heraushalte. (Anders herum habe ich freilich weniger Hemmungen: ich werde gerne jeden Grünen von den Vorzügen von Anime/Manga überzeugen 🙂 ).  Aus diesem Grund gibt es von meiner Seite aus erst mal ein weiteres WordPress-Weblog.
Inhaltlich ist es immer etwas gefährlich, bei persönlichen Weblogs Vorhersagen zu machen, da es am Ende doch immer anders kommt als man denkt. Ich richte mich aber in erster Linie an Grüne aus dem Raum München, wobei man das mit dem „Raum München“ bei Bedarf auch gerne großzügig bis über Berlin hinaus auslegen darf.

Diploma Thesis: System Malfunction Recognition and Response Based on User Behavior

Abstract

Computer systems that observe user behavior in order to detect malfunctions and respond to them are mostly unexplored from a scientific point of view until now. However, they may hold much potential to improve human-computer interaction. This thesis proposes a reference model for such systems. It describes common computer problems and their symptoms, reactions by the users and ways to respond to such problems on system side. Taxonomies covering common use-cases are provided and both psychological and technical aspects are covered.

In order to show the effectiveness of behavior-based malfunction response, three systems were implemented: the Microphone Helper assists the user in configuring the microphone. The Mouse Helper recognizes confused user behavior in situations of mouse cursor freezes.

The  Frustration 2.0 project tries to prevent user frustration when encountering buggy JavaScript-based websites and provides the manufacturer of the website with diagnostic information. The first two projects were evaluated empirically in user studies: the detection rate and the time gains were measured and the opinions of the users about such systems were analyzed. The results indicate that behavior-based malfunction response can be helpful in many cases, but they also show specific problems that have to be considered when designing such systems.

The full diploma thesis (PDF, ~2MB)

Anime-Fansubs

Zweiseitiger Artikel im Anime-Magazin „Koneko“ (Ausgabe #7)

Was ist das?

„Selbsthilfe“ – so könnte man das Phänomen Fansub am besten charakterisieren. Jeder Fan kennt das Problem: in Japan laufen alle paar Monate Dutzende an neuen Anime-Serien an, und hier kommt nur ein Bruchteil dessen an. Und gut genug Japanisch kann man auch nicht, um sich die Serien im Original anzuschauen…

Fansubs setzten es sich zum Ziel, dem Anime-Mangel Abhilfe zu schaffen: man nimmt Videoaufnahmen aus dem japanischen Fernsehen, übersetzt sie, fügt die Übersetzungen als Untertitel ein und lässt Kopien davon anderen Anime-Fans zukommen, die nicht Japanisch können oder sonst keine Bezugsquellen haben. Das ganze geschieht illegal.

Der Anfang

Fansubs sind im Wesentlichen eine amerikanische Erscheinung. Seit Mitte der 70er-Jahre war es dank den aufkommenden VHS-Videokassetten möglich, Sendungen im japanischen Fernsehen aufzuzeichnen und in die USA zu schicken. Japanische Videokassetten lassen ich dort, anders als hier in Europa, ohne größere Probleme abspielen. Das führte bald zu Anime-Vorführungen in diversen Anime-Clubs in amerikanischen Universitäten. Anfangs sah das so aus, dass die Animes im japanischen Original gezeigt wurden, und ein des Japanischen mächtiger Fan vor oder während des Films erklärte, um was es gerade ging. Ein erster Anfang also, aber echte Freude kommt da noch nicht auf.

Richtige Fansubs entstanden etwa ein Jahrzehnt später, als die Videotechnik fortgeschritten genug und vor allem günstig genug war. Mit spezieller Technik war es seitdem möglich, dass auch Privatpersonen Untertitel in einen Film hineinmontieren. Das führte zum ersten großen Fansub-Boom: einige wenige Fansubber kauften in Japan Animes auf LaserDisc (der Vorgänger der DVD), übersetzten sie, und erstellten auf recht mühevolle Weise Fansubs, die sie dann „Distributoren“ zukommen ließen. Interessierte Fans konnten dann per Post leere Videokassetten u. Rückporto an die Distributoren schicken, diese kopierten die Fansubs dann auf die Kassette und schickten sie zurück. Das war freilich immer noch verhältnismäßig aufwändig. Trotzdem führte das zu einer schnell wachsenden Fanszene, da viele erst durch Fansubs von Freunden überhaupt darauf aufmerksam wurden, dass es soetwas wie Animes überhaupt gibt.

Zu einem Teil waren die frühen Fansubs also Wegbereitereiter der kommerziellen und massentauglichen Verbreitung von Animes in Amerika. Denn die ersten Video-Anbieter hätten es deutlich schwieriger gehabt zu überleben, hätte es nicht von Anfang an eine recht aktive Fanszene gegeben. Aus diesem Grund waren die Video-Produzenten auch lange Zeit sehr tolerant gegenüber den nichtsdestoweniger illegalen Fansubs.

Fansubs heute

Die heutige Fansub-Szene hat kaum noch etwas mit der eben Beschriebenen zu tun; „Schuld“ daran haben wieder technische Entwicklungen: Animes werden heute ditigal produziert, ausgestrahlt (HDTV) und verkauft (die analoge LaserDisc wurde in Japan vor etwa 6 Jahren durch die DVD abgelöst). Diese Digitalisierung und immer schneller werdende Computer machten das Untertiteln von Animes um ein Vielfaches einfacher und kostengünstiger. Außerdem kamen seit Ende der 90er-Jahre breitbandige Internet-Anschlüsse in Mode. Das hilft auf vielen Ebenen: die Fansubber können untereinander besser kommunizieren, was vor allem die Zusammenarbeit zwischen Übersetzern und den Videobearbeitern verbessert. Für die normalen Fans ist es leichter, Fansubber überhaupt zu entdecken. Und insbesondere entfällt der ganze Aufwand mit Videokassetten verschicken und kopieren, da die Animes ohne Material- und Portokosten übers Internet transportiert werden können.

Besonders hier in Europa profitiert man davon: wie gesagt wird nach wie vor ein Großteil der Fansubs in den USA erstellt, und das Verschicken von VHS-Kassetten per Post nach Europa war immer eine recht problematische und kostspielige Angelegenheit.

Die neuen Möglichkeiten führten um das Jahr 2000 herum zu einer regelrechten Fansub-Explosion. Mit einem Mal wurde nahezu jede bekanntere Serie in Japan untertitelt. Da die langen Postwege von Japan zu den Fansubbern und von diesen zu den jeweiligen Fans entfielen, konnten Fansubs wesentlich schneller erstellt werden. Noch vor 10 Jahren empfand man einen Anime als aktuell, wenn dieser nicht älter als ein halbes Jahr war – heute vergeht zwischen der Erstausstrahlung im japanischen Fernsehen und der Download-Möglichkeit der untertitelten Episode im Netz manchmal weniger als eine Woche.

Während die technische Qualität der Fansubs (Bildqualität, Tonqualität) ebenfalls stark zunahm und heute oft schon beinahe DVD-Qualität hat, kann man dies von der Übersetzung selbst aber nicht unbedingt behaupten. Berauscht von der Möglichkeit, Anime-Episoden nur wenige Tage nach der Ausstrahlung ins Netz stellen zu können, lieferten sich besonders in den ersten zwei, drei Jahren viele Fansubber ein regelrechtes Rennen – auf Kosten der Sorgfältigkeit. Auch wenn inzwischen wieder mehr Ruhe eingekehrt ist, gibt es trotzdem oft arge Patzer. Spätestens wenn in der „Ghost in the Shell“-TV-Serie von Firmenerpressungen die Rede ist und in den Untertiteln ein „mass naked child event“ vorkommt, sollte sich mancher Fansubber einmal Gedanken über die Bekömmlichkeit diverser Substanzen machen.

Solche Ausfälle gab es freilich auch zu VHS-Zeiten, doch ist es heute schwerer, bei den Fansubs die Perlen unter der großen Menge an Mittelmäßigem herauszufiltern. Das gleiche gilt auch für die Animes selbst: früher wurde nur ein Bruchteil der Anime-Serien untertitelt, folglich konnte man davon ausgehen, dass dies nur die Besten der Besten waren. Heute wird man dagegen auch mit einer Menge an Serien beglückt, auf die man vielleicht auch als hartgesottener Anime-Fan verzichten hätte können…

In Deutschland

Hierzulande ist es üblich, englisch lesen zu können. Weil man deswegen auf die Fansubs aus den USA zurückgreifen kann, hat es nie einen so akuten Bedarf an deutschen Fansub gegeben. Deswegen hat es davon auch lange Zeit nie sonderlich viele gegeben; wenige Ghibli-Animes und ein paar andere Anime-Filme wurden als deutsche Fansubs untertitelt, aber das war es dann auch schon so ziemlich.

Erst die letzten zwei, drei Jahre kamen deutsche Fansubs wirklich in Mode.

Zwar ist die deutsche Fansubber-Szene nicht allzu groß und wird es wohl auch nicht werden. Dafür erscheinen hauptsächlich gute Serien in ansehnlicher Qualität, was dem ursprünglichen Gedanken von Fansubs wohl auch näher kommt.

Recht und Unrecht

Auch wenn das ganze Thema „Raubkopien“ spätestens nach einigen sehr fragwürdigen Werbekampagnen der Filmindustrie einen unangenehmen Beigeschmack hat, kann man es eigentlich nicht oft genug sagen: auch Anime-Fansubs sind Raubkopien und damit illegal, und jeder, der sich selbst welche anschaut, sollte sich dessen auch bewusst sein.

In den USA beginnt diese Illegalität gerade, sich auf die Fansubber auszuwirken. Früher gab es dort noch ein paar rechtliche Schlupflöcher, die das Risiko für die Fansubber etwas minderten, solange der untertitelte Anime dort noch von keiner Firma lizenziert war. Diese Schlupflöcher gibt es inzwischen nicht mehr. Wichtiger noch: das Phänomen „Fansub“ hat sich so stark verbreitet, dass Fansubs zu einer ernsten Konkurrenz zu den legalen DVD-Veröffentlichungen geworden sind – auch was die technische Qualität angeht. Vor allem aber hat sich die Marktsituation verändert: als Anime noch eine reine Insider-Sache waren, profitierten die Firmen von Fansubs, weil diese Werbung für Animes als solche waren. Inzwischen hat sich Anime so weit etabliert, dass die DVD-Firmen keinen Vorteil mehr in der Existenz von Fansubs sehen. Seit 2004 wird daher auch verstärkt gegen Anime-Downloadseiten vorgegangen, und auch die japanischen Anime-Produzenten beginnen sich, für das Thema zu interessieren und einzugreifen….

GEOS für den C=64

Aufsatz im Rahmen der Übung zu „Mensch-Maschine-Interaktion“, WS 2004/05

Drei Jahre nach Einführung des „Commodore 64“ wurde 1985 von „Berkeley Softworks“ (BSW) die Benutzeroberfläche GEOS – „Graphic Environment Operating System“ – veröffentlicht. Es lehnte sich stark an den damaligen Macintosh an, dem ersten erfolgreichen Heimrechner mit grafischer Oberfläche. GEOS musste zwar mit einer deutlich schwächeren Hardware-Plattform auskommen – der 8bittige C=64 hatte eine Taktfrequenz von nur einem knappen MegaHertz und mit 64kb Arbeitsspeicher gerade einmal ein Zehntel dessen, was genug für jeden ist. Dafür war der C=64 aufgrund des wesentlich geringeren Preises um einiges verbreiteter, weswegen man in einer grafischen Oberfläche für diesen viel Potential sah und diese sehr schnell weiterentwickelte.

GEOS war im Gegensatz zu MacOS kein Betriebssystem, sondern wie das später erschienene Windows nur eine grafische Oberfläche. Es hatte viele Funktionen und Elemente, die man schon von MacOS her kannte: Einfache Dialogboxen, Buttons und Pull-Down-Menüs. Dateien konnten mit Drag&Drop verschoben werden und in einen Papierkorb verschobene Dateien wiederhergestellt werden. Das Menü befindet sich wie bei MacOS am oberen Rand des „Desktops“ und variiert von Anwendung zu Anwendung. („deskTop“ war ursprünglich der Titel des Dateimanagers).

In den ersten Versionen gab es „Fenster“, wie wir sie heute kennen, nur in vagen Ansätzen: in der Mitte des Startbildschirms befindet sich ein „Dashboard“, das zwar den Fenstern ähnelt (es gibt eine Titelleiste mit dem Namen des aktuellen Laufwerks und einem Schließen-Button), aber weder verschiebbar noch in der Größe änderbar ist. In den Fenstern befindet sich der Inhalt des jeweiligen Datenträgers, also Programme sowie normale Dateien. Da das Dateisystem der C=64-Floppys von sich aus keine Verzeichnisse unterstützt, gab es anfangs auch unter GEOS keine Unterverzeichnisse. Das war aber auf Grund der ohnehin sehr begrenzten Speicherkapazität der Floppys kaum eine wirkliche zusätzliche Einschränkung. Die Standardansicht des Dateimanagers verwendet Icons für jede Datei. In das „deskTop“-Fenster passen nur acht Dateien auf einmal. Sind mehr als acht Dateien auf einem Datenträger, wird nicht gescrollt, sondern geblättert, indem man ein Icon am links unteren Rand anklickt. Man konnte nur vorwärtsblättern, wobei man von der letzten Seite aus wieder zur ersten kommt. Es ist aber auch möglich, die Icons auszublenden und nur die Dateinamen mit einigen Details wie Dateigröße anzuzeigen – wahlweise sortiert nach Dateiname, Größe oder Dateityp. In diesem Fall wird dann nach unten gescrollt, wenn die Dateien auf einer Seite keinen Platz mehr finden.

Gesteuert wurde GEOS im allgemeinen über ein Gerät, das am Joystick-Port hing; entweder über einen Joystick selbst, oder eine Maus, die einen Joystick emulierte.

Einen großen Reiz von GEOS machte aus, dass es bereits mit einem „What you see is what you get“-Editor ausgeliefert wurde (geoWrite) sowie mit einem Malprogramm (geoPaint), das aber zunächst in Schwarz-Weiß gehalten war. Texte sowie Bilder konnten zwischen Applikationen unter anderem per Drag&Drop ausgetauscht und schließlich auf einem Drucker ausgegeben werden. Mehrere Bitmap-Schriftarten waren bereits vorinstalliert, weitere ließen sich durch extra Schriftpakete nachinstallieren.

Die 1988 veröffentlichte Version 2.0, die unter anderem auch eine Rechtschreibkorrektur mitbrachte, wurde eine Zeitlang direkt mit dem C=64 im Bundle ausgeliefert, was für eine große Verbreitung sorgte. Weitere Applikationen, die mit der Zeit hinzu kamen, waren unter anderem ein Tabellen-Kalkulationsprogramm und eine Datenbank. Wegen der großen Beliebtheit und dem Kult-Status unter vielen Computer-Freaks wird das System auch heute noch weiter gepflegt – TCP/IP- und Modem-Treiber gibt es ebenso wie einen grafischen Browser („The Wave“, entwickelt im Jahr 2000).

Insbesondere letztgenannte Entwicklungen waren aber nur dadurch möglich, dass auch der C=64 hardwaremäßig weiterentwickelt wurde. Neben dem Nachfolgemodell C=128 gab es später auch fortschrittlichere Speichermedien als die Floppy (oder gar die alte Datasette). Noch wichtiger waren Speichermodule, mit denen man den C=64 über den User-Port erweitern konnte und noch später die externe CPU-Erweiterung „SuperCPU“, mit der man den C=64 mit bis zu 20MHz ausstatten konnte.

GEOS wurde stets dahingehend weiterentwickelt, auch diese neue Hardware zu unterstützen. Uns zwar aus gutem Grund: es mag zwar erstaunlich sein, was das System aus einem Standard-C=64 herausholt, doch die oft langen Ladezeiten von der Floppy waren extrem störend. Die Beschränkungen mussten ohnehin schon mit einer ganzen Reihe an Tricks umgangen werden – beispielsweise war das ganze System auf zwei Floppy-Disks verteilt, die man während dem Betrieb gelegentlich wechseln musste. Erst mit einer Speichererweiterung konnten nennenswert Daten gecached werden, was langsame Disketten-Zugriffe vermied. In Verbindung mit diesen Speichererweiterungen bot GEOS außerdem die Möglichkeit, Ramdisks anzulegen.

Was nicht bzw. nur eingeschränkt möglich war, ist Multi-Tasking. Der Grund dafür ist wohl in der Hardware zu suchen, die dafür schlichtweg nicht ausgereicht hätte. Einige kleine Tools bildeten dabei aber eine Ausnahme: Taschenrechner, Notizblock und Ähnliches konnten ab der Version 2.0 aus den meisten Anwendungen heraus kurzzeitig aufgerufen werden, ohne das ursprüngliche Programm zu beenden.

Einen großer Schritt nach Vorne war zumindest aus technischer Sicht die 1993 nur in Deutschland (von Markt&Technik) veröffentlichte Version 2.5: der Dateimanager „deskTop“ wurde durch „TopDesk“ ersetzt, der deutlich am Konzept der Fenster feilte: bis zu vier Fenster waren ab dann möglich, und diese auch vergrößerbar und verschiebbar. Außerdem wurden erstmals Unterverzeichnisse unterstützt – wenn auch auf eine recht kuriose Weise, die zu keinem anderen System kompatibel war. Auch TopDesk wird noch weiterentwickelt, und unterstützt (über einige Hardware-Tricksereien) auch aktuellere Geräte wie CD-ROMS, und ist inzwischen sogar farbig. Insbesondere in den letzten zehn Jahren haben sich die Weiterentwicklungen allerdings sehr stark aufgesplittet. Neben der genannten deutschen Version 2.5 (die im Kern eigentlich ein reguläres 2.0 war, das um einige Programme wie das eben genannte TopDesk aufpoliert war) gibt es mehrere parallele, voneinander unabhängige Weiterentwicklungen. Creative Micro Designs veröffentlichte 1996 die Erweiterung „gateWay“ (u.a. 2-Prozess-Multitasking) für den C=64/128, 1998 folgte „Wheels“ von Maurice Randall (Unterstützung für SuperCPU-Beschleunigung), 1999 kam von MegaCom das Upgrade „MP3“. Daneben wurde auch noch versucht, GEOS auf andere Hardwareplatformen zu portieren und dort weiterzuentwickeln. Neben einer Portierung für den Macintosh ist vor allem „PC-Geos“ erwähnenswert, das für den PC entwickelt wurde, und unter DOS lief. Die Tatsache, dass es den damaligen Windows-Versionen sogar überlegen war, hat freilich nicht genügt, um langfristig auf dem „feindlichen Boden“ MS-DOS zu bestehen. Dafür war ihm auf diversen mobilen Geräten ein etwas länger währender Erfolg beschert. Das ursprüngliche GEOS C=64 Version 2.0 ist seit einem knappen Jahr (Februar 2004) sogar kostenlos verfügbar – wenn auch weiterhin als proprietäre Software.

GEOS Screenshot 1

War GEOS für den C=64 nun ein Durchbruch oder gar eine „Revolution“, wie es von Fans manchmal betitelt wird? Nein, eher nicht. Man könnte es als ein „technisches Wunder“ bezeichnen, was GEOS auf den begrenzten Hardwarevoraussetzungen herausholte – eine Sparsamkeit, die man schon wenig später nur noch selten antraf. Trotzdem reichte dies in der Praxis nicht aus, um wirklich produktiv mit GEOS zu arbeiten, zumindest nicht auf dem handelsüblichen C=64/128. Insbesondere die langen Wartezeiten beim Laden von Floppy auch nach dem Start machten das Arbeiten zur Geduldsprobe. Noch ein weiteres Problem ergab sich aus den Floppys, in Verbindung mit der damals noch viel größeren Raubkopier-Problematik: Berkeley Softworks schaffte das Kunststück, die Floppys mit einem Kopierschutz auszustatten, der wirklich viele Jahre nicht geknackt wurde. Da die Datenträger aber wie alle anderen Floppys des C=64 extrem fehleranfällig waren, bedeutete dies trotz einer (ebenfalls anfälligen) beigelegten Sicherheitskopie, dass man schnell in der Situation war, das System nicht mehr booten zu können. Zwar gab es Umtauschmöglichkeiten, aber letztlich bedeutete die nicht vorhandene Möglichkeit, sich selbst Sicherheitskopien anlegen zu können, eine ständige Quelle für Unannehmlichkeiten und Ärgernisse. Konzeptionell bot GEOS auch wenig Neues; man orientierte sich eben sehr stark an MacOS. Insofern war GEOS nicht der große Durchbruch grafischer Oberflächen auf dem Massenmarkt, bot aber zumindest vielen, die sich damals keinen Mac leisten konnten, ein frühes Bild davon, was viel später dann wirklich große Verbreitung fand.

 

 

Quellen:

Das Elaboration Likelihood Model

Arbeit in „Theorien und Modelle in der Kommunikationswissenschaft“, SS 2003

Übersicht

Das „Elaboration Likelihood Model“ (ELM) von Richard Petty und John T. Cacioppo (1981) beschreibt den Prozess einer möglichen Meinungsänderung in Folge einer persuasiven Botschaft und ist bis heute eines der anerkanntesten Modelle auf dem Gebiet der Medien-Wirkungsforschung.

Im Kern geht es davon aus, dass es zwei unterschiedliche Arten der Verarbeitung einer persuasiven Botschaft gibt. In der „zentralen Route“ findet eine eingehende Auseinandersetzung mit den Argumenten der Botschaft statt, der Rezipient macht sich ein differenziertes Bild der Sachlage. In der „peripheren Route“ dagegen findet nur eine sehr oberflächliche Beschäftigung mit den Inhalten statt, man kommt eher an Hand von äußerlichen Merkmalen zu seiner Meinung.

Das ELM beschreibt nicht nur diese beiden „Routen“, sondern auch die Voraussetzungen, die zum Beschreiten der jeweiligen Route gegeben sein müssen und welche Faktoren dies beeinflussen. Außerdem wird gezeigt, welche Eigenschaften der Nachricht sich in Abhängigkeit von der beschrittenen Route aus welche Weise auf den Persuasionsprozess auswirken – es kommt durchaus vor, dass sich eine Eigenschaft bei peripherer Verarbeitung positiv, bei elaborierter Verarbeitung aber negativ auswirken kann.

In dieser Arbeit soll zunächst der Begriff des Involvements geärt werden, der eines der zentralen Konzepte des Elaboration Likelihood Modells ist. Es folgt eine genauere Beschreibung des Modells selbst, wobei zuerst die beiden Arten der Informationsverarbeitungen charakterisiert werden. Anschließend wird erläutert, welche Voraussetzungen es für die elaborierte Auseinandersetzung gibt und welche Faktoren diese begünstigen können. Eine kurze Kritik über das Modell, ein Ausblick auf die Zukunft und die knappe Vorstellung einer aktuellen Studie, die auf dem ELM basiert, sollen diese Arbeit abrunden.

Involvement

Involvement – zu deutsch die „Beteiligung“, die „Eingebundenheit“ – ist kein für sich stehendes Modell in der Kommunikationsforschung, sondern ein Konzept, das von Modellen einbezogen wird um unterschiedliche Informationsverarbeitungsprozesse beim Rezipienten auszudifferenzieren. Es wird zwischen hohem und niedrigem Involvement unterschieden – ersteres ist im ELM für eine intensive Auseinandersetzung mit der Medienbotschaft förderlich, letztere hinderlich. Obwohl oder gerade weil dies so eingängig und alltäglich klingt, stellt das Involvement-Konzept die Forscher doch vor ein gewisses Problem: wie ist Involvement nun genau zu definieren, wie wird es in Versuchsreihen operationalisiert? Verschiedenen Forschungsrichtungen gehen dabei völlig unterschiedlich vor. Die wichtigsten Einsatzbereiche sind nach Schenk (2002, S. 265-267):

  • Involvement als Persönlichkeitsmerkmal: Personen mit „high involvement“ neigen grundsätzlich dazu, sich über Entscheidungen mehr Gedanken zu machen. Meist sind dies Personen mit höherem Bildungsgrad, die in ein größeres soziales Netzwerk eingebunden sind und intensiv die Medien nutzen. Analog hierzu ist die Wissenskluftforschung zu sehen, die ebenfalls davon ausgeht, dass es Personen gibt, die stärker von Medien Gebrauch machen als andere und daher auch mehr Vorteile aus dem gestiegenen Medienangebot ziehen.
  • Involvement als Stimulus-Eigenschaft: Diese Interpretation findet vor allem im Marketing Einsatz. Involvement bezieht sich hier nicht auf den Rezipienten, sondern auf das beworbene Produkt. Stark involvierende Produkte sind demnach solche, die von sich aus den Käufer dazu ermutigen, sich vor der Kaufentscheidung erst einmal genauer Gedanken darüber zu machen. Dies ist meist dann der Fall, wenn der Erwerb ein hohes finanzielles oder soziales Risiko darstellt oder das Produkt einen gewissen Identifikationscharakter besitzt. Bei hoch involvierenden Produkten wie z.B. Autos oder Computern muss die Werbung also auch mehr auf diese gedankliche Auseinandersetzung abzielen als z.B. für normale Haushaltswaren (low involvement products).
  • Involvement als individuell interner Zustand: Damit wird das Einnehmen eines bestimmten Standpunktes und das Vorhandensein bestimmter Assoziationen bezeichnet. Beim Einsatz im Marketing wird von hohem Involvement oft schon dann gesprochen, wenn gewisse Produkt- und Marken-Assoziationen überhaupt vorhanden sind. Sherif et al. verwendeten das Konzept des Ego-Involvements, nach dem hohes Involvement erst dann gegeben ist, wenn ein Standpunkt mit einer gewissen Intensität vertreten wird – das Einnehmen alleine genügt noch nicht (Sherif, 1967, S. 133). Hier geht es aber meist weniger um Produkte und Marken, sondern um allgemeine Einstellungen und Werte. Hohes Ego-Involvement äußert sich darin, dass neue Informationen und Argumente schneller abgewiesen werden, wogegen man bei niedrigem Ego-Involvement eine höhere Toleranz gegenüber abweichenden Argumenten besitzt (Sherif et al., 1965, S. 234). Das persönliche Interesse an einem Thema wird oft als Operationalisierung von Ego-Involvement verwendet, auch wenn dies nicht ganz zutreffend ist: hohes Interesse bedeutet nicht unbedingt eine intensive Einnahme eines Standpunktes.
  • Involvement als Stimulus Salience: Involvement wird hier als persönlich empfundene Wichtigkeit eines Objekts bzw. eines Sachverhalts interpretiert. Entscheidend ist nicht unbedingt, ob es wichtig ist, sondern ob es so empfunden wird. Es ist z.B. bei einem Studenten beim Thema Studiengebühren davon auszugehen, dass höheres Involvement anzutreffen ist, wenn auch die eigene Universität betroffen ist. Diese Definition des Involvements ist für die weitere Betrachtung des ELMs die wichtigste; Petty und Cacioppo legten ihren Betrachtungen ebenfalls diese Operationalisierung zu Grunde.

Diese Definitionen sind natürlich nicht die einzigen, zumindest aber mit die am häufigst verwendeten.

Unterschieden wird beispielsweise noch zwischen Personen mit emotions- und mit erkenntnisbezogenem Involvement; erstere können durch emotionale Ansprache zwar langsamer, dafür aber tendenziell stabiler beeinflusst werden, durch kognitive Ansprache etwas schneller aber weniger stabil – bei Personen mit erkenntnisbezogenem Involvement ist dies natürlich genau anders herum (FOCUS-Lexikon: Elaboration Likelihood Model).

Auch herrscht noch keine Einigkeit darüber, ob bei Involvement von einem Zustand auszugehen ist oder von einem kontinuierlichen Prozess.

Das Involvement-Konzept hat also sehr verschiedene Operationalisierungen erfahren, und auch wenn diese Unschärfe gelegentlich kritisiert wird, gewährleistet vermutlich gerade das die breite Anwendbarkeit.

Das Elaboration Likelihood Modell

Zentrale Route, Periphere Route

Das ELM versteht unter der Zentralen Route die elaborierte Informationsverarbeitung, bei der sich der Rezipient intensiv mit einer Information, i.a. einer Medienbotschaft, auseinandersetzt. Er prüft die enthaltenen Argumente, erinnert sich an andere Argumente, zieht selbst Schlussfolgerungen und macht sich ein differenziertes Bild von der Sachlage. Am Ende kann eine Einstellungsänderung seitens des Rezipienten erfolgen, muss aber natürlich auch nicht. Sollte eine solche erfolgen, ist diese also nicht direkt durch die Medienbotschaft selbst entstanden, sondern durch das gedankliche Auseinandersetzen mit ihr. Dem Rezipienten wird ein hohes Maß an Eigenaktivität zugesprochen. In der zentralen Route geht das ELM also von ähnlichen Voraussetzungen aus wie sein Vorgängermodell der „Cognitive Responses“ (Schenk, 2002, S. 253-254).

Das ELM erweitert den Informationsverarbeitungsprozess aber noch um die „Periphere Route“, bei der keine elaborierte Verarbeitung stattfindet, sondern lediglich äußerliche Reize ausgewertet werden, die nicht mit dem eigentlichen Thema zu tun haben. Auch dieser Weg kann allerdings zu einer Meinungsänderung führen. Dass es diese zweite Art der Verarbeitung gibt, klingt nur allzu einleuchtend: da eine elaborierte Auseinandersetzung mit Informationen einen nicht unerheblichen geistigen Aufwand bedeutet und wir täglich mit einer nahezu unüberschaubaren Fülle an Informationen konfrontiert sind, ist es durchaus sinnvoll, sich in weniger relevanten Fällen (low involvement) gewisser Heuristiken zu bedienen. Eine periphere Verarbeitung bedarf, anders als eine zentrale, keines großen Vorwissens, keiner großer Anstrengung und Motivation. Da die eventuell daraus entstehende Meinungsänderung allerdings nicht auf wirklicher Auseinandersetzung mit den Inhalten basiert, ist sie aber auch gegenüber späteren Beeinflussungen wenig resistent. Meinungsänderungen in Folge elaborierter Auseinandersetzung mit dem Thema kommen nur deutlich langsamer und schwerer zu Stande, sind aber in das persönliche Geflecht aus Einstellungen, Normen und Werten integriert und weisen daher eine hohe Widerstandskraft auf und sind dauerhaft.

Zentrale Route: objektiv oder voreingenommen?

Wenn man von der zentralen Route spricht und dabei von elaborierter Auseinandersetzung mit dem Thema die Rede ist, meint man dabei meistens implizit, dass dies auch objektiv geschieht. Das muss allerdings nicht zwingend so sein. Das ELM lässt durchaus auch eine voreingenommene Informationsverarbeitung („biased processing“) zu (Lien, 2000, S. 301-302). In diesem Fall geht man sehr stark subjektiv an die Argumentation heran – wohl gesonnene Argumente werden als wichtiger empfunden, Gegenargumente abgeschwächt oder umgedeutet.

Voreingenomme Informationsverarbeitung tritt meist dann auf, wenn die betreffende Person zum diskutierten Thema bereits vor dem Kontakt mit der persuasiven Botschaft intensiv einen bestimmten Standpunkt einnimmt und nicht gewillt ist, diesen aufzugeben.

Auch wenn man über die persuasive Absicht des Kommunikators gewarnt wurde und ggf. seine Argumente bereits kennt, neigt man dazu, die Sache weniger objektiv anzugehen. Insbesondere neigt man zur Gegenargumentation, wenn man sich vom Kommunikator in eine bestimmte Richtung gedrängt fühlt, dieser einem scheinbar gar keine Wahl lassen will, ob man seinen Standpunkt einnimmt oder nicht.

Letztlich kann es besonders bei Reden auch zur voreingenommen Informationsverarbeitung kommen, wenn kritische Kommentare aus dem Publikum kommen, auf die der Redner nicht souverän reagiert.

Auch wenn bei dieser Herangehensweise der Versuch, die eigentliche Aussage der Botschaft zu erfassen stark in den Hintergrund gedrängt wird, handelt es sich doch um die zentrale Route. Diese behauptet ja nicht, dass man durch die elaborierte Auseinandersetzung mit der Botschaft automatisch auch zu dem richtigen Ergebnis kommt (das „richtige“ Ergebnis würde wegen unterschiedlicher persönlicher Gewichtung der Argumente ohnehin von Person zu Person anders aussehen). Entscheidend ist, dass man sich mit den Argumenten auseinandersetzt (Frey, Stahlberg, 1993, S. 327-260).

Voraussetzungen zum Elaborieren

Damit man sich auf der zentralen Route mit einem Thema beschäftigt, muss zum einen die Motivation dafür vorhanden sein, zum anderen aber auch die persönliche Fähigkeit dazu.

Die Motivation zur Elaboration wird maßgeblich vom Involvement bestimmt, insbesondere also der Eindruck der persönlichen Relevanz des Themas. Dieser Eindruck kann durch äußere Reize verstärkt werden. Beispielsweise kann er bereits dadurch erhöht werden, dass in die zweite Person („Du“) gewechselt wird, der Rezipient also direkt angesprochen wird. In der Werbung wird versucht, die Auseinandersetzung mit den Werbebotschaften dadurch zu fördern, dass Bezüge zum Rezipienten hergestellt werden1. Außerdem steigt die Motivation, sich mit einem Thema auseinander zu setzen, wenn die Anzahl der Quellen, die selbiges thematisieren, hoch ist (Littlejohn, 2002). Auch haben Menschen einen unterschiedlich hohen Bedarf nach Kognitionen (Eckert, 1997, S. 606) – dies wirkt sich natürlich unmittelbar auf die Motivation aus. Die Motivation, sich elaboriert ein Urteil über etwas zu bilden, sinkt, wenn man selbst davon betroffen ist – z.B. wenn es ein Urteil über eine Gruppe zu bilden gilt, der man selbst angehört.

Neben der Motivation müssen natürlich auch die persönlichen kognitiven Fähigkeiten dazu vorhanden sein, um sich elaboriert mit einem Thema befassen zu können. Besonders wichtig ist das Vorwissen, das die jeweilige Person zum Thema mitbringt und auf das er auch aktiv zugreifen kann. Littlejohn veranschaulicht das sehr schön (Littlejohn, 2002, S. 133): „Most students would be more critical of a speech on fashion trends than one on quarks and electrons“ (etwa: „Die meisten Schüler werden einen Vortrag über Modetrends kritischer beurteilen als einen über Quarks und Elektronen.“)

Es gibt noch weitere Faktoren, die die Wahrscheinlichkeit des Elaborierens beeinflussen, die sich grob in Nachrichten- und Rezipientenfaktoren unterteilen lassen.

Auf der Seite der Botschaft können Wiederholungen der Kernaussagen und damit verbunden ein angemessenes Tempo der Informationsaufnahme das Verstehen begünstigen. Insbesondere bei komplexen Themen und einer weniger informierten Zielgruppe ist es wichtig, Argumente zu wiederholen und das Tempo nicht zu hoch zu wählen. Das ist ein Balanceakt: bei zu häufiger Wiederholung oder zu langsamen Tempo entstehen „Ware-Out“-Effekte, Langeweile. Wird ein Argument zu oft gebracht, kann sich der Rezipient gar gedrängt fühlen – voreingenommene Elaboration bzw. verstärkte Gegenargumentation sind das Ergebnis. Ebenso verhält es sich mit der Frage, ob man Schlussfolgerungen explizit ziehen sollte – ist davon auszugehen, dass der Rezipient in der Lage ist, dies selbst zu tun, ist es effektiver, ihn das auch zu lassen; wenn nicht, sollten Schlussfolgerungen explizit gezogen werden.

Auch die Art des Mediums, in dem die Botschaft vorzufinden ist, können die Wahrscheinlichkeit des Elaborierens erhöhen oder senken. Generell fördern Zeitungen bzw. Zeitschriften die elaborierte Informationsverarbeitung, das Fernsehen dagegen ist ein nahezu ausschließlich peripheres Medium. Das Internet gehört zu den eher kognitiven Medien, das Radio liegt irgendwo in der Mitte, aber mit Tendenz richtung peripher. Dies wird durch den bereits erwähnten Geschwindigkeits-Faktor verstärkt: Bei Print- und Onlinemedien kann sich jeder Rezipient das Tempo der Informationsaufnahme selbst vorgeben, wohingegen man sich bei TV und Radio nach den Vorgaben des Mediums richten muss (Schenk, 2002, S. 260).

Hohe Glaubwürdigkeit der Quelle und Expertenmeinungen können bei mittelhohem Involvement zum Elaborieren anregen (Schenk, 2002, S. 260-261).

Auf der Seite des Rezipienten sind es in erster Linie Faktoren, die die momentane Befindlichkeit des Rezipienten betreffen. Besondere Beachtung gilt dabei Untersuchungen, inwieweit die Wahrscheinlichkeit des Elaborierens von der Stimmung abhängt. Allgemein wird davon ausgegangen, dass eine gute Stimmung eine elaborierte Auseinandersetzung mit dem Thema eher behindert (Batra, Stayman, 1990). Unter manchen Umständen kann sie aber wiederum förderlich sein, z.B. wenn der Rezipient davon ausgehen kann, dass die gute Stimmung dadurch nicht beeinträchtigt wird (Wegener et al, 1995). Gerade dieser Punkt scheint noch genauerer Forschung und Systematisierung zu bedürfen.

Befindet man sich in einem Stadium starker Erregung, neigt man zu peripherer Informationsverarbeitung, eine elaborierte Auseinandersetzung wird also eher behindert (Lien, 2000, S. 303). Dass es die elaborierten Informationsverarbeitung außerdem behindert, wenn man von der „Außenwelt“ abgelenkt wird, dürfte klar sein.

Daneben hat auch die Körperhaltung einen Einfluss auf die Wahrscheinlichkeit des Elaborierens: Liegt oder sitzt man bequem, fällt es einem leichter, sich intensiv mit einem Thema zu beschäftigen, als wenn man steht oder geht (Petty, 1983, S. 209-222).

Die Persuasion

Das Elaboration Likelihood Modell besagt nicht nur, dass es zwei Routen in der Informationsverarbeitung gibt und welche Route wann eingeschlagen wird, sondern trifft auch Aussagen darüber, wie die Persuasionskraft von Botschaften davon beeinflusst wird, welche Route eingeschlagen wird.

Verschiedenste Faktoren haben einen Einfluss darauf, wie überzeugend eine Botschaft auf einen Rezipienten wirkt. Eine Betrachtung, die eine möglichst vollständige Liste dieser Faktoren anstrebt, würde diesen Rahmen natürlich sprengen. Interessant in Hinblick auf das ELM sind inbesondere jene Faktoren, die sich bei zentraler und peripherer Verarbeitung unterschiedlich auswirken.

Der komplette Bereich der äußeren Reize spielt wie bereits erwähnt nahezu exklusiv in der peripheren Route eine Rolle. Dazu gehören Punkte wie schöne Bilder, Musik, Kameraperspektive und dergleichen mehr (Lien, 2000, S. 304-304).

Auch „Aufwärtsvergleiche“ werden zu den peripheren Reizen gezählt. Von Aufwätsvergleichen ist z.B. die Rede, wenn die Tatsache, dass eine bereits bekannte Person einen bestimmten Standpunkt einnimmt bzw. ein Produkt verwendet, als Argument für diesen Standpunkt bzw. dieses Produkt verwendet wird (Schenk, 2002, S. 261). Dies muss sich natürlich nicht nur auf Personen beziehen.

Die Anzahl der Argumente kann unterschiedliche Auswirkungen auf die Persuasionskraft haben. Wird die Botschaft rein peripher ausgewertet, zählt die reine Anzahl als Reiz. Da keine genauere Auseinandersetzung mit den einzelnen Argumenten erfolgt, spielt es folglich auch keine Rolle, ob es sich dabei um starke oder schwache Argumente handelt – die reine Masse zählt. Wird die Botschaft dagegen elaboriert verarbeitet, kann es dagegen sogar kontraproduktiv sein, wenn um jeden Preis möglichst viele Argumente unabhängig von deren Qualität untergebracht werden – hat man starke Argumente, sollte sich die Botschaft auf diese konzentrieren, die Überzeugungskraft sinkt eher, wenn diese mit schwachen Argumenten „verwässert“ werden (Schenk, 2002, S. 261).

Der selbe Sachverhalt hat natürlich auch eine Wirkung auf die Überzeugungskraft der einzelnen Argumente an sich: während auf der peripheren Route praktisch jedes Argument etwa gleich viel, mäßig viel, zur Überzeugung beiträgt, haben bei der zentralen Route starke Argumente naturgemäß mehr Wirkung als schwache. Botschaften mit eher schwachen Argumenten wirken in der zentralen Route also eher weniger überzeugend, während bei Botschaften mit viel starken Argumenten bei Verarbeitung in der zentralen Route sogar eine höhere Persuasionsrate entstehen kann als bei peripherer Verarbeitung (die anfängliche Aussage, Meinungsänderungen durch die zentrale Route kämen nur viel langsamer und schwerer zu Stande, ist dahingehend zu relativieren) (Schenk, 2002, S. 257-258).

Verfasst man eine persuasive Botschaft, ist auch bei der Entscheidung, ob die Argumentation einseitig gehalten werden oder Pro- und Kontraargumente berücksichtigen soll, zu beachten, ob eher die periphere oder die zentrale Route angesprochen werden soll. Bei elaborierter Verarbeitung erhöht zweiseitige Argumentation die Glaubwürdigkeit der Botschaft, wirkt sich also positiv auf die Überzeugungskraft der Botschaft aus. Bei peripherer Verarbeitung kann die Einbeziehung von Gegenargumenten der Gesamtwirkung eher abträglich sein. Dieser Punkt zeigt sehr schön, wie auch frühere Ergebnisse der Persuasionsforschung mit dem ELM interpretieren lassen: ähnliche Befunde gab es bereits in den Yale Studies (Hovland et al., 1949).

Quellenfaktoren, insbesondere die Glaubwürdigkeit der Quelle sind hauptsächlich periphere Reize. Ist die Quelle glaubwürdig, steigt bei peripherer Verarbeitung die Überzeugungskraft der Botschaft, bei elaborierter Verarbeitung bleibt sie dagegen nahezu unverändert (Schenk, 2002, S. 260-261).

Die Stimmung, in der sich der Rezipient gerade befindet, hat ebenfalls einen nicht unwesentlichen Einfluss darauf, wie eine Botschaft auf ihn wirkt. In der peripheren Route ist die Stimmung ein äußerer Reiz – positive Stimmung wirkt sich unmittelbar in eine positivere Einstellung dem Thema bzw. dem Produkt gegenüber aus. Aber auch bei elaborierter Auseinandersetzung kann sich eine positive Stimmung auswirken: (unabhängig von der bereits erwähnten Tatsache, dass eine sehr positive Stimmung das Elaborieren eher unwahrscheinlicher macht) die Stimmung beeinflusst die Gedanken, die man sich zum Thema macht, so dass man in diesem Fall eher zu positiven Gedanken neigt und damit auch das Gesamturteil etwas positiver ausfallen dürfte – die Stimmung wirkt dann also nur indirekt auf die Überzeugungskraft.

Das ELM – visualisiert

Visualisierung des Elaboration-Likelihood-Modells

Elaboration Likelihood-Modell nach PETTY, R.E., J.T. CACIOPPO, 1986, S.4
Grafik aus Schenk, M. (2002). Medienwirkungsforschung (S. 255). Tübingen: J.C.B. Mohr
Kleine Änderungen zur Vermeidung von Missverständnissen vorgenommen
(Verschiebung eines falsch gesetzten Pfeils)

Das dargestellte Modell soll die Grundkonzepte des ELM nocheinmal visualisieren. Die linke Spalte stellt die zentrale Route dar, die rechte die periphere. Das Flussdiagramm macht deutlich, dass zu einer elaborierten Auseinandersetzung sowohl die Motivation, als auch die Fähigkeit zur Verarbeitung vorhanden sein muss. Nur wenn beides vorhanden ist, die Botschaft entweder überwiegend positive oder negative Kognitionen hervorruft und diese letztlich auch in die persönliche kognitive Struktur integriert wird, kann eine dauerhafte Einstellungsänderung erfolgen. Ansonsten ist bestenfalls eine kurzfristige Meinungsänderung auf der peripheren Route möglich. Diese jeweilige Meinungsänderung muss natürlich nicht unbedingt im Sinne der persuasiven Botschaft sein – auch der Boomerang-Effekt, das Einnehmen einer der Botschaft entgegengesetzten Haltung, ist möglich.

Fazit

Nach über 20 Jahren zählt das Elaboration Likelihood Modell nach wie vor zu den verbreitetsten seiner Art. Das Grundkonzept des ELM, die Unterscheidung zwischen elaborierter und peripherer Informationsverarbeitung, hat allgemeine Anerkennung gefunden. Noch nicht geklärt ist allerdings, ob diese beiden Routen tatsächlich so unabhängig voneinander existieren, wie dies im ELM beschrieben wird (die Verfasser relativierten diese strikte Trennung ohnehin recht schnell wieder). Wahrscheinlicher ist, dass beide Routen in gewissem Sinne gleichzeitig eingeschlagen werden, oder sich zumindest regelmäßig abwechseln, wie dies z.B. im Modell der Heuristisch-Systematischen Informationsverarbeitung der Fall ist. Wie dies genau erfolgt, wird sicherlich noch Stoff zukünftiger Forschungen sein.

Interessant ist, dass das ELM weniger versucht, das Ergebnis persuasiver Kommunikation zu beschreiben, sondern vielmehr den Prozess, der dazu führt. Diese prozessorientierte Herangehensweise deckt sich auch mit vielen anderen Forschungen der aktuellen Werbeforschung.

Das ELM wurde viel verwendet, um Effekte der Werbung und des Marketings zu erklären und hat darin gute Dienste geleistet: es stellt eine gute Basis für Betrachtungen dar, ist im Kern einfach zu verstehen und auch erweiterbar. Neben der Werbung ist es auch für viele andere Bereiche der Kommunikationsforschung anwendbar.

Als Beispiel dafür, wie das ELM heutzutage angewendet wird, sei die Studie „eELM: A Replication and Refinement of the Elaboration Likelihood Model for Computer mediated environments“ (Hershberger, 2002), die zu den jüngsten Anwendungen des ELMs gehört. Untersucht wird die Werbewirkung im Internet. Das ELM wird um mehrere Faktoren erweitert, insbesondere um „Erfahrung mit dem Netz“ („web experts“ zeigen sich resistenter gegenüber peripheren Reizen bei Bannerwerbung), und „Vertrauen ins Netz“ (differenziert in Vertrauen in andere Benutzer, in Organisationen und in die Technik) und der Einfluss verschiedener Eigenschaften von Bannerwerbung auf den Persuasionsprozess untersucht (neben Attributen wie Farbe, Animation und Informationsgehalt auch Kontexteigenschaften wie die Einstellung des Rezipienten zur Website, auf der das Banner platziert ist). Dieses Beispiel soll verdeutlichen, wie das ELM ohne Probleme erweitert und spezialisiert werden kann, um weitere Formen der Werbewirkung zu untersuchen.

In vielen Bereichen sind aber noch weitere Forschungen notwendig. Als Beispiel sei nur der Einfluss der Stimmung auf den Persuasionsprozess genannt. Auch die Abhängigkeiten der einzelnen Faktoren untereinander sind noch nicht völlig erkundet.

Literaturverzeichnis

  • Batra, R., & Stayman, D. M. (1990). The role of mood in advertising effectiveness. Journal of Consumer Research, 17, 203-214.
  • Cacioppo J. & Petty R. (1986). Communication and persuasion. New York: Springer Verlag.
  • Cacioppo J. & Petty R. (1981). Attitudes and Persuasion: Classic and contemporary approaches. Dubuque, Iowa: Brows.
  • Donnerstag, J. (1996). Der engagierte Mediennutzer: Das Involvement-Konzept in der Massenkommunikationsforschung. München: R.Fischer.
  • Eckert, J.A. & Goldsby, T.J. (1997). Using the Elaboration Likelihood Model to Guide Customer Service-Based Segmentation. International Journal of Physical Distribution and Logistics Management, 27, 600-615
  • FOCUS-Lexikon für Mediaplanung Markt- und Mediaforschung, [Online]. Erhältlich: http://medialine.focus.de [1. Oktober 2003]
  • Frey, D., Stahlberg, D. (1993). Das Elaboration-Likelihood-Modell von Petty und Cacioppo. In Frey, D., Irle. M. (Hrsg.), Theorien der Sozialpsychologie Bd. I: Kognitive Theorien. Bern: Verlag Hans Huber
  • Hersherger, E.K. (2002). eELM: A Replication and Refinement of the Elaboration Likelihood Model for Computer Mediated Environments, [Online]. Erhältlich: http://ehershberger.tripod.com/papers/ hershbergerproposal.pdf [1. Oktober 2003].
  • Hovland, C. & Lumsdaine, A., & Sheffield, F. (1949). Experiments on Mass Communication. New Haven: Yale University Press
  • Lien, N. H. (2001). Elaboration Likelihood Model in Consumer Research: A Review, [Online]. Erhältlich: http://nr.stic.gov.tw/ejournal/ProceedingC/ v11n4/301-310.pdf [1. Oktober 2003]
  • Littlejohn, S.W. (2002). Theories of human communication. Stamford: Wadsworth Publishing.
  • Krishnamurthy, P., & Sujan, M. (1999). Retrospection versus anticipation: The role of ad under retrospective and anticipatory self-referencing. Journal of Consumer Research, 26, 55-69
  • Kunczik, M. & Zipfel, A. (2001). Publizistik. Köln: Böhlau.
  • Nebergall, R.E. & Sherif, C.W. & Sherif, M. (1965). Attitude and attitude change. Philadelphia: W. B. Sunders Company
  • Petty, R. E. & Wells, G. L. & Heesacker, M. & Brock, T. C., & Cacioppo, J. T. (1983). The effects of recipient posture on persuasion: A cognitive response analysis Personality and Social Psychology Bulletin, 9, 209-222
  • Richardson, E. (2002). Elaboration Likelihood Model, [Online]. Erhältlich: http://eworld.ericrichardson.com/verbal/elm [1. Oktober 2003]
  • Schenk, M. (2002). Medienwirkungsforschung. Tübingen: J.C.B. Mohr
  • Sherif, C.W. & Sherif, M. (1967). Attitude, Ego-Involvement, and Change. New York: John Wiley & Sons
  • Wegener, D. T. & Petty, R. E., & Smith, S. M. (1995). Positive mood can increase or decrease message scrutiny: The hedonic contingency view of mood and message processing. Journal of Personality and Social Psychology, 69, 5-15.