IN DEN KOPF GUCKEN

Die Stimmung im Netz kann mittlerweile mit automatisierten linguistischen Verfahren analysiert werden – fast in Echtzeit. Politiker und Unternehmen interessiert das brennend. ZEIT ONLINE und TAGESSPIEGEL. 28. Oktober 2012

Erst mal keine Überraschung: Barack Obamas Net Sentiment, also die Stimmung in den sozialen Netzwerken zu seinen Gunsten, betrugt während der drei TV-Duelle im Schnitt +11 Prozent, Mitt Romney schaffte insgesamt nur -8 Prozent. Beim republikanischen Herausforderer standen 2,3 Millionen negative Kommentare 1,9 positiven Erwähnungen gegenüber, beim Amtsinhaber waren es 2 Millionen positive versus 1,6 Millionen negative Äußerungen. Die „Passion Intensity“, also der Aufregfaktor Romneys lag bei 55. Obama, über den sich die Gemüter insgesamt weniger erhitzten, kam auf einen Wert von 35.

Was sind das für Zahlen und Bewertungen, wer erhebt sie, wie kommen sie zustande? Der Softwarekonzern SAP hat sie zur Verfügung gestellt, das dazugehörige „Sentiment Analysis Tool“ ist eigentlich ein Programm für Werbetreibende – und SAP einer von vielen Anbietern, die gerade damit auf den Markt drängen. Fast in Echtzeit lässt sich mit den neuen Tools auswerten, mit welchem Unterton im Internet über ein Thema, ein Produkt, ein Ereignis oder eine Person gesprochen wird. Bislang lassen viele Unternehmen das Raunen der Massen noch mit teils manuellen Verfahren analysieren, die komplett automatisierte Softwarelösung soll nun die nächste Generation des Social Media Monitorings einläuten. Kein Praktikant mehr nötig, der Facebook-Foren überfliegt oder Twitter nach abwegigen Hashtags durchstöbert.

Nicht nur das Sammeln der gigantischen Datensätze, auch das Lesen und Interpretieren übernimmt nun der Computer. „Beim letzten amerikanischen Wahlkampf vor vier Jahren konnten wir lediglich auswerten, was die Menschen angeklickt oder weiterempfohlen haben“, erklärt SAP-Manager Craig Downing. „Jetzt sind wir einen großen Schritt weiter: Wir können verstehen, was sie in ihren Kommentaren schreiben.“ Und zwar schon wenige Minuten, nachdem die Diskussion überhaupt stattgefunden hat.

Semantische Analyse heißt das Zauberwort – und die ist weitaus komplexer als das schlichte Zählen von Adjektiven oder Schimpfwörtern. „Ich kann sagen: ‚Das iPhone war noch nie so gut‘ oder ‚Das iPhone war noch nie gut‘“, erläutert Downing, „ein zusätzliches Wort – und der Inhalt der Aussage unterscheidet sich fundamental.“ Dazu kommen Slang oder Abkürzungen, grammatische Besonderheiten und mehrdeutige Modeworte wie „sick“ (das von „cool“ bis „abartig“ alles heißen kann).

Damit nicht genug. Die aus den Netz millionenfach zusammengeklaubten Mitteilungen müssen auch nach Relevanz gewichtet werden: Wer ist der Absender, wie einflussreich ist seine Meinung, wie oft wird sie gelesen, wie oft wird ihr widersprochen oder zugestimmt? Das Programm liest dazu – zum Teil im Sekundentakt – hunderte von Newsseiten, Blogs, sozialen Netzwerken aus, bezieht bei der Auswertung der Quellen Informationen wie Seitenaufrufe, geografischer Standort, den Klout-Score und das mutmaßliche Geschlecht des Absenders mit ein. Das Problem: Wie korrekt, verlässlich oder vollständig sind diese zusätzlichen Parameter?

„Aus wissenschaftlicher Sicht sind die Methoden vieler kommerzieller Anbieter intransparent und oft auch ungenau“, sagt Stefan Stieglitz, Professor für Wirtschaftsinformatik an der Universität Münster. Er betreut derzeit gleich zwei interdisziplinäre Forschungsprojekte zur Diskursanalyse und Themendynamiken in Social Media, eins davon finanziert das Bundesministerium für Bildung und Forschung, das andere die Deutsche Forschungsgemeinschaft. Zusammen mit Computerlinguisten und Kommunikationswissenschaftlern will Stieglitz in den kommenden Jahren die dringend nötige Grundlagenforschung betreiben. „Es geht darum, automatisierte Verfahren zu entwickeln, mit denen Meinungsfragmentierung und Konsensbildung im Netz abgebildet werden können.“ Die Sentiment-Analyse ist dabei nur ein methodischer Baustein, sie wird ergänzt von der sozialen Netzwerkanalyse (wie verbreiten sich Themen) und einer automatisierten Inhaltsanalyse (welche Schlagworte tauchen gemeinsam auf).

Für das aktuelle Image einzelner Produkte oder Politiker interessieren sich Stieglitz und seine Kollegen dabei weniger. Es geht eher darum, die komplexe Dynamik gesellschaftlicher Kommunikation sichtbar zu machen. Wie und warum entsteht ein Thema, welche Meinungslager gibt es, wo findet ein argumentativer Austausch statt, wie verändert sich die Stimmung im Laufe einer Debatte? Für demokratische Prozesse könnten solche Analysen durchaus fruchtbar sein: „Wenn man in Echtzeit Trends oder Themen identifizieren kann, die in den Sozialen Medien bereits unterschwellig vorhanden sind, wäre das auch eine Art politisches Frühwarnsystem“, so Stieglitz.

Um das Aufspüren von Themen und Tendenzen geht es auch bei dem mehrsprachig angelegten Forschungsprojekt „TrendMiner“, das Thierry Declerck vom Deutschen Forschungszentrum für Künstliche Intelligenz koordiniert und das die Europäische Union fördert. Mehrere europäische Universitäten sowie einige mittelständische Software-Unternehmen gehören zu den Kooperationspartnern. Der Focus von TrendMiner liegt auf politischen Debatten und Finanzmarktvorhersagen. Von der semantischen Auswertung von Newstickern und Tweets erhofft man sich beispielweise Erkenntnisse über die Wechselwirkungen von Netzmeinungen und Börsenschwankungen. „Viele Finanzanalysten nutzen Twitter“, erklärt Declerck. Künftig könnten die Äußerungen der Experten automatisch identifiziert und relativ schnell nach Inhalt, Relevanz und Einfluss klassifiziert werden.

„Ungleich komplizierter ist dagegen die Analyse von politischen Debatten über Landesgrenzen hinweg“, so Declerck. In die entsprechenden Datenbanken, auf die die Semantik-Software zurückgreift, müssen dazu nicht nur die Namen, Titel, Funktionen und Spitznamen einzelner Politiker hinterlegt sein. Auch die Bezeichnung bestimmter Ämter, die Strukturen von Staat und Parteien muss das Sprachprogramm kennen, um alle verfügbaren Kommentare auswerten und daraus möglicherweise Wahlprognosen ableiten zu können. Wie denken die Europäer in diesem Moment über Europa? Bis eine Software darauf eine differenzierte Antwort liefern kann, wird noch Zeit vergehen. „Abgesehen davon“, gibt Stefan Stieglitz zu Bedenken, „kommunizieren bei Weitem nicht alle User im Netz über politische Inhalte.“ Social Media Diskursanalysen bilden nur die Meinungen derer ab, die aktiv an Online-Debatten teilnehmen. Und das ist – gemessen an der Gesamtbevölkerung – eine kleine Minderheit.

Aber auch Minderheiten, so sieht man das bei SAP, können eine sehr werberelevante Zielgruppe ausmachen. „Für den Hersteller von Düngemittel ist es eine sehr interessante Information, ob Bauern einer bestimmten Region im Internet gerade über schlechte Ernten klagen“, sagt Craig Downing. Das Wissen über die aktuelle Stimmung beim Verbraucher erlaube das sofortige Nachjustieren des Angebots und der Marketingstrategie.
Erst neulich habe ein Kunde aus der Filmbranche dank Sentiment-Analyse mitbekommen, dass sein Actionfilm bei 18- bis 25-jährigen Männern zwar gut ankam, die dazugehörigen Freundinnen aber überhaupt keine Lust auf den Streifen hatten. Die Werbekampagne wurde umgehend geändert – und nun gezielt der romantische Plot des Films hervorgehoben. Und siehe da, auf einmal wollten die Frauen doch ins Kino.

Comments are closed.