Direkt zum Hauptbereich

Textanalyse - oder warum "Haus des Geldes" wirklich ein Drama ist

Die Netflix-Serie "Haus des Geldes", bzw "Money Heist" auf englisch, ist äußerst erfolgreich. Gerade wurde die vierte Staffel veröffentlicht; gute Gelegenheit für mich, meine neuen Skills zur Textanalyse anzuwenden. Ich benutze die Beschreibung auf Wikipedia zur vierten Staffel, um zu sehen, wie diese beschrieben wird. So viel auch schon vorab: man kann erkennen, dass es ein Drama ist. Der Einfachheit halber im Englischen und im unten stehenden Code unter dem Punkt #text in R direkt reinkopiert.

Achtung, für manche sind hier evtl. Spoiler dabei! ;)

Im nächsten Schritt (unter #creating a corpus) wird ein spezifisches Format für die Textanalyse erschaffen. Dieses Corpus-Format enthält den Text zusammen mit Metadaten. Zusammen mit den weiteren Schritten erhalten wir danach folgendes Format:
> corpus$content
[1] "part begins robbers rushing save nairobis life tokyo stages coup détat egocentric palermo walk bank restrained chair group help tokyo ..."
Hierbei ist zu beachten, dass ich die Stemming-Funktion deaktiviert habe; diese reduziert die Wörter auf ihren Wortstamm.

Im nächsten Schritt wird eine document-term matrix geschaffen, welche vor allem dann nützlich ist, wenn wir viele Texte haben - mit einem Dokument pro Reihe, einem Wort pro Spalte und einem Integer Wert zur Anzahl des spezifischen Worts in dem jeweiligen Dokument. Nun wie sieht es bei unserem Beispiel aus?
> findFreqTerms(dtm, lowfreq = 4) #words that occur at least n times
 [1] "bank"      "gandía"    "group"     "lisbon"    "palermo"   "panic"     "police"    "professor" "room"     
[10] "tokyo" 
Und die beiden Plot-Funktionen ergeben folgende Grafiken:

Klar, Wikipedia versucht vor allem die Staffel zu beschreiben. Aber ist auch eine Wertung dabei? Dies untersuchen wir im nächsten Schritt "Sentiment Analysis". Schauen wir uns erst das Ergebnis an:
> sent <- analyzeSentiment(dtm, language = "german")
> sent
  WordCount SentimentGI NegativityGI PositivityGI SentimentHE NegativityHE PositivityHE SentimentLM NegativityLM
1       219  0.00913242   0.03652968    0.0456621           0            0            0 -0.03196347   0.03196347
  PositivityLM RatioUncertaintyLM SentimentQDAP NegativityQDAP PositivityQDAP
1            0                  0    0.00456621     0.02283105     0.02739726
Wir sehen hier die jeweils ein Gesamtergebnis und den Positiv- und Negativ-Score zu vier verschiedenen Methoden. Uns interessiert nur der jeweilige Gesamt Score. Zum Beispiel beim GI-Wert wird das Harvard-IV dictionary benutzt welches Wörter beinhaltet die mit positiver oder negativer Stimmung verbunden werden. Weitere Dictionaries sind das Henry´s Financial Dictionary, das Loughran-McDonald Financial dictionary und das QDAP dictionary. Die Ansätze können recherchiert werden; im Endeffekt wird bestimmten Wörtern ein Wert zugeschrieben und ein Gesamtwert von -1 (schlecht) zu +1 (positiv) berechnet.

Das Ergebnis zeigt, dass von den vier hinterlegten Methoden zwei leicht positiv, eines leicht negativ und eines gar keinen Score erbringt. In diesem Fall kann auch das "kein Score" als ein Ergebnis gewertet werden - und zwar als neutral. Insgesamt aber tatsächlich ein eher negatives Ergebnis - was auf die Handlungen in der Staffel zurückgeführt werden kann. Es ist ja auch ein Drama! Wäre der Text eine Kritik, so könnten wir noch mehr aus dem Sentiment-Score lesen.
> head(sentiment)
  SentimentGI SentimentHE SentimentLM SentimentQDAP WordCount mean_sentiment
1  0.00913242           0 -0.03196347    0.00456621       219    -0.00456621
> convertToDirection(sentiment$mean_sentiment) #convert to direction
[1] negative
Levels: negative neutral positive

Und wie sieht es mit den Emotionen aus? Das syuzhet package benutzt hierfür das sogenannte NRC emotion lexicon, welches Wörter mit bestimmten Emotionen assoziiert. Die dokumentierte Plot-Funktion liefert folgendes Schaubild:
Tatsächlich, es scheint ein Drama zu sein, welches eine ganze Reihe an Emotionen im Hörer hervorrufen soll. Dies wäre hiermit zumindest methodisch hinterlegt.

Interessant wäre es nun, z.B. Staffel 4 mit Staffel 3 zu vergleichen. Hierfür gehen wir noch einmal zurück zu der Wordcloud-Funktion. Im Code zu sehen, können wir einmal eine Comparison und eine Commonality Cloud anfertigen und die Unterschiede bzw. Gemeinsamkeiten identifizieren. Hier die Ergebnisse:
Das Ergebnis dieser Comparison Cloud zeigt, dass z.B. das Wort "Helikopter" öfters bei Staffel 4 als bei Staffel 3 vorkommt. Dies deckt sich tatsächlich mit der Serie. Und bei der folgenden Commonality Cloud ist klar, dass z.B. der "Professor" eines der verbindenen Wörter ist.
Anbei noch der benutzte Code in RStudio:
library("tm")
library("SentimentAnalysis")
library("syuzhet")
library("SnowballC")
library("wordcloud")
library("ggplot2")
library("tibble")

# TEXT
text <- c("Part 4 begins with the robbers rushing ...")

# CREATING A CORPUS (format for storing textual data for analysis)
corpus <- Corpus(VectorSource(text))
toSpace <- content_transformer(function (x , pattern ) gsub(pattern, " ", x)) # text clean ing
corpus <- tm_map(corpus, toSpace, "/") # text cleaning
corpus <- tm_map(corpus, toSpace, "€") # text cleaning
corpus <- tm_map(corpus, toSpace, "@") # text cleaning
corpus <- tm_map(corpus, toSpace, "\\|") # text cleaning
corpus <- tm_map(corpus, content_transformer(tolower)) # Convert the text to lower case
corpus <- tm_map(corpus, removeNumbers) # Remove numbers
corpus <- tm_map(corpus, removeWords, stopwords("english")) # Remove common stopwords
corpus <- tm_map(corpus, removeWords, c("blabla1", "blabla2"))  # Remove own stop words by specifying them as a character vector
corpus <- tm_map(corpus, removePunctuation) # Remove punctuations
corpus <- tm_map(corpus, stripWhitespace) # Eliminate extra white spaces
#corpus <- tm_map(corpus, stemDocument) # stemming (collapsing words to a common root)
corpus$content

#CREATING A DOCUMENT-TERM MATRIX (DTM)
dtm <- TermDocumentMatrix(corpus)
inspect(dtm)

# ANALYSIS ON FREQUENCY
m <- as.matrix(dtm)
v <- sort(rowSums(m),decreasing=TRUE)
d <- data.frame(word = names(v),freq=v)
head(d, 10)
findFreqTerms(dtm, lowfreq = 4) #words that occur at least n times
barplot(d[1:10,]$freq, las = 2, names.arg = d[1:10,]$word,
        col ="lightblue", main ="Most frequent words",
        ylab = "Word frequencies")
set.seed(1234) #Generate the Word cloud
wordcloud(words = d$word, freq = d$freq, min.freq = 2,
          max.words=200, random.order=FALSE, rot.per=0.35, 
          colors=brewer.pal(8, "Dark2"))

# SENTIMENT ANALYSIS
sent <- analyzeSentiment(dtm, language = "german")
sentiment <- dplyr::select(sent, SentimentGI, SentimentHE, SentimentLM, SentimentQDAP, WordCount) #removing the unnecessary “Negativity” and “Positivity” measures
sentiment <- dplyr::mutate(sentiment, mean_sentiment = rowMeans(sentiment[,-5])) #average of every row (no reason to rely on any dictionary more than others)
sentiment <- as.data.frame(sentiment) #as a dataframe 
head(sentiment) #SentimentGI negative (<0), neutral (=0), positive(>0) with range from -1 to +1
convertToDirection(sentiment$mean_sentiment) #convert to direction
summary(sentiment$mean_sentiment) #of overall score
convertToDirection(sent$SentimentGI) #convert to direction

# EMOTIONS
sent2 <- get_nrc_sentiment(text)
sent3 <- as.data.frame(colSums(sent2))
sent3 <- rownames_to_column(sent3) 
colnames(sent3) <- c("emotion", "count")
ggplot(sent3, aes(x = emotion, y = count, fill = emotion)) +
  geom_bar(stat = "identity") + 
  theme_minimal() + 
  theme(legend.position="none", panel.grid.major = element_blank()) +
  labs( x = "Emotion", y = "Total Count") + 
  ggtitle("Sentiment of Text") + 
  theme(plot.title = element_text(hjust=0.5))

# TEXT COMPARISON
text1 <- c("Part 3 begins two to three years after ...")
text2 <- c("Part 4 begins with the robbers rushing to save Nairobi's life, ...")
text <- c(text1, text2)
corpus <- Corpus(VectorSource(text)) %>%
  tm_map(removePunctuation) %>%
  tm_map(removeNumbers) %>%
  tm_map(tolower)  %>%
  tm_map(removeWords, stopwords("english")) %>%
  tm_map(stripWhitespace) %>%
  tm_map(PlainTextDocument)
tdm <- TermDocumentMatrix(corpus) %>%
  as.matrix()
colnames(tdm) <- c("Part 3","Part 4")

par(mar = rep(0, 4))
comparison.cloud(tdm, random.order=FALSE, colors = c("indianred3","lightsteelblue3"), title.size=2.5, max.words=400, res=1000)
commonality.cloud(tdm, random.order=FALSE, scale=c(5, .5),colors = brewer.pal(4, "Dark2"), max.words=400)

Beliebte Posts aus diesem Blog

Was ist fremd?

brandy74 "Malstunde" Some rights reserved. www.piqs.de Der Begriff Fremdheit wird benutzt zur Charakterisierung einer Beziehung. Immer muss etwas bekannt sein um es auch als fremd zu bezeichnen; andernfalls kann es nicht beschrieben werden. Wissenschaftlich wird die Fremdheit oft auch als die Gleichzeitigkeit von Nähe und Entferntheit, von Verbundenheit und Getrenntheit charakterisiert. Wer demnach etwas als fremd bezeichnet, unterscheidet die Welt an dieser Stelle in ein Innen und ein Außen. Das Fremde sei jenseits einer einer imaginären Grenze. Diese Grenzen können unterschiedlich lokalisiert werden. Bei der kulturellen Fremdheit werden andere kulturelle Verhaltensweisen und Ansichten identifiziert und als fremd bezeichnet. Bei der sozialen Fremdheit ist der Fremde hingegen Teil der eigenen Gesellschaft, der eigenen Gemeinschaft. Durch die Zuschreibung der sozialen Fremdheit wird er aus dem eigenen Bereich, also dem eigenen sozialen Milieu, exkludiert. Drückt sich

Sentiment-Analyse von deutschen Texten in R

Eine Sentiment-Analyse funktioniert im Grunde wiefolgt: die einzelnen Wörter werden eines Textes werden mit bestimmten Bibliotheken abgeglichen und eine Einteilung in "positiv/negativ" oder ein hinterlegter Sentiment-Wert abgegriffen. Die Summe dieser Werte ergibt schließlich den Sentiment-Score des ganzen Texts. Für englische Texte sind in R bereits Bibliotheken hinterlegt (z.B. im Package tidytext ). Für deutsche Texte habe ich auf meiner Recherche die Bibliothek  SentiWS  der Universität Leipzig gefunden. Die rund 16.000 positiven und 18.000 negativen Wörter sind mit einer Wertspanne von -1 zu 1 hinterlegt. Das Problem ist, dass diese in zwei Textdateien kommen, deren Format erst aufbereitet werden muss. So sieht die Bibliothek beim Einlesen aus: Mit folgendem Code habe ich mir die Bibliothek operationalisiert: library(dplyr) # SentiWS - Dateien hier runterladen: https://wortschatz.uni-leipzig.de/en/download # a) negative Wörter # die Textdatei einlesen negat

Migration und Bevölkerungsentwicklung: Solidarität und Selbsthilfe

Aus: Neue Potenziale - zur Lage der Nation in Deutschland , Juni 2014,  Berlin-Institut für Bevölkerung und Entwicklung Vor ein paar Wochen war ich auf einem sehr spannenden Vortrag am ifo-Institut in München von Herrn Dr. Klingholz, Direktor des Berlin Instituts für Bevölkerung und Entwicklung. Der Vortrag widmete sich einerseits der Zusammensetzung und dem Bildungs- wie Integrationsgrad deutscher Migranten und andererseits der zukünftigen Bevölkerungsentwicklung in Teilen der Welt und deren Auswirkungen auf die Migration in Europa, bzw. Deutschland. Polarisierend Unterteilt man die Migranten(1) nach Gruppen hinsichtlich ihrer Herkunftsländer, so zeigt sich oft eine starke Polarisierung des Bildungsgrades. Beispiel Rumänien und Polen. Zwar ist der Anteil der Migranten aus Rumänien und Polen ohne Bildungsabschluss wesentlich höher als der Anteil der Einheimischen. Umgekehrt ist der Anteil an Akademikern bei Migranten aus Rumänien und Polen höher als bei Einheimischen. Auch

die Hot-Dog-Ökonomie

Diego Torres Silvestre " Ice Creams, Hot Dogs & Pretzels" Some rights reserved. www.piqs.de Man stelle sich eine Wirtschaft vor, in der nur zwei Güter hergestellt würden: Würstchen und Brötchen. Konsumenten würden Hotdogs kaufen; also jeweils ein Brötchen mit einer Wurst. Die Fertigung geschieht durch Menschenhand. So fing Paul Krugman 1997 einen Artikel für das Online-Magazine Slate an, in welchem er den Zusammenhang von Technologie, Jobs und Kapitalismus erklären will. Er fährt fort, dass in dieser Wirtschaft 120 Millionen Arbeiter beschäftigt sind, was einer Vollbeschäftigung entspreche. Zur Herstellung einer Wurst oder eines Brötchens benötige es zwei Arbeitstage. Die 60 Millionen Angestellten in der Brötchenproduktion und genauso viele in der Wurstfabrikationen produzieren demnach täglich 30 Millionen Brötchen und Würste. Angenommen es komme eine verbesserte Technologie auf, mit deren Hilfe ein Arbeiter zur Herstellung einer Wurst nur noch einen Tag

die schöne Welt von Red Bull

Till Krech "wroooom" Some rights reserved. www.piqs.de Red Bull – vom Marktführer für Energiegetränke zum kommenden Medienimperium? Das Magazin Fast Company vergab in der Liste „The World´s 50 Most Innovative Companies“ den 29. Platz an Red Bull für genau diese Entwicklung. Gebündelt unter dem Dach der Red Bull Media House GmbH besitzt der Konzern mittlerweile verschiedene Medienbeteiligungen und Neugründungen. Kritiker bezeichnen es als eine gewaltige Marketingmaschine. Rund ein Drittel des Umsatzes wird für die Pflege des Marktauftritts ausgegeben. Eine firmeninterne Nachrichtenagentur sammelt Inhalte zu einen der vielen weltweiten aufsehenerregenden Red-Bull-Ereignisse, um sie externen Medien gebündelt und aufbereitet zur Verfügung zu stellen. Über eigene Medien werden die Konsumenten sogar direkt erreicht. Das 2007 gegründete Hochglanzmagazin "Red Bulletin" hat bereits eine Auflage von 5 Millionen Heften erreicht und wird mehrspraching in zwö

Verspargelung der Landschaft

FZ 18: "Mount Idarkopf" www.piqs.de Some Rights reserved. Vielleicht ist es, weil ich erst 22 Jahre alt bin. Vielleicht weil es bei meiner Heimatstadt schon seit mehr als zehn Jahren ein Windrad gibt. Aber das Argument einer Verspargelung der Landschaft durch Windräder zählt für mich nicht. Ich komme aus Baden-Württemberg. Insofern verfolgt mich das Argument der Verspargelung der Landschaft durch den ehemaligen baden-württembergischen Ministerpräsidenten Erwin Teufel fast genauso lange wie das Windrad vor meiner Haustür. Das Argument wird immer wieder von jenen hervorgebracht, welche gegen die Aufstellung von Windrädern sind. Die einen fürchten um die Landschaft, andere finden sie einfach nicht schön und noch andere bringen es nur als Vorwand. Besonders die Nähe zur Atomwirtschaft fällt einem bei der hießigen CDU auf. In Baden-Württemberg ist der Fall bei den Windrädern vielleicht ein bisschen spezieller. Wenn man hier die Windenergie effizient nutzen will, so