Obamas Wiederwahl hatte laut einem TIME-Artikel viel mit einer ausgefeilten data mining-Strategie zu tun. Die entsprechenden Spezialisten werden darin als backroom number crunchers („Zahlenakrobaten im Hinterzimmer“) bezeichnet.
So beruhte zum Beispiel der „Abendessen mit Barack Obama“-Wettbewerb auf ausgiebigen Analysen. Als Prominente wurde Sarah Jessica Parker ausgewählt. Ein Ziel bestand darin, genau die Gruppe von Menschen zu begeistern, die die größte finanzielle Unterstützung für eine Wahlkampagne versprach.
Das 2012er Analystenteam war fünf mal so groß wie das der 2008er Kampagne. Ihr Kopf hatte früher unter anderem Supermarkt-Verkäufe anhand riesiger Datenmengen optimiert. Die Details der Datenanalyse für den Wahlkampf wurden sorgfältig vor den Augen der Öffentlichkeit verborgen gehalten.
Ein wesentlicher Fortschritt gegenüber 2008 bestand in der umfangreichen Verschmelzung unterschiedlichster Daten, die zuvor separat gespeichert und nicht auf einander abgestimmt wurden, unter anderem aus den Bereichen Spendenwerbung, Meinungsforschung und Konsumverhalten (vgl. Artikel Moderne (Online-) Marktforschung: Von “Big Data” zu “Data Integration”). Für die Zielgruppe, die vor der Wahl kontaktiert werden sollte, wurden nicht nur Namen und Kontaktdaten aufgelistet, sondern auch eine Rangfolge der „Überzeugbarkeit“ (persuadability).
Nach der extrem datengetriebenen Spendenkampagne, die eine Milliarde Dollar einbrachte, ging es mit dem gleichen Aufwand um Wählerstimmen. Täglich wurden aufwändige Wahlsimulationen durchgeführt, um die Kampagne jederzeit effizient steuern zu können.
Mit welchen Tools (Software) gearbeitet wurde, verrät der Artikel leider nicht. Ob SPSS Modeler dabei war?
Fazit des Time-Artikels:
In politics, the era of big data has arrived.
Quelle: CNN