Predictive Analytics

Big Data als Theorieersatz?

8 Seiten | Autor: Gregor Ritschel, Thomas Müller

Seit einigen Jahren lässt sich ein regelrechter Medienhype um „Big Data“ beobachten. Neonfarbene Nullen und Einsen rauschen, als Sinnbild allgegenwärtiger, aber schwer erfahrbarer Datenströme, über Zeitschriftencover oder Fernsehschirme. Jene Bilderwelt zeugt von Neugier, aber auch von einer gewissen Hilflosigkeit. Wirtschaft, Politik, Alltagskommunikation, Öffentlichkeit, Kultur und Sport – all das wird von Big Data Schritt für Schritt durchdrungen. Doch was bedeutet Big Data für Wissenschaft und Forschung, vor allem: für die Sozial- und Geisteswissenschaften? Diese Frage steht im Mittelpunkt des vorliegenden Themenschwerpunkts. Einleitend diskutieren Gregor Ritschel und Thomas Müller die provokante These ,wonach die von Algorithmen aufbereitete Suche nach Korrelationen die alte Welt der Theorie hinter sich gelassen habe. Kann heute die Realität in Echtzeit erfasst werden? Sprechen digitale Daten für sich? Und wie verschieben sich Macht und Mittel in den Sozial- und Geisteswissenschaften?

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Zur Veränderung des Theoriebegriffs im Zeitalter von Big Data und effizienten Algorithmen

13 Seiten | Autor: Klaus Mainzer

Wir leben in einem datengetriebenen Zeitalter, dessen Entwicklung durch exponentielle Wachstumsgesetze von Datenmengen, Rechner- und Speicherkapazitäten beschleunigt wird. Manchen Autoren halten theoretische Fundierungen bereits für überflüssig, da in der Wirtschaft immer effizientere Algorithmen immer schneller immer bessere Kunden- und Produktprofile voraussagen. In der Wissenschaft prophezeien Autoren wie S. Wolfram eine neue Form der Forschung, die ebenfalls nur noch auf effiziente Algorithmen und Computerexperimente setzen, die angeblich „traditionelle“ mathematische Theorien überflüssig machen. Diese Parolen sind brandgefährlich, haben aber einen richtigen Kern. Gefährlich sind diese Positionen, weil Theorien ohne Daten zwar leer sind, aber Daten und Algorithmen ohne Theorie blind bleiben und unserer Kontrolle entgleiten. Richtig ist, dass sich der traditionelle Theoriebegriff in vielfacher Weise verändert, sowohl beim Entdecken und Finden von Hypothesen durch Machine Learning als auch bei theoretischen Erklärungen durch Computerexperimente und der Voraussage durch Predictive Analytics. Entscheidend ist aber vor allem die Prüfung und Kontrolle von Algorithmen, die durch neuartige Theorien möglich werden. Nur so können wir sicher sein, dass uns am Ende Big Data mit ihren Algorithmen nicht um die Ohren fliegen.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Führt Big Data zur abduktiven Wende in den Wissenschaften?

15 Seiten | Autor: Christian Wadephul

Big Data als Theorieersatz? Mitnichten! Big Data-Analysen (BDA) können im schlechtesten Fall zur Apophänie führen, im besten Fall zu einer neuen deskriptiven Perspektive auf Datensätze – sie geben aber niemals kausale Erklärungen oder rationale Begründungen. Bedeutung erlangen sie nur innerhalb eines Theorierahmens. Inwiefern Big Data dennoch eine methodische Herausforderung für die Wissenschaft ist, soll im Folgenden dargelegt werden. Dazu werden die (technischen) Voraussetzungen von BDA-Methoden grob skizziert – vor allem maschinell lernende Artefakte (MLA). Diese ‚lernen’ abduktiv. Was bedeutet die abduktive Wende in der KI-Forschung? Was könn(t)en BDA als (interdisziplinäres) abduktiv-exploratives Forschungsinstrument methodologisch auch für die (Sozial-)Wissenschaft leisten? Welche wissenschaftstheoretischen Probleme daten-basierter Informationsgewinnung gilt es zu beachten? Kommt es durch BDA und MLA zu einer Prekarisierung von Wissenschaft durch fehlende Kontrolle und Überprüfbarkeit – bei gleichzeitiger Erwartung einer Angemessenheit von BDA-Ergebnissen?

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Big Data als Theorieersatz

Die sieben Beiträge des Schwerpunkts zum Vorzugspreis - Big Data ist zum Schlagwort für das Sammeln und Auswerten enormer Datensätze geworden, die aus den digitalen Aktivitäten der Menschen gefiltert und von Algorithmen auf Muster hin analysiert werden. Wirtschaft, Politik, Alltagskommunikation, Öffentlichkeit, Kultur und Sport – all das wird von Big Data Schritt für Schritt durchdrungen. Doch was bedeutet Big Data für Wissenschaft und Forschung, vor allem: für die Sozial- und Geisteswissenschaften? Diese Frage steht im Mittelpunkt des aktuellen Themenschwerpunkts. Sie zu stellen, liegt nicht zuletzt deshalb nahe, weil sich mit dem Aufstieg von Big Data eine Provokation verbindet, die direkt auf das Selbstverständnis der Sozial- und Geisteswissenschaften zielt. Auf den Punkt gebracht hat sie der britische Journalist und Unternehmer Chris Anderson vor fast zehn Jahren, als er mit markigen Worten das Ende der Theorie und die Überflüssigkeit wissenschaftlicher Methoden verkündete. Die sieben Beiträge fragen einerseits, was von der steilen These, Big Data trete an die Stelle der Theorie, zu halten ist. Andererseits erkunden sie soziale, rechtliche und politische Implikationen von Big Data und demonstrieren damit, dass sozial- und geisteswissenschaftliche Analysen nicht überflüssig werden, sondern nötig sind, um Big Data zu begreifen.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten