Big Data

Big Data als Theorieersatz?

8 Seiten | Autor: Gregor Ritschel, Thomas Müller

Seit einigen Jahren lässt sich ein regelrechter Medienhype um „Big Data“ beobachten. Neonfarbene Nullen und Einsen rauschen, als Sinnbild allgegenwärtiger, aber schwer erfahrbarer Datenströme, über Zeitschriftencover oder Fernsehschirme. Jene Bilderwelt zeugt von Neugier, aber auch von einer gewissen Hilflosigkeit. Wirtschaft, Politik, Alltagskommunikation, Öffentlichkeit, Kultur und Sport – all das wird von Big Data Schritt für Schritt durchdrungen. Doch was bedeutet Big Data für Wissenschaft und Forschung, vor allem: für die Sozial- und Geisteswissenschaften? Diese Frage steht im Mittelpunkt des vorliegenden Themenschwerpunkts. Einleitend diskutieren Gregor Ritschel und Thomas Müller die provokante These ,wonach die von Algorithmen aufbereitete Suche nach Korrelationen die alte Welt der Theorie hinter sich gelassen habe. Kann heute die Realität in Echtzeit erfasst werden? Sprechen digitale Daten für sich? Und wie verschieben sich Macht und Mittel in den Sozial- und Geisteswissenschaften?

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Big Data: Informatisierung der Gesellschaft 4.0

10 Seiten | Autor: Jan-Felix Schrape

Der Beitrag gibt einen Überblick über vier Phasen der Informatisierung der Gesellschaft seit der Etablierung der ersten digitalen Computer, die von intensiven Diskussionen um die anwachsenden Daten- und Informationsfluten begleitet worden sind. Dabei zeigt sich, dass sich im aktuellen Diskurs um „Big Data“ viele der dystopischen und utopischen Erwartungen widerspiegeln, die bereits ab den 1960er-Jahren mit Computern und digitale Massendaten verknüpft wurden – von der Angst vor einem Totalverlust der Privatsphäre bis hin zu vielfältigen Hoffnungen auf Demokratisierung und Dezentralisierung. Angesichts dieser Kontinuitäten bleibt ein synthetisierender sozialwissenschaftlicher Blick unabdingbar, um den gegenwärtigen Wandel kritisch beobachten und Technikphantasmen entzaubern zu können.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Zur Veränderung des Theoriebegriffs im Zeitalter von Big Data und effizienten Algorithmen

13 Seiten | Autor: Klaus Mainzer

Wir leben in einem datengetriebenen Zeitalter, dessen Entwicklung durch exponentielle Wachstumsgesetze von Datenmengen, Rechner- und Speicherkapazitäten beschleunigt wird. Manchen Autoren halten theoretische Fundierungen bereits für überflüssig, da in der Wirtschaft immer effizientere Algorithmen immer schneller immer bessere Kunden- und Produktprofile voraussagen. In der Wissenschaft prophezeien Autoren wie S. Wolfram eine neue Form der Forschung, die ebenfalls nur noch auf effiziente Algorithmen und Computerexperimente setzen, die angeblich „traditionelle“ mathematische Theorien überflüssig machen. Diese Parolen sind brandgefährlich, haben aber einen richtigen Kern. Gefährlich sind diese Positionen, weil Theorien ohne Daten zwar leer sind, aber Daten und Algorithmen ohne Theorie blind bleiben und unserer Kontrolle entgleiten. Richtig ist, dass sich der traditionelle Theoriebegriff in vielfacher Weise verändert, sowohl beim Entdecken und Finden von Hypothesen durch Machine Learning als auch bei theoretischen Erklärungen durch Computerexperimente und der Voraussage durch Predictive Analytics. Entscheidend ist aber vor allem die Prüfung und Kontrolle von Algorithmen, die durch neuartige Theorien möglich werden. Nur so können wir sicher sein, dass uns am Ende Big Data mit ihren Algorithmen nicht um die Ohren fliegen.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Führt Big Data zur abduktiven Wende in den Wissenschaften?

15 Seiten | Autor: Christian Wadephul

Big Data als Theorieersatz? Mitnichten! Big Data-Analysen (BDA) können im schlechtesten Fall zur Apophänie führen, im besten Fall zu einer neuen deskriptiven Perspektive auf Datensätze – sie geben aber niemals kausale Erklärungen oder rationale Begründungen. Bedeutung erlangen sie nur innerhalb eines Theorierahmens. Inwiefern Big Data dennoch eine methodische Herausforderung für die Wissenschaft ist, soll im Folgenden dargelegt werden. Dazu werden die (technischen) Voraussetzungen von BDA-Methoden grob skizziert – vor allem maschinell lernende Artefakte (MLA). Diese ‚lernen’ abduktiv. Was bedeutet die abduktive Wende in der KI-Forschung? Was könn(t)en BDA als (interdisziplinäres) abduktiv-exploratives Forschungsinstrument methodologisch auch für die (Sozial-)Wissenschaft leisten? Welche wissenschaftstheoretischen Probleme daten-basierter Informationsgewinnung gilt es zu beachten? Kommt es durch BDA und MLA zu einer Prekarisierung von Wissenschaft durch fehlende Kontrolle und Überprüfbarkeit – bei gleichzeitiger Erwartung einer Angemessenheit von BDA-Ergebnissen?

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Alles nur Datenschutz?

Zur rechtlichen Regulierung algorithmenbasierter Wissensgenerierung

16 Seiten | Autor: Roland Broemel, Hans-Heinrich Trute

Wissensgenerierung unter Einsatz von Algorithmen ist zwar keine gänzlich neue Praxis, wohl aber eine, deren Bedeutung zunimmt und deren Reichweite erst langsam in den Fokus der rechtswissenschaftlichen Beobachtung rückt. Anders als in den USA, wo es seit Jahren eine lebhafte Debatte um den Einsatz und mögliche Regulierungsnotwendigkeiten von Algorithmen gibt, dominiert in Deutschland der datenschutzrechtliche Aspekt. Damit wird eine inputorientierte Problemperspektive gewählt. Es liegt allerdings auf der Hand, dass zentrale Prämissen des Datenschutzrechts brüchig werden, in einer digitalisierten Welt, in der der Einzelne nicht selten „freiwillig“ und freigiebig Datenspuren hinterlässt. Am Beispiel von Scoring-Technologien (etwa bei der Beurteilung der Kreditwürdigkeit) wird deutlich, dass es oftmals nicht auf personenbezogene Daten (und ihre Kumulation) ankommt. Die anonymisierte Clusterbildung über algorithmisierte Wissensgenerierung kann zur Bildung von Klassifikationen führen, die dem Einzelnen als Wissensbestände einer Risikoeinschätzung gegenübertreten, ohne dass die Betroffenen die Konstitutionsbedingungen übersehen können. Über die Begrenzung des Inputs an personenbezogenen Daten ist dies nicht zu steuern.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Algorithmische Subpolitik: Big Data als Technologisierung kollektiver Ordnungsbildung?

Daten sind kein Wissen. Big Data ist nicht schon wissenschaftliche Erkenntnis, sondern hat auch eine politische Dimension. Dieser Beitrag fragt, wie sich Big Data-Technologie und deren Folgen aus gesellschaftswissenschaftlicher Sicht verstehen lassen. Die soziale Wirksamkeit von Algorithmen wird dabei in den Vordergrund gestellt. Es gelte, die Governance mit und durch Algorithmen zu betrachten. Um diese Wirksamkeit aufzuschließen, greifen die Autoren auf Ulrich Becks Konzept der Subpolitik zurück, das das politische Wirken der „Neuen Sozialen Bewegungen“ der 1980er Jahre zu erfassen suchte. Die heutigen Big Data-Algorithmen deuten die Autoren als eine Form passiv-struktureller Subpolitik. Als solche sind mit Big Data operierende Algorithmen eine Form von Politik, die sich selbst nicht als politisch begreift, wohl aber gesellschaftliche Verbindlichkeiten schafft. Weder sind Plattformen des Cyberaktivismus wie Avaaz neutrale Plätze der politischen Selbstorganisation noch präsentieren Online-Suchmaschinen wie Google im Hinblick auf politische Inhalte neutrale Trefferlisten. Big Data macht, so das Argument des Textes, Politik, ohne sich als politisch auszuweisen.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Digitale Gesellschaft und Big Data: Thesen zur Zukunft der Soziologie

7 Seiten | Autor: Jochen Mayerl, Katharina Anna Zweig

Jochen Mayerl und Anna Katharina Zweig stellen drei Thesen zur Zukunft der Soziologie in der digitalen Gesellschaft auf. Sie wenden sich damit gegen ein selbstverschuldetes Abdanken der Soziologie als Leitdisziplin für das Erklären und Verstehen des Sozialen. Soziologische Datenerhebungen sind bislang nicht einmal ansatzweise als Big Data zu qualifizieren. Big Data mag aus soziologischer Sicht unsauber sein, doch sind die soziologischen Samples oft ebenso nicht frei von Mängeln. Eine Berechnung der Gesellschaft kann zwar heute wie es scheint potentiell auch von Informatikern geleistet werden, doch ginge dabei das theoretische Know-how der Soziologie verloren. Mayerl und Zweig halten daher die Entwicklung von interdisziplinären Forschungsprojekten für den besseren Weg. Nur so könnten die neuen technologischen Möglichkeiten von Big Data mit dem theoretischen Erfahrungsschatz der Soziologie sinnvoll kombiniert werden.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Big Data als Theorieersatz

Die sieben Beiträge des Schwerpunkts zum Vorzugspreis - Big Data ist zum Schlagwort für das Sammeln und Auswerten enormer Datensätze geworden, die aus den digitalen Aktivitäten der Menschen gefiltert und von Algorithmen auf Muster hin analysiert werden. Wirtschaft, Politik, Alltagskommunikation, Öffentlichkeit, Kultur und Sport – all das wird von Big Data Schritt für Schritt durchdrungen. Doch was bedeutet Big Data für Wissenschaft und Forschung, vor allem: für die Sozial- und Geisteswissenschaften? Diese Frage steht im Mittelpunkt des aktuellen Themenschwerpunkts. Sie zu stellen, liegt nicht zuletzt deshalb nahe, weil sich mit dem Aufstieg von Big Data eine Provokation verbindet, die direkt auf das Selbstverständnis der Sozial- und Geisteswissenschaften zielt. Auf den Punkt gebracht hat sie der britische Journalist und Unternehmer Chris Anderson vor fast zehn Jahren, als er mit markigen Worten das Ende der Theorie und die Überflüssigkeit wissenschaftlicher Methoden verkündete. Die sieben Beiträge fragen einerseits, was von der steilen These, Big Data trete an die Stelle der Theorie, zu halten ist. Andererseits erkunden sie soziale, rechtliche und politische Implikationen von Big Data und demonstrieren damit, dass sozial- und geisteswissenschaftliche Analysen nicht überflüssig werden, sondern nötig sind, um Big Data zu begreifen.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Berliner Debatte Initial 4 | 2016

Big Data als Theorieersatz

ISBN 978-3-945878-11-8 | ISSN 0863-4564 | 146 Seiten

Big Data ist zum Schlagwort für das Sammeln und Auswerten enormer Datensätze geworden, die aus den digitalen Aktivitäten der Menschen gefiltert und von Algorithmen auf Muster hin analysiert werden. Wirtschaft, Politik, Alltagskommunikation, Öffentlichkeit, Kultur und Sport - all das wird von Big Data Schritt für Schritt durchdrungen. Doch was bedeutet Big Data für Wissenschaft und Forschung, vor allem: für die Sozial- und Geisteswissenschaften? Diese Frage steht im Mittelpunkt des aktuellen Themenschwerpunkts. Sie zu stellen, liegt nicht zuletzt deshalb nahe, weil sich mit dem Aufstieg von Big Data eine Provokation verbindet, die direkt auf das Selbstverständnis der Sozial- und Geisteswissenschaften zielt. Auf den Punkt gebracht hat sie der britische Journalist und Unternehmer Chris Anderson vor fast zehn Jahren, als er mit markigen Worten das Ende der Theorie und die Überflüssigkeit wissenschaftlicher Methoden verkündete.

Die sieben Schwerpunkttexte fragen einerseits, was von der steilen These, Big Data trete an die Stelle der Theorie, zu halten ist. Andererseits erkunden sie soziale, rechtliche und politische Implikationen von Big Data und demonstrieren damit, dass sozial- und geisteswissenschaftliche Analysen nicht überflüssig werden, sondern nötig sind, um Big Data zu begreifen. Der Themenschwerpunkt setzt damit eine Diskussion in unserer Zeitschrift fort, die Tara Fenwick und Richard Edwards in ihrem Text über die Auswirkungen digitaler Technologien auf Berufe und Professionen angestoßen haben (siehe HIER). Eröffnet wird der Schwerpunkt mit einer thematischen Einführung, die die einzelnen Aufsätze vorstellt.

Im allgemeinen Teil dieses Heftes laden wir Sie ein, zusammen mit Marcy S. Sacks einen neuen Blick auf die Boxlegende Joe Louis und die zeitgenössische Deutung seiner spektakulären Sporterfolge zu werfen. Fritz Mierau fragt anschließend, welche Rolle der avantgardistische Schriftsteller Sergej Tretjakow, der dem Stalinschen Terror 1937 zum Opfer fiel, im intellektuellen Haushalt der DDR spielte. Danach beleuchtet Loïc Wacquant das Bedeutungsspektrum und Analysepotential des Habitus-Konzepts, das durch die soziologischen Arbeiten Pierre Bourdieus berühmt geworden ist. Cornelia Heintze legt schließlich dar, wie verschiedene Spielarten des Kapitalismus, die Geschlechterfrage und der Stellenwert sozialer Dienste in Europa zusammenhängen.

Inhalt

Die Auswirkungen digitaler Technologien auf professionelle Verantwortung und Ausbildung

16 Seiten | Autor: Tara Fenwick, Richard Edwards

Tara Fenwick und Richard Edwards diskutieren in ihrem Beitrag die Auswirkungen digitaler Technologien auf professionelles Wissen und Handeln. Sie arbeiten den ambivalenten Charakter digitaler Analysetechniken heraus, die beispielsweise in der Gesundheitsvorsorge hilfreich sein können, aber auch an Grenzen stoßen und zu einseitigen Deutungen führen können. Verführerisch hieran ist, dass Massendaten für sich zu sprechen scheinen, während die sozialen Prozesse der Erzeugung und Nutzung von „Big Data“ oftmals unsichtbar bleiben. Zu den Machteffekten, die hieraus resultieren, zählt die – zum Teil politisch und ökonomisch forcierte – Tendenz, professionelle Verantwortung an digitale Analysemechanismen zu delegieren. Nach einem Vergleich zwischen Konzepten professioneller Verantwortung und Rechenschaftslegung analysieren Fenwick und Edwards den Einsatz digitaler Technologien in verschiedenen professionellen Feldern. Um den bestehenden oder sich abzeichnenden Herausforderungen zu begegnen, erörtern sie abschließend einige Implikationen für die akademische Ausbildung von Professionellen.

PDF: 0,00 €

Erschienen in
Berliner Debatte 1 | 2016
Wissen – Macht – Arbeit. Professionen und Wissensberufe im Wandel
154 Seiten