Big Data

Besprechungen und Rezensionen 3/2020

(1) Wladislaw Hedeler, Thomas Möbius: Werner Tübkes und Fritz Mieraus Reisen in die Sowjetunion (S. 124-127); Wladislaw Hedeler: Zur deutschen Edition von Sergej M. Tret’jakovs Drama „Ich will ein Kind!“ (S. 128-130); (3) Harald A. Mieg, Hans Lenk, Heinrich Parthey (†) (Hg.): Wissenschaftsverantwortung. Rezensiert von Ulrich Busch (S. 130-132); (4) Isabelle Borucki, Wolf J. Schünemann (Hg.): Internet und Staat: Perspektiven auf eine komplizierte Beziehung. Rezensiert von Emma Plate (S. 133-135); (5) Steffi Richter, Andreas Singler, Dorothea Mladenova (Hg.): Tōkyō 2020/1 in der Kritik. Besprochen von Wolf-Dietrich Junghanns (S. 136-149)

PDF: 0,00 €

Erschienen in
Berliner Debatte 3 | 2020
Fritz Mieraus russisches Jahrhundert
152 Seiten

Wasser oder Öl?

Big Data in der europäischen Fusionskontrolle

14 Seiten | Autor: Anselm Küsters

Anselm Küsters analysiert die Konzeptualisierung von Big Data im europäischen Wettbewerbsrecht vor dem Hintergrund der Macht- und Wissensfragen, die sich aus der Verbindung dieser Datensätze mit KI-Systemen ergeben. Er zeigt zunächst, dass sich die konventionelle rechtswissenschaftliche Definition von Big Data ausschließlich auf technische Aspekte (vier Vs) und ökonomische Konzepte (nicht-rivale Natur, abnehmender Grenzertrag) bezieht und dabei zentrale marktmachtinduzierte und marktverschließende Gefahren ausblendet. Anhand von bisherigen Fusionsfällen auf europäischer Ebene wendet er anschließend den Analyserahmen einer vertikalen Abschottung von essentiellen Einsatzstoffen auf Zusammenschlüsse an, die die Kombination von Datensätzen anstrebten. Dabei wird deutlich, dass die innerhalb des wettbewerbsrechtlichen Diskurses gängige Charakterisierung von Daten als nicht-exklusiv und „überall“ verfügbar problematisch ist.

PDF: 0,00 €

Erschienen in
Berliner Debatte 3 | 2020
Fritz Mieraus russisches Jahrhundert
152 Seiten

ONLINE FIRST: Wasser oder Öl?

Big Data in der europäischen Fusionskontrolle

14 Seiten | Autor: Anselm Küsters

Anselm Küsters analysiert die Konzeptualisierung von Big Data im europäischen Wettbewerbsrecht vor dem Hintergrund der Macht- und Wissensfragen, die sich aus der Verbindung dieser Datensätze mit KI-Systemen ergeben. Er zeigt zunächst, dass sich die konventionelle rechtswissenschaftliche Definition von Big Data ausschließlich auf technische Aspekte (vier Vs) und ökonomische Konzepte (nicht-rivale Natur, abnehmender Grenzertrag) bezieht und dabei zentrale marktmachtinduzierte und marktverschließende Gefahren ausblendet. Anhand von bisherigen Fusionsfällen auf europäischer Ebene wendet er anschließend den Analyserahmen einer vertikalen Abschottung von essentiellen Einsatzstoffen auf Zusammenschlüsse an, die die Kombination von Datensätzen anstrebten. Dabei wird deutlich, dass die innerhalb des wettbewerbsrechtlichen Diskurses gängige Charakterisierung von Daten als nicht-exklusiv und „überall“ verfügbar problematisch ist.

PDF: 0,00 €

Erschienen in
Berliner Debatte 1 | 2020
Digitale Dystopien
168 Seiten

Big Data – Big Confusion

Weshalb es noch immer keine künstliche Intelligenz gibt

12 Seiten | Autor: Rainer Fischbach

Rainer Fischbach zeichnet nach, wie sich die Künstliche Intelligenz als Forschungsdisziplin entwickelte und wie wenig diese bislang zu leisten vermochte, um künstliche Intelligenz, also intelligente Maschinen, hervorzubringen – großen Erwartungen und Big Data zum Trotz. Er zeigt, dass anspruchsvolle Mathematik und nackte Rechnerleistung nicht ausreichen, um ein tieferes Verständnis menschlicher Intelligenz zu gewinnen. Auch mit hochverfeinerten Methoden und hochleistungsfähigen Rechnern lassen sich aus anschwellenden Datenmengen nur begrenzte Erkenntnisse gewinnen – und dies auch nur, wenn man mit der gebotenen Sorgfalt vorgeht.

PDF: 0,00 €

Erschienen in
Berliner Debatte 1 | 2020
Digitale Dystopien
168 Seiten

Berliner Debatte Initial 1 | 2020

Digitale Dystopien

ISBN 978-3-947802-49-4 | ISSN 0863-4564 | 168 Seiten

Die Covid-19-Pandemie rückt die Möglichkeiten und Chancen digitaler Technologien in den Vordergrund. Kein Anlass mehr zur Kritik, kein Grund zur Sorge? Der Themenschwerpunkt „Digitale Dystopien“ stellt die dunklen Seiten der Digitalisierung in den Mittelpunkt und fragt nach ihrer Reflexion in zeitgenössischen Zukunftsentwürfen. In den 12 Beiträgen des Heftes werden digitale Dystopien in Literatur und Film im Rückgriff auf soziologische Zeitdiagnosen und philosophische Theorieangebote untersucht. Außerdem werden kultur- und gesellschaftskritische Impulse aus Literatur und Film aufgegriffen, um einzelne Aspekte der Digitalisierung und ihrer gesellschaftlichen und politischen Folgen zu analysieren. Schließlich werden technische Voraussetzungen und ethische Implikationen der Digitalisierung diskutiert.

Eine Leseprobe des Heftes finden Sie hier: LESEPROBE

Inhalt

Big Data als Theorieersatz?

8 Seiten | Autor: Gregor Ritschel, Thomas Müller

Seit einigen Jahren lässt sich ein regelrechter Medienhype um „Big Data“ beobachten. Neonfarbene Nullen und Einsen rauschen, als Sinnbild allgegenwärtiger, aber schwer erfahrbarer Datenströme, über Zeitschriftencover oder Fernsehschirme. Jene Bilderwelt zeugt von Neugier, aber auch von einer gewissen Hilflosigkeit. Wirtschaft, Politik, Alltagskommunikation, Öffentlichkeit, Kultur und Sport – all das wird von Big Data Schritt für Schritt durchdrungen. Doch was bedeutet Big Data für Wissenschaft und Forschung, vor allem: für die Sozial- und Geisteswissenschaften? Diese Frage steht im Mittelpunkt des vorliegenden Themenschwerpunkts. Einleitend diskutieren Gregor Ritschel und Thomas Müller die provokante These ,wonach die von Algorithmen aufbereitete Suche nach Korrelationen die alte Welt der Theorie hinter sich gelassen habe. Kann heute die Realität in Echtzeit erfasst werden? Sprechen digitale Daten für sich? Und wie verschieben sich Macht und Mittel in den Sozial- und Geisteswissenschaften?

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Big Data: Informatisierung der Gesellschaft 4.0

10 Seiten | Autor: Jan-Felix Schrape

Der Beitrag gibt einen Überblick über vier Phasen der Informatisierung der Gesellschaft seit der Etablierung der ersten digitalen Computer, die von intensiven Diskussionen um die anwachsenden Daten- und Informationsfluten begleitet worden sind. Dabei zeigt sich, dass sich im aktuellen Diskurs um „Big Data“ viele der dystopischen und utopischen Erwartungen widerspiegeln, die bereits ab den 1960er-Jahren mit Computern und digitale Massendaten verknüpft wurden – von der Angst vor einem Totalverlust der Privatsphäre bis hin zu vielfältigen Hoffnungen auf Demokratisierung und Dezentralisierung. Angesichts dieser Kontinuitäten bleibt ein synthetisierender sozialwissenschaftlicher Blick unabdingbar, um den gegenwärtigen Wandel kritisch beobachten und Technikphantasmen entzaubern zu können.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Zur Veränderung des Theoriebegriffs im Zeitalter von Big Data und effizienten Algorithmen

13 Seiten | Autor: Klaus Mainzer

Wir leben in einem datengetriebenen Zeitalter, dessen Entwicklung durch exponentielle Wachstumsgesetze von Datenmengen, Rechner- und Speicherkapazitäten beschleunigt wird. Manchen Autoren halten theoretische Fundierungen bereits für überflüssig, da in der Wirtschaft immer effizientere Algorithmen immer schneller immer bessere Kunden- und Produktprofile voraussagen. In der Wissenschaft prophezeien Autoren wie S. Wolfram eine neue Form der Forschung, die ebenfalls nur noch auf effiziente Algorithmen und Computerexperimente setzen, die angeblich „traditionelle“ mathematische Theorien überflüssig machen. Diese Parolen sind brandgefährlich, haben aber einen richtigen Kern. Gefährlich sind diese Positionen, weil Theorien ohne Daten zwar leer sind, aber Daten und Algorithmen ohne Theorie blind bleiben und unserer Kontrolle entgleiten. Richtig ist, dass sich der traditionelle Theoriebegriff in vielfacher Weise verändert, sowohl beim Entdecken und Finden von Hypothesen durch Machine Learning als auch bei theoretischen Erklärungen durch Computerexperimente und der Voraussage durch Predictive Analytics. Entscheidend ist aber vor allem die Prüfung und Kontrolle von Algorithmen, die durch neuartige Theorien möglich werden. Nur so können wir sicher sein, dass uns am Ende Big Data mit ihren Algorithmen nicht um die Ohren fliegen.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Führt Big Data zur abduktiven Wende in den Wissenschaften?

15 Seiten | Autor: Christian Wadephul

Big Data als Theorieersatz? Mitnichten! Big Data-Analysen (BDA) können im schlechtesten Fall zur Apophänie führen, im besten Fall zu einer neuen deskriptiven Perspektive auf Datensätze – sie geben aber niemals kausale Erklärungen oder rationale Begründungen. Bedeutung erlangen sie nur innerhalb eines Theorierahmens. Inwiefern Big Data dennoch eine methodische Herausforderung für die Wissenschaft ist, soll im Folgenden dargelegt werden. Dazu werden die (technischen) Voraussetzungen von BDA-Methoden grob skizziert – vor allem maschinell lernende Artefakte (MLA). Diese ‚lernen’ abduktiv. Was bedeutet die abduktive Wende in der KI-Forschung? Was könn(t)en BDA als (interdisziplinäres) abduktiv-exploratives Forschungsinstrument methodologisch auch für die (Sozial-)Wissenschaft leisten? Welche wissenschaftstheoretischen Probleme daten-basierter Informationsgewinnung gilt es zu beachten? Kommt es durch BDA und MLA zu einer Prekarisierung von Wissenschaft durch fehlende Kontrolle und Überprüfbarkeit – bei gleichzeitiger Erwartung einer Angemessenheit von BDA-Ergebnissen?

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Alles nur Datenschutz?

Zur rechtlichen Regulierung algorithmenbasierter Wissensgenerierung

16 Seiten | Autor: Roland Broemel, Hans-Heinrich Trute

Wissensgenerierung unter Einsatz von Algorithmen ist zwar keine gänzlich neue Praxis, wohl aber eine, deren Bedeutung zunimmt und deren Reichweite erst langsam in den Fokus der rechtswissenschaftlichen Beobachtung rückt. Anders als in den USA, wo es seit Jahren eine lebhafte Debatte um den Einsatz und mögliche Regulierungsnotwendigkeiten von Algorithmen gibt, dominiert in Deutschland der datenschutzrechtliche Aspekt. Damit wird eine inputorientierte Problemperspektive gewählt. Es liegt allerdings auf der Hand, dass zentrale Prämissen des Datenschutzrechts brüchig werden, in einer digitalisierten Welt, in der der Einzelne nicht selten „freiwillig“ und freigiebig Datenspuren hinterlässt. Am Beispiel von Scoring-Technologien (etwa bei der Beurteilung der Kreditwürdigkeit) wird deutlich, dass es oftmals nicht auf personenbezogene Daten (und ihre Kumulation) ankommt. Die anonymisierte Clusterbildung über algorithmisierte Wissensgenerierung kann zur Bildung von Klassifikationen führen, die dem Einzelnen als Wissensbestände einer Risikoeinschätzung gegenübertreten, ohne dass die Betroffenen die Konstitutionsbedingungen übersehen können. Über die Begrenzung des Inputs an personenbezogenen Daten ist dies nicht zu steuern.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten