Roland Broemel

Alles nur Datenschutz?

Zur rechtlichen Regulierung algorithmenbasierter Wissensgenerierung

16 Seiten | Autor: Roland Broemel, Hans-Heinrich Trute

Wissensgenerierung unter Einsatz von Algorithmen ist zwar keine gänzlich neue Praxis, wohl aber eine, deren Bedeutung zunimmt und deren Reichweite erst langsam in den Fokus der rechtswissenschaftlichen Beobachtung rückt. Anders als in den USA, wo es seit Jahren eine lebhafte Debatte um den Einsatz und mögliche Regulierungsnotwendigkeiten von Algorithmen gibt, dominiert in Deutschland der datenschutzrechtliche Aspekt. Damit wird eine inputorientierte Problemperspektive gewählt. Es liegt allerdings auf der Hand, dass zentrale Prämissen des Datenschutzrechts brüchig werden, in einer digitalisierten Welt, in der der Einzelne nicht selten „freiwillig“ und freigiebig Datenspuren hinterlässt. Am Beispiel von Scoring-Technologien (etwa bei der Beurteilung der Kreditwürdigkeit) wird deutlich, dass es oftmals nicht auf personenbezogene Daten (und ihre Kumulation) ankommt. Die anonymisierte Clusterbildung über algorithmisierte Wissensgenerierung kann zur Bildung von Klassifikationen führen, die dem Einzelnen als Wissensbestände einer Risikoeinschätzung gegenübertreten, ohne dass die Betroffenen die Konstitutionsbedingungen übersehen können. Über die Begrenzung des Inputs an personenbezogenen Daten ist dies nicht zu steuern.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Big Data als Theorieersatz

Die sieben Beiträge des Schwerpunkts zum Vorzugspreis - Big Data ist zum Schlagwort für das Sammeln und Auswerten enormer Datensätze geworden, die aus den digitalen Aktivitäten der Menschen gefiltert und von Algorithmen auf Muster hin analysiert werden. Wirtschaft, Politik, Alltagskommunikation, Öffentlichkeit, Kultur und Sport – all das wird von Big Data Schritt für Schritt durchdrungen. Doch was bedeutet Big Data für Wissenschaft und Forschung, vor allem: für die Sozial- und Geisteswissenschaften? Diese Frage steht im Mittelpunkt des aktuellen Themenschwerpunkts. Sie zu stellen, liegt nicht zuletzt deshalb nahe, weil sich mit dem Aufstieg von Big Data eine Provokation verbindet, die direkt auf das Selbstverständnis der Sozial- und Geisteswissenschaften zielt. Auf den Punkt gebracht hat sie der britische Journalist und Unternehmer Chris Anderson vor fast zehn Jahren, als er mit markigen Worten das Ende der Theorie und die Überflüssigkeit wissenschaftlicher Methoden verkündete. Die sieben Beiträge fragen einerseits, was von der steilen These, Big Data trete an die Stelle der Theorie, zu halten ist. Andererseits erkunden sie soziale, rechtliche und politische Implikationen von Big Data und demonstrieren damit, dass sozial- und geisteswissenschaftliche Analysen nicht überflüssig werden, sondern nötig sind, um Big Data zu begreifen.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten