Algorithmen

Big Data – Big Confusion

Weshalb es noch immer keine künstliche Intelligenz gibt

12 Seiten | Autor: Rainer Fischbach

Rainer Fischbach zeichnet nach, wie sich die Künstliche Intelligenz als Forschungsdisziplin entwickelte und wie wenig diese bislang zu leisten vermochte, um künstliche Intelligenz, also intelligente Maschinen, hervorzubringen – großen Erwartungen und Big Data zum Trotz. Er zeigt, dass anspruchsvolle Mathematik und nackte Rechnerleistung nicht ausreichen, um ein tieferes Verständnis menschlicher Intelligenz zu gewinnen. Auch mit hochverfeinerten Methoden und hochleistungsfähigen Rechnern lassen sich aus anschwellenden Datenmengen nur begrenzte Erkenntnisse gewinnen – und dies auch nur, wenn man mit der gebotenen Sorgfalt vorgeht.

PDF: 0,00 €

Erschienen in
Berliner Debatte 1 | 2020
Digitale Dystopien
168 Seiten

Digitale Dystopien utopisch aufheben – durch gesellschaftliche Aneignung

14 Seiten | Autor: Magnus Kulke, Christian Wadephul

Wer an konkrete Utopien glaubt, muss sich zwei grundsätzlichen Problemen stellen: Was als utopisch bzw. dystopisch zu gelten hat, ist erstens perspektivabhängig. Des einen Utopie, des anderen Dystopie, könnte man sagen. Zweitens ist immer ein Umschlagen von Utopie in Dystopie möglich. So schlägt algorithmische Objektivität in statistische Verzerrung, Fairness in algorithmenbasierte Diskriminierung um. Aus Demokratie und freiem Markt werden Überwachungskapitalismus und monopolistische Plattformökonomie. Doch wäre nicht auch ein Umschlagen vice versa möglich? Also von der fremdbestimmenden Kontroll-Dystopie in eine zu planende Utopie? Könnten neue digitale Technologien mit algorithmen- und datenbasierten Echtzeit-Verfahren bessere Lösungen für die ökonomischen Probleme unserer komplexen Gesellschaft liefern als die gute alte freie Marktwirtschaft? Welche Rolle spielt die Kybernetik für eine anzustrebende deliberative Wirtschaftsdemokratie? Diesen Fragen gehen Magnus Kulke, Christian Wadephul in diesem Artikel nach.

PDF: 0,00 €

Erschienen in
Berliner Debatte 1 | 2020
Digitale Dystopien
168 Seiten

Alles nur Datenschutz?

Zur rechtlichen Regulierung algorithmenbasierter Wissensgenerierung

16 Seiten | Autor: Roland Broemel, Hans-Heinrich Trute

Wissensgenerierung unter Einsatz von Algorithmen ist zwar keine gänzlich neue Praxis, wohl aber eine, deren Bedeutung zunimmt und deren Reichweite erst langsam in den Fokus der rechtswissenschaftlichen Beobachtung rückt. Anders als in den USA, wo es seit Jahren eine lebhafte Debatte um den Einsatz und mögliche Regulierungsnotwendigkeiten von Algorithmen gibt, dominiert in Deutschland der datenschutzrechtliche Aspekt. Damit wird eine inputorientierte Problemperspektive gewählt. Es liegt allerdings auf der Hand, dass zentrale Prämissen des Datenschutzrechts brüchig werden, in einer digitalisierten Welt, in der der Einzelne nicht selten „freiwillig“ und freigiebig Datenspuren hinterlässt. Am Beispiel von Scoring-Technologien (etwa bei der Beurteilung der Kreditwürdigkeit) wird deutlich, dass es oftmals nicht auf personenbezogene Daten (und ihre Kumulation) ankommt. Die anonymisierte Clusterbildung über algorithmisierte Wissensgenerierung kann zur Bildung von Klassifikationen führen, die dem Einzelnen als Wissensbestände einer Risikoeinschätzung gegenübertreten, ohne dass die Betroffenen die Konstitutionsbedingungen übersehen können. Über die Begrenzung des Inputs an personenbezogenen Daten ist dies nicht zu steuern.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten