Zur Veränderung des Theoriebegriffs im Zeitalter von Big Data und effizienten Algorithmen
13 Seiten | Autor: Klaus Mainzer
Wir leben in einem datengetriebenen Zeitalter, dessen Entwicklung durch exponentielle Wachstumsgesetze von Datenmengen, Rechner- und Speicherkapazitäten beschleunigt wird. Manchen Autoren halten theoretische Fundierungen bereits für überflüssig, da in der Wirtschaft immer effizientere Algorithmen immer schneller immer bessere Kunden- und Produktprofile voraussagen. In der Wissenschaft prophezeien Autoren wie S. Wolfram eine neue Form der Forschung, die ebenfalls nur noch auf effiziente Algorithmen und Computerexperimente setzen, die angeblich „traditionelle“ mathematische Theorien überflüssig machen. Diese Parolen sind brandgefährlich, haben aber einen richtigen Kern. Gefährlich sind diese Positionen, weil Theorien ohne Daten zwar leer sind, aber Daten und Algorithmen ohne Theorie blind bleiben und unserer Kontrolle entgleiten. Richtig ist, dass sich der traditionelle Theoriebegriff in vielfacher Weise verändert, sowohl beim Entdecken und Finden von Hypothesen durch Machine Learning als auch bei theoretischen Erklärungen durch Computerexperimente und der Voraussage durch Predictive Analytics. Entscheidend ist aber vor allem die Prüfung und Kontrolle von Algorithmen, die durch neuartige Theorien möglich werden. Nur so können wir sicher sein, dass uns am Ende Big Data mit ihren Algorithmen nicht um die Ohren fliegen.
PDF: 4,00 €
Ähnliche Inhalte
- ‹ vorherige Seite
- 4 von 52
- nächste Seite ›