2016

bbw Hochschule 3 | 2016

Nachhaltigkeit im Tourismus

Autor: Lisa Zander

ISBN 978-3-945878-15-6 | 85 Seiten

Nachhaltigkeit gilt heute als ein maßgebliches Kriterium für das Image von Unternehmen. Auch im Tourismus geraten soziale Ungleichheiten, Werteverlust und Umweltschäden zunehmend in den Blickpunkt der Debatte. Die Kreuzschifffahrt als Phänomen des Massentourismus ist hiervon besonders betroffen. In ihrer Analyse untersucht Lisa Zander, inwieweit die Kreuzfahrtindustrie den Aspekt der Nachhaltigkeit bereits berücksichtigt. Sie entwickelt eingängige Kriterien, um die Unternehmen zu prüfen und zu bewerten. Im Fokus stehen dabei die ökonomischen, ökologischen und sozialen Auswirkungen der Kreuzfahrt.

bbw Hochschule 4 | 2016

Die deutsche Rohstoffstrategie

ISBN 978-3-945878-20-0 | 114 Seiten

Die deutsche Wirtschaft braucht Rohstoffe. Während diese im 20. Jahrhundert im Überfluss zur Verfügung standen, haben die Globalisierung und die Entwicklung zukunftsweisender Technologien inzwischen zu einer erheblichen Konkurrenz auf den Weltmärkten geführt. Die Bundesregierung begegnet dieser unsicheren Versorgungslage seit 2010 mit dem Instrument der bilateralen Rohstoffpartnerschaften. Die vorliegende Studie stellt diese Strategie auf den Prüfstand, analysiert die Stärken und Schwächen der bisherigen Verträge und entwirft Handlungsempfehlungen für eine künftige Rohstoffpolitik.

bbw Hochschule 5 | 2016

Fraud-Management in Online-Handel und Logistik

ISBN 978-3-945878-27-9 | 93 Seiten

Der Online-Handel gewinnt durch die modernen Informations- und Kommunikationstechnologien stetig an Bedeutung, bietet gleichzeitig jedoch eine wachsende Angriffsfläche für Cyberkriminalität. Während das Thema innerhalb der Branche weitgehend tabuisiert wird, liegt das geschätzte Schadensvolumen durch Cyber-Fraud weltweit bereits bei 290 Milliarden Euro. Auf Basis verschiedener Zukunftsszenarien analysiert die vorliegende Studie die Schwachstellen des E-Commerce und seiner nachgelagerten logistischen Prozesse bis in das Jahr 2025 und entwickelt Maßnahmen und Lösungsansätze zur strategischen Prävention von Fraud in Online-Handel und Logistik.

bbw Hochschule 6 | 2016

Entrepreneurship im deutschen Mittelstand

Autor: Laura Wilke

ISBN 978-3-945878-32-3 | 109 Seiten

Existenzgründungen sind Motor der wirtschaftlichen Entwicklung. Neugründungen gehen mit erhöhtem Wettbewerb, neuen Produkten und Arbeitsplätzen einher. Ein erfolgreiches Unternehmen muss dabei eine Vielzahl an Herausforderungen meistern: Konkurrenzdruck, ungenügende Innovationsfähigkeit, aber auch fehlende Kompetenzen und persönliche Eigenschaften des Entrepreneurs. Die Studie analysiert mithilfe des Entrepreneurial Mindset Profil die Rolle des Gründers für den Erfolg eines Unternehmens, den Unterschied zwischen Unternehmens- und Managerprofilen sowie die Faktoren, die für eine erfolgreiche Unternehmensgründung von Bedeutung sind.

Systematisches und alphabetisches Jahresinhaltsverzeichnis

27. Jahrgang 2016

6 Seiten | Autor:

Schlagworte:

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Big Data als Theorieersatz?

8 Seiten | Autor: Gregor Ritschel, Thomas Müller

Seit einigen Jahren lässt sich ein regelrechter Medienhype um „Big Data“ beobachten. Neonfarbene Nullen und Einsen rauschen, als Sinnbild allgegenwärtiger, aber schwer erfahrbarer Datenströme, über Zeitschriftencover oder Fernsehschirme. Jene Bilderwelt zeugt von Neugier, aber auch von einer gewissen Hilflosigkeit. Wirtschaft, Politik, Alltagskommunikation, Öffentlichkeit, Kultur und Sport – all das wird von Big Data Schritt für Schritt durchdrungen. Doch was bedeutet Big Data für Wissenschaft und Forschung, vor allem: für die Sozial- und Geisteswissenschaften? Diese Frage steht im Mittelpunkt des vorliegenden Themenschwerpunkts. Einleitend diskutieren Gregor Ritschel und Thomas Müller die provokante These ,wonach die von Algorithmen aufbereitete Suche nach Korrelationen die alte Welt der Theorie hinter sich gelassen habe. Kann heute die Realität in Echtzeit erfasst werden? Sprechen digitale Daten für sich? Und wie verschieben sich Macht und Mittel in den Sozial- und Geisteswissenschaften?

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Big Data: Informatisierung der Gesellschaft 4.0

10 Seiten | Autor: Jan-Felix Schrape

Der Beitrag gibt einen Überblick über vier Phasen der Informatisierung der Gesellschaft seit der Etablierung der ersten digitalen Computer, die von intensiven Diskussionen um die anwachsenden Daten- und Informationsfluten begleitet worden sind. Dabei zeigt sich, dass sich im aktuellen Diskurs um „Big Data“ viele der dystopischen und utopischen Erwartungen widerspiegeln, die bereits ab den 1960er-Jahren mit Computern und digitale Massendaten verknüpft wurden – von der Angst vor einem Totalverlust der Privatsphäre bis hin zu vielfältigen Hoffnungen auf Demokratisierung und Dezentralisierung. Angesichts dieser Kontinuitäten bleibt ein synthetisierender sozialwissenschaftlicher Blick unabdingbar, um den gegenwärtigen Wandel kritisch beobachten und Technikphantasmen entzaubern zu können.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Zur Veränderung des Theoriebegriffs im Zeitalter von Big Data und effizienten Algorithmen

13 Seiten | Autor: Klaus Mainzer

Wir leben in einem datengetriebenen Zeitalter, dessen Entwicklung durch exponentielle Wachstumsgesetze von Datenmengen, Rechner- und Speicherkapazitäten beschleunigt wird. Manchen Autoren halten theoretische Fundierungen bereits für überflüssig, da in der Wirtschaft immer effizientere Algorithmen immer schneller immer bessere Kunden- und Produktprofile voraussagen. In der Wissenschaft prophezeien Autoren wie S. Wolfram eine neue Form der Forschung, die ebenfalls nur noch auf effiziente Algorithmen und Computerexperimente setzen, die angeblich „traditionelle“ mathematische Theorien überflüssig machen. Diese Parolen sind brandgefährlich, haben aber einen richtigen Kern. Gefährlich sind diese Positionen, weil Theorien ohne Daten zwar leer sind, aber Daten und Algorithmen ohne Theorie blind bleiben und unserer Kontrolle entgleiten. Richtig ist, dass sich der traditionelle Theoriebegriff in vielfacher Weise verändert, sowohl beim Entdecken und Finden von Hypothesen durch Machine Learning als auch bei theoretischen Erklärungen durch Computerexperimente und der Voraussage durch Predictive Analytics. Entscheidend ist aber vor allem die Prüfung und Kontrolle von Algorithmen, die durch neuartige Theorien möglich werden. Nur so können wir sicher sein, dass uns am Ende Big Data mit ihren Algorithmen nicht um die Ohren fliegen.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Führt Big Data zur abduktiven Wende in den Wissenschaften?

15 Seiten | Autor: Christian Wadephul

Big Data als Theorieersatz? Mitnichten! Big Data-Analysen (BDA) können im schlechtesten Fall zur Apophänie führen, im besten Fall zu einer neuen deskriptiven Perspektive auf Datensätze – sie geben aber niemals kausale Erklärungen oder rationale Begründungen. Bedeutung erlangen sie nur innerhalb eines Theorierahmens. Inwiefern Big Data dennoch eine methodische Herausforderung für die Wissenschaft ist, soll im Folgenden dargelegt werden. Dazu werden die (technischen) Voraussetzungen von BDA-Methoden grob skizziert – vor allem maschinell lernende Artefakte (MLA). Diese ‚lernen’ abduktiv. Was bedeutet die abduktive Wende in der KI-Forschung? Was könn(t)en BDA als (interdisziplinäres) abduktiv-exploratives Forschungsinstrument methodologisch auch für die (Sozial-)Wissenschaft leisten? Welche wissenschaftstheoretischen Probleme daten-basierter Informationsgewinnung gilt es zu beachten? Kommt es durch BDA und MLA zu einer Prekarisierung von Wissenschaft durch fehlende Kontrolle und Überprüfbarkeit – bei gleichzeitiger Erwartung einer Angemessenheit von BDA-Ergebnissen?

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten

Alles nur Datenschutz?

Zur rechtlichen Regulierung algorithmenbasierter Wissensgenerierung

16 Seiten | Autor: Roland Broemel, Hans-Heinrich Trute

Wissensgenerierung unter Einsatz von Algorithmen ist zwar keine gänzlich neue Praxis, wohl aber eine, deren Bedeutung zunimmt und deren Reichweite erst langsam in den Fokus der rechtswissenschaftlichen Beobachtung rückt. Anders als in den USA, wo es seit Jahren eine lebhafte Debatte um den Einsatz und mögliche Regulierungsnotwendigkeiten von Algorithmen gibt, dominiert in Deutschland der datenschutzrechtliche Aspekt. Damit wird eine inputorientierte Problemperspektive gewählt. Es liegt allerdings auf der Hand, dass zentrale Prämissen des Datenschutzrechts brüchig werden, in einer digitalisierten Welt, in der der Einzelne nicht selten „freiwillig“ und freigiebig Datenspuren hinterlässt. Am Beispiel von Scoring-Technologien (etwa bei der Beurteilung der Kreditwürdigkeit) wird deutlich, dass es oftmals nicht auf personenbezogene Daten (und ihre Kumulation) ankommt. Die anonymisierte Clusterbildung über algorithmisierte Wissensgenerierung kann zur Bildung von Klassifikationen führen, die dem Einzelnen als Wissensbestände einer Risikoeinschätzung gegenübertreten, ohne dass die Betroffenen die Konstitutionsbedingungen übersehen können. Über die Begrenzung des Inputs an personenbezogenen Daten ist dies nicht zu steuern.

PDF: 0,00 €

Erschienen in
Berliner Debatte 4 | 2016
Big Data als Theorieersatz
146 Seiten