Unsere
Standortbestimmung
für Ihre Zukunft

Big Data

Fluch oder Segen der intelligenten Algorithmen?

| Autor / Redakteur: Florian Buschbacher / Peter Schmitz

Für Unternehmen wird Big Data zum zentralen Dreh- und Angelpunkt werden, erfordert aber auch eine gesellschaftliche Diskussion, denn Algorithmen können helfen, aber auch diskriminieren.
Für Unternehmen wird Big Data zum zentralen Dreh- und Angelpunkt werden, erfordert aber auch eine gesellschaftliche Diskussion, denn Algorithmen können helfen, aber auch diskriminieren. (Bild: © LaCozza - Fotolia)

Big Data ist so etwas wie der heilige Gral der Wirtschaft. In einer digital vernetzten Welt fallen ständig neue Daten an. Unternehmen wollen wirtschaftlich relevante Informationen aus diesen unterschiedlich strukturierten Daten gewinnen. Was vielversprechend klingt, birgt aber auch ein hohes Risiko- und Missbrauchspotenzial.

Sie können Vorhersagen treffen, ideale Kundengruppen identifizieren oder neue, noch im Verborgenen liegende Produkte erkennen. Intelligente Algorithmen sind der Motor jeder Digitalisierungsstrategie. Unter intelligenten Algorithmen sind mathematisch-statistische Verfahren zu verstehen, die aus schier unendlich vielen Daten neue Erkenntnisse gewinnen. Das kann in Echtzeit geschehen, aber auch auf Basis vieler historischer Daten.

Intelligente Algorithmen schaffen dadurch Kundennutzen, identifizieren neue Produkte und Services und können Kunden so stärker an ein Unternehmen binden. Algorithmen bestimmen unser Leben. Sämtliche Entwicklungen – von Connected Cars über autonomes Fahren, vorausschauende Wartung von Maschinen und Anlagen oder Industrie 4.0 – bestehen aus Algorithmen. Dies geschieht teils zum Nutzen für die Unternehmen, etwa in Form von Gewinnmaximierung oder genauem Wissen über Interessen und Vorlieben der Kunden, teils aber auch zum Nutzen der Verbraucher, wenn sie Produkte, Dienstleistungen oder Informationen zielgenauer finden können.

Diese Algorithmen sind jedoch von Spezialisten mathematisch-statistisch modelliert und in die Programmierung überführt. Jedes einzelne fach­liche Problem muss seinen eigenen individuellen Algorithmus haben. Aus Sicht von Experten ist die Basis zur Lösung einer Fragestellung und damit zur erfolgreichen Entwicklung neuer Produkte und Lösungen stets das zugrunde liegende Datenmodell.

Durch die Medienberichte des im Mai 2016 tödlich verunfallten Tesla-Fahrers hat zumindest eine breitere Öffentlichkeit erkannt: Technologie kann funktionieren, man muss sie aber auch beherrschen. Kritisch ist hierbei nicht zwingenderweise der Unfall an sich: Der Fahrer des Tesla hatte vollständig auf den Autopilot vertraut und der Algorithmus zur Gefahrenerkennung hatte einen weißen, querstehenden Laster nicht erkannt, sondern eine Brücke vermutet. Kritisch ist vielmehr die Tatsache, dass der Algorithmus zur autonomen Fahrfunktion den Unfall gar nicht erkannt hatte, sondern das Auto weiterfahren ließ. Autonomes Fahren ist also wie jede Big-Data-Anwendung ein Segen für viele, kann aber für manche auch zum Fluch werden.

Ein Beispiel: Die Kreditwürdigkeit und die Zahlungsmoral von Personen und Unternehmen werden heute schon beim Aufruf eines Webshops in Echtzeit berechnet. Ein Einloggen ist oft gar nicht mehr nötig. Hierzu werden Daten wie Session-ID, IP-Adresse, letzter Log-in, Dauer des Aufenthalts, Anzahl von Rücksendungen, Tage der ausstehenden Rechnung und viele weitere Merkmale genutzt. Damit sorgen Algorithmen für eine Trennung in „gut“ oder „schlecht“, was bei „Dynamic-Pricing“-Modellen dazu führen kann, dass „schlechten“ Kunden höhere Preise angezeigt werden als „guten“. Die Algorithmen sind so ausgefeilt, dass diese auch erkennen, ob die schlechte Zahlungsmoral eventuell auf Schul­ferien oder Reisen zurückzuführen ist. Die Gefahr besteht aber auch hier in falschen Analysen. Man muss also sehr transparent mit Algorithmen umgehen.

Ergänzendes zum Thema
 
Big Data: Einsatz in Unternehmen

Vor diesem Hintergrund sollte sich die öffentliche Diskussion in Zukunft noch stärker mit Algorithmen auseinandersetzen und den Willen noch stärker zum Ausdruck bringen, die Algorithmen „zu lenken“. Dies kann auch dadurch unterstützt werden, dass die Auseinandersetzung mit Algorithmen jenseits der rein technischen Funktion in die Lehrpläne der Schulen aufgenommen wird.

So ist auch bei Big Data jeweils der Anwendungszweck maßgeblich und das zugrunde gelegte Handwerkszeug derjenigen, die ein Problem lösen. Für Laien ist oft nicht ersichtlich, ob die Lösung wirklich gut ist. Und dies steigert das Risiko, etwas für gut Befundenes plötzlich zum Gegenteil werden zu lassen. Deshalb sind vor allem drei Dinge ratsam: Erstens gilt es, Transparenz zu schaffen und Algorithmen, Datenmodelle sowie Ziel und Zweck der Analyse deutlich zu machen. Zweitens ist es wichtig, Analysen unvoreingenommen zu interpretieren und auch die Möglichkeit fehlerhafter Analyse­ergebnisse einzuräumen. Und drittens sollte eine Big-Data-Ethik, überwacht durch ein staatliches Gremium, eingeführt werden.

Statistische Analysen und Korrelationen von Kriminalfällen helfen heute schon weltweit Städten und Regierungen dabei, ihre Polizeistrategie von einer reaktiven hin zu einer proaktiven Planung zu optimieren. Zukünftig sollen Echtzeitdatenverarbeitung und Big-Data-Analysen dabei helfen, den Schritt hin zur vorausschauenden Planung aller Einsatzkräfte zu gehen, zum sogenannten „Predictive Crime Fighting“. Erste Systeme gibt es bereits, die Echtzeitdaten und selbstlernende Systeme mit historischen Daten verbinden und daraus Vorhersagen für mögliche Trends in der Kriminalitätsentwicklung erzeugen. Ziel soll es sein, Kriminalitäts-Hotspots schon frühzeitig zu erkennen, bevor sie sich verfestigen und auf dieser Grundlage die Einsatzkräfte möglichst effizient zu verteilen. Aber Algorithmen über die Vorhersagen von Verbrechen können auch ins Gegenteil gedreht werden. Man stelle sich vor, Kriminelle hätten Zugriff auf solch ein Datenmodell und könnten anhand der Verteilung der Polizeikräfte und Risikokarten ihre Einbrüche gezielt dort planen, wo weniger Polizei anwesend ist: Das wäre dann die Kehrseite der Medaille.

Es ist schon jetzt klar, dass das Datensammeln und die Analyse dieser Datenmengen zu viele Vorteile hat, um den „Geist jetzt wieder zurück in die Flasche“ zu bekommen. Für Unternehmen wird Big Data zum zentralen Dreh- und Angelpunkt werden, um das eigene digitale Ökosystem weiter auszubauen, neue Produkte und Dienstleistungen zu entwickeln und sich sogar ganz neue Märkte zu erschließen.

Es geht also nicht darum, ob Big Data Fluch oder Segen bedeutet. Es geht um die gesellschaftliche Auseinandersetzung mit der Fragestellung. So hat Bundesverkehrsminister Alexander Dobrindt die Idee einer Ethikkommision für Algorithmen vorgeschlagen. Ähnlich den Verbraucherschutzverbänden könnten selbstorganisierte Gruppen einer solchen Ethikkommission mit Rat und Tat zur Seite stehen. Big Data ist also ein Segen und Arbeit gegen den Fluch. Denn Algorithmen können helfen, aber auch diskriminieren.

* Florian Buschbacher ist stellvertretender Vorsitzender des Bitkom-Arbeitskreises Big Data & Advanced Analytics

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44514116 / Vernetzte Welten)