Künstliche Intelligenz: Bedrohung oder Allheilmitte

Veröffentlicht von: Progress Austria am Donnerstag, November 28, 2019

Autor: David Jeuschnigger, Volksökonom

 


360 Grad. Ultraschallsensoren, Kameras und unterschiedliche Radare decken jeden Winkel ab – egal ob vor, hinter oder neben dem Auto – kein Zentimeter bleibt unentdeckt. Die gewonnen Bilder und Werte werden von Algorithmen, die zum Bereich der künstlichen Intelligenz zählen, in Informationen umgewandelt. Durch die Echtzeitauswertung der Daten weiß der Bordcomputer des Fahrzeuges wie breit der Fahrstreifen ist, was für eine Geschwindigkeitsbegrenzung gilt und ob sich ein Gegenstand oder eine Person in der Nähe des Autos befindet. Basierend auf den vorliegenden Erkenntnissen kann das Fahrzeug selbstständig Entscheidungen treffen – etwa ob es beschleunigen, bremsen oder lenken muss – und dies ist nur ein kleiner Ausblick auf die zahlreichen Möglichkeiten von datenbasierter Entscheidungsfindung.

 

Neben dem autonomen Fahren zählen auch Sprachassistenten, smart Home und das Internet der Dinge zu den Begriffen, welche das letzte Jahrzehnt stark prägten. Alle diese Schlagwörter vereint, dass sie auf der Idee von vernetzten Geräten basieren, welche im ständigen Datenaustausch miteinander sind. Diese Weiterentwicklung von isolierten Geräten schafft exponentiell steigende Datenmenge, im Volksmund oft als Big Data bezeichnet werden, eine verhängnisvolle Namensgebung, wie es sich im Verlauf dieses Artikels herausstellen wird. Denn der Knackpunkt an dieser Datenmenge ist, dass es sehr lange dauern würde, bis Menschen diese zur Gänze analysiert haben. Eine perfekte Ausgangslage für künstliche Intelligenz.

Doch was ist künstliche Intelligenz nun wirklich?

 

Während es viele verschiedene Definitionen für künstliche Intelligenz oder der englischen Bezeichnung „Artificial Intelligence“ gibt, liefert Gartner (2019) eine in der Wirtschaft allgemein akzeptierte:

“Artificial intelligence (AI) applies advanced analysis and logic-based techniques, including machine learning, to interpret events, support and automate decisions, and take actions.”

 

Entgegen vielen Interpretationen sollte dieses Schlagwortes eher als datenbasierte Entscheidungshilfe, denn als „digitale Supermacht“ interpretiert werden. Der Grund hierfür ist, dass Entscheidungen dieser künstlichen Intelligenz unter anderem auf statistischem Lernen und logikbasierten Techniken wie Expertensystemen basieren, nichts wozu nicht auch Menschen fähig sind.

Boom von künstlicher Intelligenz durch Big Data und stärkere Rechenleistung

Die ersten Algorithmen, welche dem maschinellen Lernen zugeordnet werden, wurden bereits in den 50er Jahren entwickelt und erprobt. Zu diesem Zeitpunkt waren Computer jedoch noch in einer sehr rudimentären Phase ihres Bestehens und daher auch Daten kaum erhältlich. Durch die kontinuierliche Weiterentwicklung der Computer und Speichermedien – vom USB-Stick bis zur NoSQL Datenbank – haben sich die Voraussetzung der Datenspeicherung seither wesentlich verändert.

Ein weiterer Punkt war die zunehmende Verbreitung des Internets mit Suchmaschinen, sozialen Netzwerken und vielen weiteren Facetten, wodurch sich die Datenmenge exponentiell vermehrte. Im Volksmunde wird dies oft als Big Data bezeichnet, eine etwas ungünstige Bezeichnung. Übersetzt man Big Data wortwörtlich bedeutet es zwar „große Datenmenge“, tatsächlich verstecken sich jedoch drei große Aspekte hinter diesem Begriff.

 

Der Erste befasst sich mit den Daten selbst: Neben dem Volumen der Daten bilden Geschwindigkeit, Vielfalt (Datenformate), Richtigkeit, Wert der Daten und die Volatilität des Datenstroms diesen Aspekt von Big Data ab. Es gibt keine eindeutige Definition, welche von diesen Attributen zu welchem Teil vorhanden sein muss, dass diese Daten als Big Data bezeichnet werden. Zudem kommt die Komplexität, dass Größe relativ ist und das Fassungsvermögen der Datenspeicher rasant anwächst. So wurde vor 15 Jahren 1 GB als sehr groß angesehen und teuer waren, während heutzutage 128 GB USB-Sticks günstig (unter 11 Euro) erhältlich sind. Eine Richtungsweisung, ab wann Daten als Big Data bezeichnet werden sollten, ist der „Three-V tipping Point“. Dieser besagt, dass an jenem Punkt, wo traditionelle Analysen nicht mehr ausreichen, Big Data beginnt. Das ist eine sehr dynamische, aber zugegebener Weise relativ schwammige Definition.

 

Effiziente Informationsverarbeitung ist der zweite Aspekt von Big Data. Aufgrund von Größe und unterschiedlichen Datenformaten stoßen traditionelle Datenanalysetools schnell an ihre Grenzen. Eines, wenn nicht das weitverbreitetste Tool zur Datenanalyse – Excel – hat ein Limit von 1,048,576 Zeilen. Selbst wenn diese nur eine Million Datensätze haben, wird sehr schnell klar, dass die Performance viel Optimierungspotenzial aufweist. Eine Möglichkeit der effizienten Datenverarbeitung findet sich in SQL und NoSQL Datenbanken.

Der dritte Aspekt setzt sich mit den tiefgründigen Einsichten und dem Entscheidungsprozess auseinander. Die Datenspeicherung ist nur das Mittel zum Zweck. Der wahre Wert der Daten entfaltet sich erst, wenn Informationen aus diesen extrahiert werden, um Wissen zu generieren. Die Ergebnisse dieses Prozesses können sich in verschiedenster Form offenbaren, von der spezifischen Werbeschaltung, über Kosteneinsparungen oder Reduktion des Kreditausfallsrisikos, um nur einen kleinen Teil der unzähligen Möglichkeiten zu nennen.

Ein weiterer fundamentaler Grund, welcher zu dem Boom nach künstlicher Intelligenz beiträgt, ist die zunehmende Recheneffizienz. Traditionell verwenden Computer ihre Central Processing Units (CPUs) um Berechnungen vorzunehmen. Während diese, ebenso wie die Speicherkapazität zunehmend größer wurde, stieg auch die Effizienz der Berechnungen. Die wesentliche Schwäche dieser CPUs ist, dass sie nur eine sehr limitierte Anzahl an Berechnungen parallel durchführen können. Um diese Beschränkungen zu überwinden wurden, mitverursacht durch den Blockchain Boom, sogenannte Graphics Processing Units (GPUs) immer interessanter, da diese viele Prozesse parallel ausführen können. Diese in Grafikkarten enthaltenen GPUs sind aufgrund der Anzahl der Operationen, welche parallelisiert werden können, besonders wichtig für das statistische Lernen, da hier eine große Anzahl an Berechnungen gleichzeitig anfallen. Diese Effizienzsteigerung wurde durch riesige Rechenzentren – besser unter den bildhaften Begriff als „die Cloud“ bekannt – weiter verstärkt.

 

Künstliche Intelligenz: Eine Bedrohung der Menschheit?

Im Gegensatz zu vielen traditionellen Methoden setzt sich künstliche Intelligenz mit der Zukunft auseinander. In Anlehnung an die Science-Fiction Darstellungen von künstlicher Intelligenz ist diese wirklich „übermenschlich“, da es kaum Menschen gibt, welche mit den Rechenkapazitäten von modernen Computern mithalten können. Zwar können viele Menschen die Rechenoperationen, welche hinter den Algorithmen des statistischen Lernens stehen, nachvollziehen und nachrechnen, diese jedoch nie so schnell wie ein Computer durchführen.

Sehr vereinfacht gesagt, sind das Ergebnis von Algorithmen ein oder mehrere Werte, in Form einer Zahl oder einer Bezeichnung. Bei komplexeren Aneinanderreihungen von Algorithmen können verschiedenste Varianten – zum Beispiel alle möglichen Spielzüge im Schach – und deren Erfolgsmöglichkeiten gegenübergestellt werden, um die erfolgreichste Variante auszuführen. Derzeit werden vor allem Computerspiele als „Spielwiese“ für KI-Algorithmen sowie Open AI in Dota 2 oder Alpha Star (von Google AI Labs) – welches bereits den Grandmaster (besser als 99.8% aller Spieler) Status in StarCraft 2 erreicht hat – verwendet. Bis zum vollständig automatisierten Einsatz dieser Algorithmen in der Geschäftswelt wird jedoch noch ein wenig Zeit vergehen, da diese Spiele zwar sehr komplex, jedoch mit der Komplexität der realen Welt gar nicht vergleichbar sind.

 

Ein weiterer Knackpunkt ist die Evaluierung, ob die Entscheidungen der Algorithmen auch unter diesen schwierigen Bedingungen richtig sind. Traditionellerweise erkennen die in der künstlichen Intelligenz eingesetzten Algorithmen Muster in historischen Daten und versuchen diese für zukünftige Datenströme zu replizieren. Dies gelingt jedoch nur zu über einen gewissen Zeitraum, bevor sich wesentliche Umweltparameter ändern zum Beispiel durch Gesetzesumstellungen oder Innovationen. Aus diesem Grund werden sogenannte Data Scientists benötigt, um die Schwachstellen der Algorithmen zu identifizieren, diese zu beseitigen und die Ergebnisse zu überprüfen.

Während künstliche Intelligenz zwar keine Bedrohung im existenziellen Sinn darstellt, wirkt sich diese jedoch stark auf das Berufsfeld aus. Zum einen werden zusätzliche hochqualifizierte Jobs geschaffen; zum anderen kommt es durch die Einführung dieser Technologien langfristig zu einer Rationalisierung von niedrig qualifizierten Jobs. Der Grund hierfür ist, dass vor allem einfache und repetitive Arbeiten zunehmend automatisiert werden, wodurch weniger Arbeitskräfte für diese benötigt werden. Nichtsdestotrotz müssen wir uns nicht vor der Herrschaft der Maschinen fürchten, da künstliche Intelligenz eine Entscheidungsstützung darstellt und auch langfristig menschlicher Input sowie menschliche Entscheidungsfindung gebraucht werden. Kurz zusammengefasst ist künstliche Intelligenz daher weder eine große Bedrohung, noch ein Allheilmittel, sondern kann eher als eine Chance für Effizienzsteigerung gesehen werden.

 

 

Quellen

Gartner Research. (2019, Dezember 10). Glossary: Keyword: Artificial Intelligence. Abgerufen von https://www.gartner.com/en/information-technology/glossary/artificial-intelligence.

 


Progress Austria

Progress Austria

© Jugendpolitische Thinktank Progress Austria 2016

© Progress Austria