Artificial Intelligence neuronale Netzwerke evolutionären Algorithmen

Künstliche Intelligenz (KI): Über­mensch­li­ches in Bits und Bytes?

Die Weiterentwicklung der Künstlichen Intelligenz hat die Schwelle zur Kommerzialisierung überschritten und damit das Nischendasein in der Forschung verlassen. IT-Riesen wie Google, Facebook, IBM und Amazon investieren hier immense Beträge und präsentieren richtungsweisende Erfolge, die teils als Open-Source zugänglich gemacht werden. Es scheint, dass in dem Bereich spannende Zeiten anstehen.

Rechenleistung al­lei­ne schafft kei­ne Künst­li­che In­tel­li­genz

Der Begriff der menschlichen Intelligenz beschreibt insbesondere die Fähigkeit, Probleme zu erkennen, zu analysieren und zu lösen. Abstrakt zu denken, komplexe Zusammenhänge zu verstehen und aus Erfahrung zu lernen, gehören dabei zu den Werkzeugen der intelligenten Problemlösung. Es geht nicht lediglich darum, beigebrachtes Wissen wiederzugeben. Vielmehr versteht man unter Intelligenz die Fähigkeit, umfassend Zusammenhänge in Sinn und Inhalt zu reflektieren und kognitiv sowie entscheidungsfähig Lösungsansätze zu erarbeiten.

Wenn Computerprogramme diese Fähigkeit nachbilden können, spricht man von Künstlicher Intelligenz (KI) bzw. Artificial Intelligence (AI). Assoziiert wird häufig das Bild des Menschen als Maschine. Der Forschungszweig der künstlichen Intelligenz beschäftigt sich als Teilbereich der Informatik mit der Entwicklung von Computersystemen, die selbständig Aufgaben lösen, für die bisher menschliche Logik nötig war. Es geht folglich um die automatisierte Nachahmung intelligenter menschlicher Denkmuster, zu denen auch Spracherkennung, Kreativität, Lernen aus Erfahrung, Bewusstsein und Emotionen gehören. Systeme werden dahingehend programmiert, Probleme zu lösen oder Fehler zu beheben. Daher spielen für diesen Forschungsbereich ebenfalls Elemente der kognitiven Psychologie und Neurologie eine entscheidende Rolle. Angesichts der schier unendlichen Möglichkeiten, befindet sich die sogenannte starke KI am Anfang ihres Schöpfungsprozesses, denn wenn es darum geht, höhere kognitive Prozesse oder gar künstliches Bewusstsein zu kreieren, steht die Wissenschaft noch ganz am Anfang.

Klar abzugrenzen davon ist eine effektvoll vorgetäuschte Leistung, die intelligentes Verhalten durch simple Algorithmen simuliert und insbesondere bei Computerspielen vorkommt. Damit ist die Intelligenz auf die Simulation einer intelligenten Handlung oder die Ausführung bestimmter komplexer Aktivitäten spezialisiert, zu der typischerweise ein oder mehrere Menschen wesentlich mehr Zeit bräuchten. Häufig wird diese Form der schwachen KI zur Optimierung oder für komplexe Expertensysteme angewendet.

Vision trifft auf Reali­tät

An Visionen mangelt es seit Jahrzehnten nun wirklich nicht. Obwohl KI bereits seit dem zweiten Weltkrieg intensiv erforscht wird, gab es lange keine konkreten Anwendungsziele. Dennoch oder vielleicht sogar genau aus diesem Grund, werden noch heute die Bemühungen kontrovers beurteilt, nicht zuletzt in zahlreichen visionären Verfilmungen. Zu einem der ersten zählt „A Space Odyssey“ von 1968. Eine spannende Rolle spielt hier der Supercomputer HAL, der mittels künstlicher Intelligenz ein Raumschiff eigenständig steuert und nach und nach sogar ein gefährliches Eigenleben entwickelt. Fasziniert und ängstlich zugleich blicken wir auf eine Zukunft, in der Maschinen und Systeme den Menschen kognitiv einholen, wenn nicht sogar überholen.

Weltweit beschäftigt dieses Thema inzwischen die Forscher. Auch Stephen Hawking, der auf eine künstliche Stimme angewiesen ist und seit kurzem dank intelligenter Systeme wesentlich schneller seine Bücher verfassen kann, befasst sich mit diesem Thema. Während uns primitive Systeme heute hilfreich im Alltag unterstützen, könnte umfassende künstliche Intelligenz tatsächlich das Ende der Menschheit einleiten, so seine These. Der Mensch, angewiesen auf die langsame evolutionäre Anpassung könnte der raschen Verselbständigung der KI nicht mehr folgen und würde verdrängt. Darüber, dass dies nicht unser erwünschtes Ziel ist, sind wir kulturübergreifend sicherlich alle einig, denn Technik, welcher Art auch immer, soll uns Menschen dienen.

Doch wie weit ist die Technik heute wirklich entwickelt und wie nah ist sie der menschlichen Intelligenz? Künstliche Intelligenz ist eine Idee, die während zahlreicher Hype-Zyklen über Jahrzehnte hinweg wiederholt den Anspruch hatte, dem Menschen komplexe Probleme und Sachverhalte zu erklären. Doch bisher dominierte Enttäuschung, da die Ergebnisse mangels Innovation dem Wesen einer komplexen Welt nicht wirklich gerecht wurden. Die KI-Forschung versprach immer neue und komplexere Algorithmen zu entwickeln, die jedoch kaum noch von den Menschen verstanden wurden, die sie anwenden wollten. Was ist heute anders? Warum glauben wir, dass das Aufkommen eines neuen Hochs das Versprechen einlösen kann, unsere Welt mit KI begreifbar zu machen?

KI bricht die Mau­ern der Be­schrän­kun­gen

Bis vor wenigen Jahren beschränkte sich die Anwendung der künstlichen Intelligenz vorrangig auf eine sehr eng gefasste Problemstellung, die nur teilweise die Attribute der KI repräsentiert hat. Die wesentlichen KI-Algorithmen nutzte man vorrangig für Optimierungsaufgaben oder als Expertensystem. Beiden gemeinsam war eine eng umrissene Fragestellung, deren Lösung einer ausgereiften Methodik (Arbeitsablauf) oder Wissenstiefe (Fakten) bedurfte.
Der Forschungsbereich des Operations Research beispielsweise, arbeitet vielfach Themen für diese Optimierungsaufgaben aus, die anschließend eine Aufgabenstellungen für die KI-Optimierung beschreiben. Dazu gehörten neben der dynamischen Programmierung auch weitverbreitete Suchalgorithmen, die häufig auf Heuristiken aufbauen. Die bekannteste ist das Trial-and-Error-Verfahren, das auch im menschlichen Denkmuster und Verhalten wiederfindet. Nicht nur aus diesem Grund bezeichnet man solche Suchverfahren als naturanaloge Algorithmen. Als bekannteste Klasse dieser sind die evolutionären Algorithmen zu nennen.
Expertensysteme hingegen zeichnen sich durch ihre Eigenschaft der logischen Schlussfolgerung aus. Hier wird das a priori Wissen (ohne Erfahrungen) eines bestimmten Fachgebiets formal als Regeln und Fakten repräsentiert. Die Abarbeitung der Regeln auf Grundlage gegebener Fakten ähnelt wiederum den logischen Denkprozessen eines Menschen.

Getrieben von exponentiellen, technologischen Fortschritten und Möglichkeiten (siehe Mooresches Gesetz) sind nun KI-Algorithmen wesentlich leistungsfähiger als noch vor wenigen Jahren. Benutzerfreundliche Komponenten für unterschiedliche Problemdomänen wie Erkennung, Sprache, Steuerung sowie Lernen und Verstehen können Millionen von Informationen (siehe Big Data) in nur Bruchteilen von Sekunden verarbeiten. Gerade die Verarbeitung von nicht-strukturierten Daten, um daraus Sachzusammenhänge und wahrscheinlichkeitsbasierte und nicht-lineare Schlussfolgerung zu erkennen, eröffnet uns heute Anwendungsmöglichkeiten, die vor wenigen Jahren noch undenkbar waren. Die massive parallele Verarbeitung dieser Lernalgorithmen bringt uns nun an eine Schwelle, von der aus eine nahezu gleichzeitige Bewertung zahlreicher Hypothesen und Wiedersprüche möglich wird. So können logische Entscheidungen in kürzester Zeit getroffen werden. Die Komplexität der Umwelt wird durch solche KI-Systeme für den Menschen überschaubarer, da diese ihre Entscheidungen nachvollziehbar darstellen können.

Computer müs­sen das Ler­nen er­ler­nen, Men­schen meis­tern dies in­tui­tiv

Die wesentliche Weiterentwicklung der künstlichen Intelligenz ist – neben der massiven, parallelen Verarbeitung durch verbesserte Computerleistung – die Fähigkeit der Generalisierung und des Lernens. Generalisierung bedeutet hier, aus der gegebenen Menge an Informationen (Fakten) die richtigen Folgerungen zu ziehen, um die Außenwelt in Form von Kausalzusammenhängen (Regeln) zu beschreiben. Die Maschine muss das für uns Selbstverständliche zunächst verstehen lernen. Wie ein Kleinkind bekommt es in einem ersten Schritt z.B. den Zusammenhang von Bildern und deren Bezeichnung beigebracht. Hier werden die essenziellen Informationen gespeichert und abstrahiert. Folglich werden aus ähnlichen Fakten Metadaten und Klassen gebildet, um auf diese in anderen Situationen wieder zugreifen zu können. Die Generalisierung vervollständigt aus der Anzahl der verfügbaren Daten und Regeln ein Gesamtbild. Ein Auto wird beispielsweise auch dann erkannt, wenn es unter einer Schneedecke liegt. Durch die kombinatorische und parallele Verarbeitung der KI-Algorithmen können weitere Eigenschaften wie das rationale Handeln und kognitive Verhalten erreicht werden.

Durch eine Rückkopplung mit der Außenwelt, d.h. der ständigen Interaktion mit der Umwelt durch autonomes Abfragen der sich stetig verändernden Variablen oder der Bewertung autonomer Entscheidungen durch menschliche Experten, können solche KI-Systeme ihre Regel- und Faktenbasis ständig anpassen, ihr Verhalten verändern und sogar eigenständig Entscheidungen treffen und auf die Folge ihres Handelns wiederum reagieren.
Beispielsweise kann das Auswerten (engl. mining) von digitalen Informationen aus Surfverhaltensweisen, Gesprächsmitschnitten, Blog-Einträgen oder Chatverläufen KI-Algorithmen erlauben, Kundenverhalten und Bedürfnisse genauer untersuchen. Dabei werden Daten zunehmend mit Metadaten angereichert (engl. tagging) und kategorisiert. Erst diese Vermerke ermöglichen es, dass KI-Algorithmen aus solchen Daten die Kausalregeln erlernen, um ihre Umwelt zu verstehen. Daraus können sie autonom oder benutzerunterstützt Rückschlüsse für neue Produktentwicklungen ziehen. So ist nicht zwingend ein weiterer Experte erforderlich, der eine Indexierung oder semantische Einordnung vornimmt. Schließlich kann die Maschine ebenfalls einen Dialog führen, weil sie beispielsweise in der Lage ist, große Datenvolumina aus digitalen Chatverläufen direkt auszuwerten und auf das Verhalten ohne Verzögerung zu reagieren.

Dabei erfolgt Lernen typischerweise durch Erfahrung, also anhand von zahlreichen Beispielen und durch Bekräftigung bestimmter Fakten (siehe Reinforced Learning) oder Bestärkendes Lernen. Der Aufbau solcher KI-Algorithmen und ihre prinzipielle Arbeitsweise ist häufig ähnlich: Mehrere Ebenen künstlicher Neuronen simulieren die Arbeitsweise des menschlichen Gehirns und deren vernetzter Struktur aus Nervenzellen. Die künstlichen Neuronen bilden eine kleine logische Einheit, welche eine Information an weitere Neuronen weiterleitet. Die Art der Informationsweitergabe beeinflusst, ob bestimmte Fakten verstärkt oder gehemmt bewertet werden. Die Anzahl der Verbindungen zwischen einzelnen Neuronen bestimmt grundsätzlich wie Informationen gelernt und gespeichert werden. Die Komplexität und die Verschachtelung der Ebenen, beeinflusst vorrangig die Fähigkeit der Generalisierung oder den Grad mit dem die Input-Informationen auch abstrahiert in dem Netzwerk gespeichert werden können.

Derzeit besteht ein neuer Hype rund um den Spezialisierungsgrad der Neuronalen Netzwerke für verschiedene Bereiche der Mustererkennung. Deep Learning versucht als ein solcher Ansatz, durch dynamische Verschachtelung der Ebenen und Neuronen, den Grad der Abstraktion sowie die Ableitung und Identifikation von Mustern noch weiter zu steigern. Wesentlich ist, dass der Lernprozess nicht mehr durch einen menschlichen Mitarbeiter programmiert wird, sondern durch Ableitung von Mustereigenschaften aus einer Untermenge anderer Muster (unsupervised training) erfolgt. Beispielsweise würden sich bestimmte Zahlen aus einer Untermenge von Mustern, wie Strichen und Kreisen, erkennen lassen.

Bemerkenswert ist die massive Zunahme von Komplexität und Anzahl der Verbindungen sowie Ebenen insbesondere bei Deep Learning Algorithmen. Diese erlauben nun, bestimmte Fakten als referenzielles Wissen und kausale Verbindungen zu speichern. Die Fortschritte in der Computer-Technologie und die massiv parallele Datenverarbeitung ermöglichen erst den Erfolg dieser KI-Technologie. Nicht zu vergessen, die speziellen Hardware-Plattformen, die es KI-Algorithmen erlauben, auf tausenden von Rechenkernen Milliarden von Rechenoperationen gleichzeitig auszuführen. Das wiederum wird nur möglich, wenn auch die Programmiersprache und die Fähigkeiten der Softwareentwickler mit dem Fortschritt und der Leistungsfähigkeit mithalten.

Menschliche Meister tref­fen auf pro­gram­mier­ten Geg­ner

Wie konkret die Sprünge im maschinellen „Lernen lernen“ sind, zeigen unter anderem aktuelle Berichte über computerkreierte Gemälde, die kaum von historischer sowie zeitgemäßer Kunst zu unterscheiden sind. Auch vor komplexen Video- oder Brettspielen macht moderne künstliche Intelligenz keinen Halt. So gewann Anfang dieses Jahres ein selbstlernendes Programm von Google (AlphaGo) sowohl gegen den mehrfachen Europameister als auch den Weltmeister im uralten chinesischen Brettspiel Go. Es ist trotz seiner wenigen Regeln deutlich komplexer als Schach. Aufgrund dieser Komplexität greifen die menschlichen Meister auch zu intuitiven Spielzügen. AlphaGo setzt wiederum neuronale Netzwerke ein, um seine Suche nach dem bestmöglichen nächsten Zug einzugrenzen. Nach dem Eintrainieren verschiedener Spielzüge – zunächst mit Hilfe der Forscher und anschießend anhand tausender Spiele gegen sich selbst – konnte die Anzahl der Spielzüge auf ein sinnvolles Maß hin reduziert werden. In einem nächsten Schritt wurde dieses Netzwerk sowie die KI DeepMind von Google dazu genutzt, ein weiteres Netzwerk zu entwickeln. Dies war in der Lage, aus jeder Go-Position heraus den wahrscheinlichen Gewinner zu ermitteln. Laut Google sind diese Ansätze viel menschenähnlicher als frühere Ansätze.

Während dies nur ein Beispiel darstellt, hat Google mit seinen KI-Entwicklungen die Nase weit vorn. Eine Strategie, die diesen Vorsprung langfristig sichern soll, ist die kostenlose öffentliche Bereitstellung als Open-Source-Software eines seiner wichtigsten Werkzeuge zum Einsatz künstlicher Intelligenz: Tensorflow. Dies hat für die internationale KI-Forschung den Vorteil, dass der technische Fortschritt vorangetrieben wird. Die aufwendige Arbeitsentwicklung wird bereitgestellt und es besteht die Möglichkeit, auf vielen Rechnern parallel zu arbeiten. Google könnte so zu einem KI-Plattform-Anbieter aufsteigen und seine Vormachtstellung in der Industrie ausbauen. Durch die Zusammenarbeit mit Forschern, die diese Open-Source-Software nutzen, ist Google in der Lage seine eigene Plattform schneller weiterzuentwickeln.

Ein weiteres System ist Watson der Firma IBM. Die Entwicklung von Watson war langwierig. In den ersten Schritten begann man, Watson Regeln beizubringen, in dem man sie einzeln formulierte. Recht schnell wurde klar, dass es nicht möglich ist, für alle Gegebenheiten Regeln zu erstellen und so startete man das Erlernen von Kausalzusammenhängen verbunden mit Rückkopplungen. Nach einigen Jahren war Watson dann soweit, dass er bei der Fernseh-Quizshow Jeopardy antrat. Die als Antworten formulieren Quiz-Fragen sind häufig doppeldeutig und bedürfen der Verknüpfung von mehreren Informationen, was IBM zunächst vor große Herausforderungen stellte. Mehrere hundert Algorithmen führten dazu, dass Watson schließlich die menschlichen Gegner, die eine Trefferquote von ca. 95% hatten, übertraf.

Inzwischen investierte IBM eine Milliarde Dollar im Bereich der KI-Forschung. Die Entwicklung führe dazu, dass künstliche Intelligenz zukünftig auch schwierige Probleme aus dem Bereich der Medizin lösen könne, so die Hoffnung. Hierbei spielen sogenannte kognitive Algorithmen eine Schlüsselrolle. Sie können die natürliche, menschliche Sprache erkennen und verstehen. Die Watson-Plattform wird als ein Cloud-Service zahlreichen Partnern angeboten. Watson kann damit beispielsweise medizinische Beratungsprotokolle und historische Daten miteinander verknüpfen, um neue Hypothesen oder Empfehlungen zu generieren. Beratungsgespräche lassen sich direkt analysieren und kategorisieren, um später für einen Kunden eine umfassende Beratung hinsichtlich seines Versicherungsbedarfs zu ermitteln. Auch eine Risikoanalyse für eine Versicherung kann somit präzisiert werden und das Versicherungsprodukt so an den Kunden angepasst werden. Mögliche Lösungsvorschläge für die jeweilige Lebenssituation können aus Vergleichsdaten ermittelt und durch einen Kundenbetreuer im weiteren Verlauf besprochen werden.

Das Tempo nimmt zu, aber in wel­che Rich­tung?

Während in den Medien gerne von künstlicher Intelligenz berichtet wird, die sich immer erfolgreicher mit geistigen und kreativen menschlichen Fähigkeiten duelliert, weisen die Forscher darauf hin, dass das wesentliche Ziel ein anderes ist. Mit Hilfe der neuen Technik sollen künftig Lösungsansätze für viele noch ungelöste und reale Probleme effektiver angegangen werden. Problemdomänen aus Medizin, Steuerungstechnik, Transport, Klimavorhersage oder gar gesellschaftliche Herausforderungen sollen von künstlicher Intelligenz profitieren und Lösungen bereitgestellt bekommen.

Wie fortschrittlich und menschlich ist die Technik nun? Nach Jahrzehnten voll enttäuschter Hoffnungen und des stockenden Fortschritts, sind sich führende Köpfe aus der Forschung nun einig, dass es nur noch eine Frage der Zeit ist, wann die Maschinen übermenschliches leisten. Kognitive und strategische Leistungen mit einem Touch Intuition scheinen eingeholt und von der zunehmenden Datenmenge profitiert auch der Forschungszweig der künstlichen Intelligenz erheblich. Entscheidend ist nun, dass diese Technik eingesetzt wird, um für konkrete Herausforderungen Lösungen anzubieten und nicht mit dem Menschen und seinem Charakter in Wettbewerb zu treten.

Weiterführende Links:

Katy Spalek

Katy Spalek

Manager Corporate Publishing bei BROCKHAUS AG
Katy Spalek ist bei der BROCKHAUS AG als Redakteurin für die Bereiche Marketing und Vertrieb zuständig und verantwortet Recherche, Verfassen und Layout von Texten zur Kundenkommunikation. Für das blogHAUS verfasst sie Beiträge über aktuelle Trendthemen aus IT, Marketing und Wirtschaft.
Katy Spalek
Nächster Beitrag >>

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.