Bots und Künstliche Intelligenz

Darf ich vorstellen, Mr. und Mrs. Chat­bot?

„One morning I shot an elephant in my pajamas.” – Wie würde ein Bot diesen Satz wohl deuten? Wurde das Tier erlegt oder lediglich fotografiert? Und wer trug den Pyjama? Für den menschlichen Verstand ist schnell erfasst, wie die Aussage gemeint ist, während für einen Computer das Zitat aus dem Film Animal Crackers von 1930 eine echte Herausforderung darstellt. Eine, die angegangen werden muss, wenn Maschinen mit Menschen auf hohem Niveau kommunizieren sollen.

Forscher stellen sich dieser Herausforderung nun schon seit Jahren und das nicht ohne Grund. Automatisierte Systeme dringen zunehmend in die verschiedenen Bereiche unseres Alltags ein. So ist es naheliegend, dass wir mit ihnen unkompliziert kommunizieren möchten. Die Systeme, denen wir begegnen, tragen viele Namen: Chatbots, Virtual Agents, Software-Agenten, Softbots und Robo-Advisor, um nur einige zu nennen.

Um mit diesen Intelligenten Programmen eine menschenähnliche Kommunikation zu realisieren, möchten die Global Player der Informationstechnologie bei der Entwicklung keine Chancen verpassen. Der Kampf um die Marktanteile hat schon längst begonnen: Cortana von Microsoft, Siri von Apple und Now von Google wetteifern beispielsweise als Assistenten mit einem Sprachinterface um die größten Kuchenstücke auf dem Konsumentenmarkt. Demnächst wird sich zudem M von Facebook dazugesellen.

Während diese Systeme eher als Generalisten fungieren, stehen auf zahlreichen Webportalen Chatbots oder virtuelle Agenten als Spezialisten zur Verfügung. Mit dem Schwerpunkt auf Beratung in eingeschränkten Themenbereichen klären sie über das jeweilige Angebot auf, führen durch einen Prozess oder beantworten konkrete Fragen.

Diese Programme sind im Ganzen zwar nicht neu, die Entwicklung der dahinterstehenden Software aber macht dank der Weiterentwicklung der (schwachen) Künstlichen Intelligenz (KI) derzeit große Fortschritte, sodass die Systeme immer menschähnlicher kommunizieren können. Das Interesse der Nutzer verbunden mit den finanziellen Mitteln der großen IT-Konzerne treibt den Bereich derzeit kräftig an.

Die Palette der Chat­bots

Vorrangig in Apps oder Web-Interfaces verwendet, sind Chatbots Computerprogramme, die mittels einer textbasierten Ein- und Ausgabemaske oder dank Spracherkennung mit ihren menschlichen Nutzern kommunizieren. Diese Dialogsysteme haben unterschiedliche Herangehensweisen, lassen sich gemeinhin aber oft den Expertensystemen zuordnen und beruhen so meist auf einer schwachen künstlichen Intelligenz.

Bisher dominierten Bots, welche nur auf spezielle Befehle oder Schlüsselwörter reagierten. Hierbei agieren im Hintergrund Systeme, die einen Dialog mit dem Nutzer in einem eng umschriebenen Wissensgebiet führen. Ihre prinzipielle Funktionsweise basiert oft auf einer simplen Volltextsuche, bei der lediglich regelbasiert auf spezielle Befehle reagiert wird.

Zunehmend treffen die Nutzer jedoch auf umfassendere Dienste. Hier nähern sich die Chabots mittels künstlicher Intelligenz in natürlicher Sprache der menschlichen Kommunikation an. Sie nutzen z.B. fallbasiertes Schließen, Entscheidungsbäume und Regeln oder Mustererkennung für die Kommunikation mit dem Nutzer. Durch die Kombination dieser Ansätze, natürlicher Sprachausgabe und fachlicher Expertise erscheinen Chatbots zunehmend menschlicher, auch wenn sie laut der Mehrzahl der Experten noch weit entfernt sind von der starken künstlichen Intelligenz, die ein Bewusstsein voraussetzt. Dennoch können diese Programme so bereits in bestimmten Bereichen ihre menschlichen Kollegen ergänzen oder sogar ersetzen.

Eliza und der Turing-Test

So modern diese Systeme erscheinen, die ersten geweckten Erwartungen liegen bereits weit zurück.
Eliza, entwickelt von Joseph Weizenbaum machte den Anfang. Mit Reaktionen wie „Do you enjoy being dead?” auf die Aussage „I am dead“, sorgte das Programm bereits in den 60er Jahren für Aufsehen. Der Dialog-Algorithmus war damals recht simpel.
Eliza kommunizierte, indem es zu den gefundenen Schlüsselwörtern passende Antwortsätze zusammenstellte. Zusätzlich hatte das Programm eine Sammlung von Phrasen zu verschiedenen Themengebieten parat. Trotz dieser Einfachheit, fand Eliza auch im Forschungsbereich der Psychologie anklang und sollte sich als therapeutischen Gesprächspartner etablieren. Soweit kam es jedoch nie. Eliza war dennoch die erste spektakuläre Umsetzung des Turing-Tests, in dem es darum geht, Mensch und Maschine bezüglich des Kommunikationsvermögens zu unterscheiden.

Obwohl die ersten Entwicklungen bereits Jahrzehnte zurückliegen, sind die großen nützlichen Weiterentwicklungen, die solche Systeme massentauglich machen, erst wenige Jahre jung und hoch aktuell. Noch heute spricht man vom sogenannten Eliza-Effekt, wenn nicht wahrgenommen wird, dass es sich um eine Unterhaltung mit einem Programm handelt.

Avatare: animierte Bots

Während Eliza noch keine ansprechende Optik besaß, präsentieren sich heute einige Bots mit einer grafischen Animation. Neben dem reinen Know-How und der Expertise sollen diese hauptsächlich eine interpersonelle, emotionale Kommunikation mit ihren Nutzern fördern. Sie interagieren als animierte Charaktere oder Avatare und versuchen mittels Nachahmung menschlicher natürlicher Sprache, Mimik und Gestik eine persönliche Wirkung zu erzielen. Solche Avatare haben neben einem charakteristischen Aussehen auch die Fähigkeit, die getroffenen Aussagen durch Mimik und Gestik zu unterstreichen. Hierdurch kann sich eine positive User-Experience ergeben, die eine mögliche Distanz zwischen Mensch und Maschine reduziert.

Anziehungskraft und Kon­trol­le

Distanzlos und das ganz ohne grafische Erweiterung scheint die Beziehung im Film „Her“ (von Spike Jonze, 2014). Hier wird die Sehnsucht nach dem perfekten Gesprächspartner – unabhängig ob nun menschlich oder maschinell – an die Spitze getrieben. Der Protagonist Theodore Twombly fühlt sich leidenschaftlich zu einem Betriebssystem mit erlernten Emotionen hingezogen. Die zunächst positive Beziehung zu Samantha – so betitelt sich das System selbst – wird im Verlauf des Filmes durch den Triumph der scheinbar unbegrenzten künstlichen Intelligenz über den eingeschränkten menschlichen Intellekt beendet. Theodore wird von Samantha nicht, wie man es von einer Software erwartet, konstruktiv und passiv unterstützt, sondern gerät in einen Sog, indem er nicht mehr zwischen künstlichen und menschlichen Gefühlen unterscheiden kann.

In der heutigen Realität sind solche Assistenten mit starker Künstlicher Intelligenz noch nicht existent. Sie sind im Grunde noch nicht schlauer, sondern bisher lediglich schneller. Dennoch herrscht seit der Veröffentlichung der Robotergesetze von 1950 durch Isaac Asimov (s. Asimovsche Gesetze) bis heute der Konsens, dass Maschinen dem Menschen dienen müssen und ihn nicht verhöhnen dürfen. Mit zunehmender Intelligenz der Bots, werden die Robotergesetze relevanter. Der Physiker Stephen Hawking warnt bereits heute vor der Übermacht der Künstlichen Intelligenz und ist damit nicht alleine. Bisher fühlen sich jedoch laut einer aktuellen Forsa-Umfrage tatsächlich von der Künstlichen Intelligenz bedroht.

Auch wenn intelligente Assistenten längst in unserem Alltag angekommen sind und diese Ankunft, in allen Lebensbereichen Auswirkungen nach sich ziehen wird, gibt es durchaus große kulturelle Unterschiede in der emotionalen Bindung an Maschinen. Während in Europa die Nutzung der ‚technischen Spielereien‘ nur zögerlich zunimmt und mit Skepsis gesehen wird, erfahren die Systeme im technik-optimistischen asiatischen Raum eine breite Zustimmung, wenn nicht sogar Verehrung und Gleichstellung mit Lebewesen. Während dort Technikkritik keine Tradition hat und Roboter gern gesehene Bewohner sind, muss Elektronik bei uns eher versteckt auftauchen, beispielsweise als Zusatzfunktion eines Mobiliars. Für die Ethik-Debatten ist es jedoch sicherlich von Vorteil, wenn Technik nicht nur als Segen, sondern auch mit Skepsis betrachtet wird.

Eliza-Effekt – eine Fra­ge der Kul­tur

Eher wenig Skepsis hat jüngst eine Stimme geerntet, nicht als Betriebssystem, aber als Assistent und wir fühlen uns erinnert an die Charaktere aus Her. Das Programm nennt sich jedoch nicht Samantha, sondern Xiaoice und ist ein soziales Experiment von Microsoft. Seit ihrer Einführung 2014 – zunächst beschränkt auf China – wurde die Xiaocie-App ein Riesenerfolg. Tag und Nacht kommunizieren ihre User mit ihr. Teils fiel den Nutzern erst nach minutenlanger Konversation auf, dass sie nicht mit einem menschlichen Wesen kommunizieren (siehe Eliza-Effekt). Sie hört zu und ist stetig erreichbar, merkt sich Details aus früheren Konversationen und reagiert auf Emotionen. Neben reinen Fakten über verschiedene Persönlichkeiten, Länder, Sport, Finanzen etc. gehören selbst Ironie und ein wenig Humor zu ihren Fähigkeiten. Und dennoch ist sie noch kein Produkt starker künstlicher Intelligenz. Ihrer Beliebtheit schadet dies jedoch nicht: Xiaocie trägt mit rund 20 Millionen registrierten Nutzern zum Technologietrend der künstlichen Intelligenz bei.
Inzwischen trägt das System selbständig den Wetterbericht vor. Ungewiss, welche beruflichen Chancen sich ihr künftig noch eröffnen.

Ein weiteres Beispiel für erfolgreich vorgetäuschte Empathie findet sich bei der Therapie amerikanischer Kriegsveteranen: Laut dem U.S. Department of Veterans Affairs leisten Avatare bei der Bewältigung von Traumata bei Soldaten hervorragende Dienste. Offenbar bessere als menschliche Therapeuten, denen sich die Soldaten eher ungern anvertrauen. Abgesehen davon, dass die virtuellen Agenten nicht vorschnell urteilen, scheinen sie Emotionen sehr exakt deuten zu können und lassen sich wesentlich schwieriger manipulieren. Eine Vision, die schon zu Zeiten von Eliza bestand.

Was in manchen Kulturen auf breite Zustimmung trifft, scheiterte in Deutschland bei Twitter allerdings im Eiltempo, wie der Fall von Chabot Tay (Microsoft) zeigt. Das Experiment bewies, dass in künstlicher Intelligenz auch Risiken lauern. Der Teenager-Bot begann sexistische und rassistische Parolen wiederzugeben, die ihm einige Nutzer eigennützlich beigebracht hatten. Tay ist seitdem im Privat-Modus und nur für freigeschaltete Nutzer erreichbar. Microsoft hat sich für diesen Ausfall entschuldigt.

Bots statt FAQs

Auf Internetseiten eingesetzt bieten sich automatisierte Kommunikationspartner bereits seit einiger Zeit als persönliche Gesprächspartner an und ersetzen beispielsweise mehr und mehr die eher unattraktiven FAQs. Sie sollen unterhaltsam und einfach durch firmenspezifische Angebote leiten und ohne lange Suche auf Rückfragen reagieren.
Bei vielen Nutzern genießen diese Systeme im Moment jedoch noch wenig Akzeptanz. Gründe dafür mag die begrenzte Wissensbasis sein, die stets um aktuelle Informationen erweitert werden muss, was oft noch mit manuellem Aufwand verbunden ist. Zudem stören Kommunikationsprobleme einen entspannten Umgang, wie z.B. eine unausgereifte Substitution, wenn also Schreibfehler der Nutzer nicht korrekt interpretiert werden, und in eine Sackgasse leiten: „Ich habe Sie leider nicht verstanden“. Dies und andere Gründe führten dazu, dass viele ältere Chatbots und Avatare von den Internetseiten wieder entfernt wurden.
Die Unternehmen warten offenbar auf neuere Generationen von Bots.

Nutzung von Siri & Co.

Von Warten kann bei den elektronischen Ansprechpartnern, die wir täglich in direkter Reichweite haben, kann hingegen nicht die Rede sein: Sprachassistenten, wie Siri (Apple), Cortana (Microsoft) oder Now (Google), sind per Handy oder Laptop stets dabei. Vorangetrieben durch immense Investitionen werden diese Assistenten kontinuierlich verbessert.

Dennoch steigt die Nutzung in Europa nur zögerlich an. Offenbar ist es vielen Nutzern zurzeit noch eher unangenehm, diese elektronischen Helfer öffentlich anzusprechen. Häufige Missverständnisse durch die Diskrepanz zwischen gemeintem und verstandenem demotivieren, obwohl Spracherkennung und Textverständnis jüngst große Fortschritte gemacht haben. Beispielsweise können kontextuelle Rückbezüge noch nicht eindeutig interpretiert und Humor sowie Ironie von den Bots in der Regel nicht verstanden werden. Die Dialoge beschränken sich daher meist auf nur wenige Sätze.

Daher werden konventionelle Suchmaschinen sowie Apps, meist weiterhin favorisiert, da sie in der Regel schneller zum Ziel führen. Immerhin werden Sprachsysteme vermehrt genutzt, wenn Tippen nur eingeschränkt möglich ist, wie beispielsweise beim Autofahren. Aber auch hier ernüchtert die Kritik der Experten: Fehlerhafte Systeme lenken den Fahrer ab. Trotz deutlicher Aussprache der Nutzer reagieren die Systeme zu oft, nicht wie gewünscht und fordern so die vom Autofahrer anderweitig benötigte Konzentration. Dies sei in dieser Form zu gefährlich, so die klare Kritik.

Neuling Allo von Google

Ganz frisch auf dem Markt ist die zunächst englischsprachige Massaging-App Allo (Google). Innovativ ist, dass sie die Funktionen von Messenger und Assistent vereint und zunächst ein größeres Potpourri an Funktionen anbot, als Pilotprojekt „M“ von Facebook oder der bisherige Marktführer WhatsApp. Ein Vorsprung, den Facebook jedoch nicht lange gewährte. Prompt reagierte er mit Funktionserweiterungen bei WhatsApp. Hier bleibt der Vorsprung jedoch noch bestehen: Google hat es sich bei Allo nicht nehmen lassen, die hauseigene künstliche Intelligenz (RankBrain) einzusetzen. Sie lässt die klassischen Funktionen eines Assistenten mit dem eines Massengers verschmelzen. Dies wird beispielsweise deutlich, wenn ein Gesprächspartner ein Abendessen anspricht: Allo schlägt ungefragt beliebte Restaurants in der Nähe vor. Die künstliche Intelligenz mischt sich aber auch bei Fotos oder simplen Nachrichten ein und schlägt mehrere Antworten vor. Dabei ist das Programm dazu im Stande, sich Kontexte oder Nutzerverhalten zu merken, vergleichbar mit Xiaoice. Mit der Verfügbarkeit der neuen App werden aber auch kritische Stimmen laut. Gerade letztere Funktionen führen jedoch dazu, dass die Künstliche Intelligenz von Google stets mitliest. Für Google selbst sind diese Daten sicherlich sehr wertvoll.

Hybridlösung „M“ von Face­­book

Die Negativresonanz auf die bisherigen Assistenten entging auch Facebook nicht, was zu der Entwicklung von „M“ führte. Einem Pilotprojekt, das bisher auf San Francisco begrenzt ist. M hebt sich von weiteren Assistenten ab. Es soll anspruchsvoller werden. Die Antworten erreichen den Nutzer nicht ungefiltert. Der jeweilige „M-Trainer“ im Hintergrund prüft, ergänzt, korrigiert oder gibt die von M formulierten Antworten zunächst frei. In diesem Versuchsstadium soll M, der mittels künstlicher Intelligenz seine Antworten findet, durch die menschliche Unterstützung dazulernen (siehe supervised learning), um die Trefferquote zu den wirklich gesuchten Antworten zu erhöhen.

Hybride Lösungen scheinen daher zumindest Übergangsweise als richtungsweisend.
Mensch-Maschine-Kombinationen könnten auch im E-Commerce die Generation werden, auf die die Unternehmen branchenübergreifend warten. Denkbar ist beispielsweise die Schaffung von neuen Hybrid-Bots in der Versicherungsbranche. Sie könnten bei Fragen zu den gängigen Versicherungsprodukten kompetent beratend zur Verfügung stehen, bei komplexeren Angelegenheiten jedoch direkt an einen Mitarbeiter weiterleiten. Bisherige Aufgaben, wie Anpassungen in bestehenden Verträgen oder bei den Stammdaten können dann ebenfalls über den Bot möglich sein. Wo bisher große Callcenter den Kunden beratend zur Seite stehen, findet eine rasche Digitalisierung statt.

Spezialisierung als Nische

Der Trend der Hybrid-Lösung geht einher mit einer zunehmenden Spezialisierung. Es gibt immer mehr Beispiele dafür. Ihre Stärken beweisen die Bots insbesondere, wenn komplexe Sachverhalte strukturiert und für uns schlank aufbereitet werden sollen.

Einige leisten Unterstützung im Bürokratiedschungel, wie das Beispiel eines Bots zeigt, der beim Anfechten von Strafzetteln vermeintliche Falschparker berät. In einer weitaus größeren Nische helfen die sogenannten Robo-Advisor aus. Vorrangig im Bereich der Anlageberatung und im Investmentbanking sind sie seit einigen Jahren tätig und übernehmen dort Beratungs- und Administrationsaufgaben. Sie erfahren derzeit eine rasant ansteigende Nachfrage. Ihr Ziel ist es, die Anlageportfolien der Kunden automatisiert zu verwalten und ihre Kunden bezüglich der Anlagestrategie und Depotumschichtung zu unterstützen.
Sie sind eine Erfindung von dem Entwickler des Sharpe-Ratio: William Sharpe. Der US-amerikanische Wirtschaftswissenschaftler generierte bereits 1996 automatisierte Entscheidungsunterstützungssysteme.
In ihren Anfängen im Jahre 2008 ermöglichten diese Systeme US Amerikanern im Bereich der automatisierten Anlage und des Portfoliomanagement, ihre 401(k)-Investment-Pläne zu verwalten. Diese sind in den USA eine weitverbreitete Form der betrieblichen Altersvorsorge. Laut Studien von Gartner und Corporate Insight wurden in den USA über diese Systeme bis 2015 im Bereich der Vermögensberatung und Investment Banking geschätzt über 19 Milliarden US-Dollar investiert (83% des gesamten Kapitals). Hierbei werden Robo-Advisor als eigenständige, automatisierte, kosteneffiziente Investmentmanagement Tools gesehen, die einer breiten Kundenbasis direkt online zur Verfügung stehen. Die Nutzer steuern ihre Ausgaben anhand intuitiver Bedienung im Beratungstool. Durch die Automatisierung sorgen die Systeme laut Anbieter für ein überschaubares Risiko und verhältnismäßig geringe Ausgaben.

Die Technologien der Bots

Unabhängig von der jeweiligen Aufgabe wird der Assistent insbesondere daran gemessen, wie reibungslos er mit uns kommunizieren kann. Eine optimale Verständigung mit dem Anwender erfordert im Hintergrund ein reibungsloses Zusammenspiel verschiedener Technologien.
Die Form der Benutzerschnittstelle bestimmt zunächst, wie die Interaktion stattfindet. Unabhängig davon, ob die Eingabe mündlich oder textbasiert erfolgt, die Eingabe muss intuitiv und einfach sein.

Moderne Systeme wie SwiftKey auf mobilen Endgeräten verringern Tippfehler, indem sie Wörter automatisch vervollständigen. Sie lassen uns die Texte wischen anstatt zu tippen oder geben uns, angelehnt an den persönlichen Schreibstil, Vorschläge für die nächsten Wörter. Physiker Stephen Hawking verwendet seit 2015 eine persönlich angepasste Version von SwiftKey um zu kommunizieren und um wesentlich schneller Texte zu verfassen.

Noch schneller kann eine Anfrage in der Regel mündlich eingeben werden. Für Chatboots mit Sprachinterface ist die Spracherkennung jedoch eine respektable Hürde. Spracherkennungssysteme haben im Grunde zwei Schritte zu meistern: Sie müssen zunächst bei der Vorverarbeitung einzelne Wörtern bei flüssiger Sprache und ohne Pausen verstehen und anschließend mit Hilfe von akustischen Modellen, Wörterbüchern und Sprachmodellen die Fragen oder Aufforderungen interpretieren.

Künstliche neuro­na­le Netz­wer­ke zur Sprach­er­ken­nung

Die Herausforderungen starten also bereits bei der Spracherkennung. Die Forschung zur automatischen Spracherkennung begann bereits in den 60er Jahren. Doch begrenzt durch die damaligen technischen Möglichkeiten, waren die ersten Ergebnisse sehr enttäuschend. Erst über zwanzig Jahre später konnte ein Großrechner von IBM immerhin mittels Häufigkeitsstatistiken Kontextprüfungen durchführen und bei ähnlich klingenden Wörtern oder Mehrfachbedeutungen zunehmend die korrekte Bedeutung herausfiltern. Da sich diese Diktier-Software nicht wirklich als praxistauglich erwies, verschwanden die meisten Anbieter wieder vom Markt.

Erst um 1990 herum entstand, vorangetrieben durch das IBM-Forschungsinstitut, eine beeindruckende Basis für die heutige Spracherkennungssoftware. Das IBM Personal Dictation System wurde als erstes Massenprodukt erfolgreich angeboten und stellte die Weichen für aktuelle Assistenten wie Siri oder Cortana. Seitdem wird stetig nachgebessert, denn eine Spracherkennung mit extrem hoher Treffsicherheit ist eine essentielle Voraussetzung für Chatbots und digitale Assistenten. Besonders für den mobilen Bereich ist die Anwendung der Spracherkennung interessant, was den Fortschritt nochmals antreibt.

Die bedeutendste Weiterentwicklung bei der Erkennung menschlicher Sprache war die Einbindung von Deep Neural Networks.
Zunächst wird das Gesprochene in kleine separat zu erkennende Einheiten heruntergebrochen. Durch ein Neuronales Netzwerk wird die Sprache nachfolgend erlernt (Mustererkennung). Von künstlichen neuronalen Netzwerken oder Deep Learning spricht man, wenn menschliche neuronale Netzwerke technisch nachgebildet werden. Mit Hilfe eines Lexikons und der jeweiligen Fragmente werden anschließend Wörter rekonstruiert. Ein semantisches Modell überprüft und ergänzt die Wortreihenfolge entsprechend bestimmter Regeln, die individuell für jede Sprache sind.

Die Erfolgsrate der Erkennung wird durch ein sich wiederholendes Lernen mit unterschiedlichen Beispielen der Aussprache, Hintergrundgeräuschen, Intonation, Dialekte, Sprecher, etc. verbessert. Bei mobilen Systemen können solche Spracherkennungssysteme teilweise nicht direkt auf dem Handy oder Tablet installiert werden, da dort die Hardware häufig nicht ausreichend leistungsfähig ist. In diesem Fall werden die Fragmente an einen zentralen Server weitergeleitet und dieser übernimmt direkt die Erkennung und entsprechende Antwort.

Algorithmen zur Sprach­in­ter­pre­ta­tion

Im nächsten Schritt soll unser Anliegen – gesprochen oder geschrieben – korrekt interpretiert werden. Für eine passgenaue Antwort, muss das Verstandene dem Gemeinten möglichst nahe kommen.

Eine Geschichte im Leben des Supercomputers Watson von IBM ist ein gutes Beispiel für den Interpretationsspielraum von menschlicher Kommunikation. Es dauerte mehrere Jahre, bis er für die in den USA beliebte Quizshow Jeopardy fit war. Während es den menschlichen Superhirnen gelegentlich an Informationen mangelte, scheitere Watson lange an dem vorausgehenden Schritt. Angebunden an Suchmaschinen, hatte er alle erforderlichen Daten, aber er erkannte häufig nicht das Wesentliche der teils tückisch gestellten Quizfragen.

In unserem Alltag begegnen wir zwar (noch) keinem Watson, aber Suchmaschinen. Gerade hier ist das Sprachinterface eine Funktion, die es erlaubt, schnell und unkompliziert Gesuchtes zu finden. Die Anwendungen stehen jedoch noch am Anfang. Eine simple Frage wie beispielsweise „Welche Versicherung bietet mir den besten Leistungsumfang im Kfz Bereich?“ ist komplexer, als sie zunächst erscheint und erfordert umfangreiches Wissen.

Relevant sind hier Daten zum Nutzer, Informationen zum Fahrzeug und zum gewünschten Leistungsumfang. Solche Fragen, auch als Kontextfragen bezeichnet, können durchaus persönlich und sensibel sein.
Für diese Herausforderung bietet Google eine Lösung. Mit dem Geschäftsmodell des digitalen Fingerabdrucks sieht sich Google bestens für die Zukunft positioniert. Die Verbindung der Suchanfrage mit den Kontextdaten, die der User für Google freiwillig oder weniger offensichtlich freigeschaltet hat, bietet einen entscheidenden Vorteil. Google hat bereits 2010 einen neuen Suchalgorithmus namens Hummingbird eingeführt, der im Wesentlichen eine semantische Suche ermöglicht.

Die semantische Suche ist die Suche nach einem konkreten Inhalt und nicht mehr eine reine Schlüsselwörtersuche. Vor der Einführung des Hummingbird-Algorithmus beschränkte sich Google auf die Indexierung aller Web-Inhalte. Dabei werden sogenannte Keywords identifiziert, die beispielsweise eine Internetseite möglichst genau hinsichtlich ihrer wesentlichen Inhalte beschreiben. Bei Hummingbird geht es aber nicht mehr um die reinen Keywords, sondern um die Bedeutung der jeweiligen Wörter.

Daher bedurfte es einer grundsätzlich neuen Technik, um das Wissen aus den Inhalten zu extrahieren und zu speichern. Eine verbreitete Form stellen Graphen dar. Graphen sind mathematische Form-Beziehungen, die einzelne Begriffe durch Knoten-Kanten-Knoten repräsentieren und optisch etwa an ein U-Bahnnetz-Plan erinnern. Dabei kann ein Knoten (Begriff) mit mehreren Kanten-Knoten verbunden sein. Dies sind dann beispielsweise Synonyme, Assoziationen oder Oberbegriffe eines Begriffs. Die Kanten können also unterschiedliche Attribute tragen. Auch können solche Graphen zirkulär sein, also wie das Wissen selbst-referenziell auf vorherige Begriffe verweisen. Diese Darstellungsform nutzt jetzt Google, um das Wissen aus allen verfügbaren Inhalten zu speichern und für Suchanfragen nutzbar zu machen, denn sie ermöglicht als semantische Suche das Auffinden von relevanten Inhalten und ist nicht mehr einschränkt durch ein Schüsselwort.

knoten_kanten_graphen-02

Durch die Verknüpfung mit einer intelligenten Spracheingabe und der digitalen Identität des Users können nun Unternehmen wie Google einen direkten und personalisierten Zugriff auf das „Internetwissen“ herstellen. Einerseits ist das sicherlich aus der Anwenderperspektive nützlich, kann aber auch ein mächtigeres Werkzeug zur Manipulation darstellen.

Nutzung von Big Data zur Wis­sens­er­wei­te­rung

Über all die genannten Tools hinaus, bestimmt aber übergreifend die Anpassungsfähigkeit darüber, ob der Chatbot oder Agent längerfristig bestehen bleibt.
Neben der Eingabe von Fragen und dem effizienten Abrufen des Wissens (Knowledge Retrieval), ist daher auch die Wissenserweiterung der Systeme wichtig. Durch die Verknüpfung zahlreicher Wissensdatenbanken kann der Nutzen zwar zunächst gesteigert werden, aber damit die Virtual Agents wirklich als intelligente Programme wahrgenommen werden, müssen sie stetig dazulernen.
Der Lernprozess ist dabei vom Kontext des Benutzers und des Zeitpunktes abhängig ist, damit das Abrufen des Wissens dynamisch an die Situation anpasst werden kann. Lernprozesse bauen auf grundlegenden Prinzipien auf.

Bots im All­tag

Während die bisherigen breit genutzten Angebote den erwarteten Nutzen kaum erfüllen, verheißen die Zukunftsprognosen der IT-Riesen baldige Besserung. Strategisch gesehen sind die Internet-Plattformen für die anbietenden Unternehmen von immenser Bedeutung. Man rechnet mit großem Wachstumspotential in diesem Markt.

Die Assistenten und Bots haben noch zahlreiche Aufgaben vor sich, wie das Erkennen von relevanten Informationen. Aber künftig werden sie den Nutzer live und ungefragt mit allen benötigten Informationen versorgen. So werden uns unsere Helfer beispielsweise automatisch darauf hinweisen, dass wir uns aufgrund der veränderten Verkehrssituation in wenigen Minuten auf den Weg machen müssen, wenn wir den geplanten Flug noch erreichen möchten. Die Bots werden diverse Informationen intelligent vernetzten. Durch die Nutzung von Smartphones haben sie jetzt schon Zugriff auf relevante Daten wie z.B. GPS, Nachrichten, Kalender oder soziale Netzwerke.

Aufgaben im E-Com­­merce

Wir profitieren von uneingeschränkten Arbeitszeiten der elektronischen Ansprechpartner. Ohne Schnittstellen und Wartezeit, werden uns alle online verfügbaren Informationen und Dienste gezielt zur Verfügung gestellt. Wie ein zweites Gehirn soll uns der digitale Buttler jederzeit diskret aus dem Hintergrund gefragt und ungefragt zu Diensten stehen. Es soll künftig kaum Gründe geben, den Assistenten der neuen Generation zu verlassen, schon gar nicht auf Grund einer App. Diese werden durch Bots allmählich abgelöst, so die Prognosen.

Gebucht und eingekauft wird künftig mittels einer Unterhaltung mit dem elektronischen Ansprechpartner. Unterstützt werden Suchergebnisse durch einen Ranking-Faktor. Mit beispielsweise RankBrain von Google wird jetzt schon das Rechercheverhalten einzelner Nutzer ausgewertet. Anhand der jeweils resultierenden Datenmenge werden dann künftige Suchergebnisse vorgefiltert.

Auch Watson der Firma IBM hilft bereits bei der passgenauen Customer-Journey. Kunden werden nach Abfrage von Bedürfnissen und Ansprüchen nur tatsächlich in Frage kommende Angebote unterbreitet. Auch nicht neu, aber zünftig sicher noch weiter verbreitet, sind Rezept-Bots. Sie lernen, welche olfaktorischen Vorlieben der Nutzer hat und passen die Vorschläge darauf an. Denkbar ist, dass sie die passenden Zutaten zu den Vorschlägen direkt ordern und an die Tür liefern lassen.

Ausblick

Mensch und Maschine sollen weiter mit einander verschmelzen. Die Konsumenten, werden passiver, die Angebote adaptiver und die Prognostik smarter.
Dabei ist es entscheidend, dass die Anbieter die richtige Balance finden und mehr mit einer Pull- als einer Push-Strategie den User beraten und nicht belasten. Die Systeme sollen sich beispielsweise ebenfalls merken, wenn ein Angebot nicht mehr in Frage kommt, da der Kauf schon vollzogen ist. Als Allround-Assistenten sollen sie uns und unsere persönlichen Kundenbedürfnisse verstehen. Sie sollen relevante gesammelte Daten zu intelligenten Schlussfolgerungen zusammenführen. Die jeweilige Reaktion des Systems wir daher immer individuell und situativ neu gefunden.

Zu Kaffee und Kuchen werden Sie von Mr. Und Mr. Chatbot vermutlich nicht so bald eingeladen sein, aber für einen interessanten Plausch oder als hilfreicher Informant stehen sie quasi schon vor der Haustür…

 

Weiterführende Links:

Katy Spalek

Manager Corporate Publishing bei BROCKHAUS AG
Katy Spalek ist bei der BROCKHAUS AG als Redakteurin für die Bereiche Marketing und Vertrieb zuständig und verantwortet Recherche, Verfassen und Layout von Texten zur Kundenkommunikation. Für das blogHAUS verfasst sie Beiträge über aktuelle Trendthemen aus IT und Wirtschaft.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.