SUPPLEMENT: PRAXiS
Cognitive Computing: Die komplett vernetzte Zukunft


Die Computerforschung arbeitet daran, Systeme zu entwickeln, die wie Menschen denken, schnell aus großen Datenmengen lernen und in natürlicher Weise mit dem Menschen interagieren können.
Der Chefentwickler von Google, Ray Kurzweil, wird mit der Aussage zitiert, dass im Jahr 2030 bereits der Zeitpunkt erreicht sein könnte, zu dem Computer die intellektuellen Fähigkeiten des Menschen erreicht haben – und etwa auch „um die Ecke denken“ oder Emotionen zeigen können. Bei der Firma IBM, die seit etwa zehn Jahren Erfahrungen mit Cognitive Computing sammelt und 2011 in einer US-amerikanischen Quizshow Furore mit dem kognitiven Computersystem „Watson“ machte (Kasten Watson), sieht man die Entwicklung differenzierter. „Es geht beim Cognitive Computing nicht darum, menschliche Intelligenz zu ersetzen. Es geht um Augmentation – darum, unsere Fähigkeiten zu erweitern“, erklärte Dr. Karin Vey vom ThinkLab, IBM Research, Zürich, beim Bitkom-Workshop „Wie schnell kommt Cognitive Computing?“ in Köln. Gleichzeitig ist aber auch die Rede von einem Technologiesprung. „Bei ,Cognitive Computing‘ denken wir wirklich an eine neue Ära im Computing“, meinte Vey. Dabei gehe es um drei wesentliche Aspekte: um IT-Systeme, die sehr schnell aus großen Datenmengen lernen, die zielgerichtet schlussfolgern und die in natürlicher Art und Weise mit dem Menschen interagieren können.
Der Hintergrund: Um das „exponenziell wachsende digitale Universum“ für Computer zu erschließen, stand man Vey zufolge vor einem Problem. „Herkömmliche Computersysteme sind fast blind gegenüber einem sehr großen Teil dieser Daten, nämlich gegenüber den unstrukturierten Daten wie Text-, Bild- und Videodaten. Um diese ,Dark Data‘ zu erschließen, benötigt man eher probabilistische statt deterministische Systeme“, erläuterte die Expertin. Die Frage, wie man „Dark Data“ nutzbar machen kann, war der Beginn der Entwicklung kognitiver Systeme bei IBM, die zur Watson-Technologie führte.
Fünf zentrale Leistungen
Was leisten kognitive Technologien überhaupt? Vey zufolge geht es vor allem um fünf Aspekte:
- Sie ermöglichen personalisierte Dienste für Menschen, die dadurch viel stärker in eine Dienstleistung involviert werden (Beispiel Callcenter).
- Mit ihnen lässt sich die Expertise von Experten weiter erhöhen und insbesondere auch in der Breite zugänglich machen.
- Sie führen zur Entwicklung kognitiver Produkte und Dienste. Ein Beispiel für ein Produkt ist etwa „CogniToy“, ein Lernspielzeug für Kinder zwischen vier und sieben Jahren, das Fragen beantwortet und die Kreativität anregen soll.
- Prozesse in Unternehmen lassen sich damit analysieren.
- In der Forschung lassen sich kognitive Systeme nutzen, um neue Bereiche zu erschließen und Forschung effizienter und effektiver zu machen.
Ein Flagschiffprojekt der Bildverarbeitung bei IBM bezieht sich beispielsweise darauf, Radiologen in ihrer Arbeit zu unterstützen. „Radiologen müssen jeden Tag Hunderte bis Tausende von Bildern anschauen und sehr schnell erkennen, ob etwas Ungewöhnliches vorliegt“, meinte Vey. Die Fehlerrate liege bei 15 bis 30 Prozent. Damit die Systeme die Ärzte unterstützen können, müssen sie gut „trainiert“ werden. Das Material für dieses Training hat der Konzern kürzlich durch die Aquisition der US-amerikanischen Firma Merge Healthcare erworben, die weltweit für Kliniken Dienste anbietet und Zugang zu rund 30 Milliarden medizinischen Bildern hat.
Um neue Forschungswege zu eröffnen, werden zudem Studien als Datenquelle in das Watson-System mit einbezogen. Für einen einzelnen Menschen sei es nicht mehr möglich, einen Überblick über die veröffentlichten wissenschaftlichen Studien zu erlangen, erläuterte Vey. Hypothesen seien vor diesem Hintergrund daher in gewissem Grade zufällig, weil abhängig von der Zahl der Studien, die der Forscher kenne. Hier könne man mit Cognitive Computing relativ schnell zu neuen Ansätzen kommen, die man dann weiterverfolgen könne, etwa in der Medikamentenentwicklung.
Künftig werde Cognitive Computing auch stärker mit dem Bereich Robotics zusammengebracht. Ein Beispiel dafür sei „Pepper“, ein „emotional robot“, der in Japan verkauft wird als „robot to make people happy“. Er könne bis zu einem gewissen Grad Emotionen erkennen und auch „ein kleines bisschen Emotionen zeigen“, sagte Vey. Im Geschäftskontext eingesetzt, könne ein solcher Roboter künftig als Verkäufer beispielsweise auf die Stimmung des Kunden reagieren. „Wenn er merkt, jetzt kommt ein Kunde, der verärgert ist, weil wir ein Serviceversprechen nicht eingehalten haben, weiß er, jetzt ist es gerade ungünstig, ihm eine Vertragsverlängerung zu verkaufen.“ Daher sei es wichtig, mehr emotionale Intelligenz in die Systeme zu bekommen.
Gleichwohl ist Vey zufolge zu differenzieren. „Das, was unsere ureigensten menschlichen Fähigkeiten sind, wie Imaginationsfähigkeit, Empathie, Initiative, all das wird der Computer aller Voraussicht nach nie haben“, meinte die Expertin. Das lasse sich nicht oder allenfalls an der Oberfläche kodifizieren. Eher lasse sich davon sprechen, „dass wir mit den kognitiven Systemen eine Partnerschaft bilden, eine Symbiose zu unserem Nutzen. Auf der einen Seite sind die Systeme inspiriert von der Funktion unseres Gehirns, auf der anderen Seite fordern sie uns aber auch heraus, uns selbst weiterzuentwickeln. Sie sind, wenn wir es gut machen, auch eine Inspirationsquelle für unsere eigene Kreativität.“
Visual Computing
Cognitive Computing ist nicht als Ersatz, sondern in Verbindung mit menschlichen Fähigkeiten zielführend, und hilfreich dabei ist die Verbindung von Mensch und Maschine über das Viual Computing, lautete die These von Prof. Dr.-Ing. Jörn Kohlhammer vom Fraunhofer-Institut für Graphische Daten (IGD). „Wie man aus Informationen Bilder macht und aus Bildern Informationen herausholt, ist Thema des Visual Computing“, erläuterte er. Nötig sei die enge Integration visueller und automatischer Datenanalysemethoden mit Datenbanktechnologien für skalierbare interaktive Entscheidungsunterstützung. Kohlhammer führte hierfür ein Beispiel aus der Medizin an: Eine US-amerikanische Klinik, die 20 000 Datensätze über Prostatakrebs archiviert hat, habe das IGD damit beauftragt, ein „Visual Analytics“-System zu bauen, um schneller zu explorativen Hypothesen zu kommen, die dann durch konformative Hypothesen ergänzt werden können. Mit dem System will man zum Beispiel 10 000 Patienten gleichzeitig in den Krankheitsverläufen verfolgen und Kohorten bilden, bevor in einem weiteren Schritt Handlungsempfehlungen für die Therapie entwickelt werden können.
Am Beispiel des Smartphones umriss Prof. Dr. Paul Lukowicz vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern die Entwickungen bei eingebetteten und verteilten Systemen, einem Teilbereich innerhalb der Forschungen zu künstlicher Intelligenz (KI). Das Handy habe sich als „geniale Interaktionsplattform“ für alle möglichen Anwendungen, etwa für Gesundheit, Hausautomation, Beruf et cetera etabliert. „Wir leben zunehmend in persönlichen digitalen Ecosystemen. Wir sind von diesen Geräten umgeben, die miteinander kommunizieren, und diese mit Intelligenz ausgestattete Welt lässt sich über Apps einfach und beliebig erweitern“, erläuterte Lukowicz. Das Ergebnis sei eine „Wolke von smarten Geräten“ in der Alltagswelt. Die messenden, vernetzten Geräte fütterten die Wolke mit Erfahrungen und nähmen dadurch auch Gestalt an („Embodyment“). „Sie verbinden die statische Watson-Intelligenz mit einem Körper, der es erlaubt, die Welt in Echtzeit zu durchsuchen und zu erfahren“, so der Forscher. Dadurch entstehe die Möglichkeit, in Echtzeit herauszufinden, was im Kollektiv passiert. „Für drei Viertel der Menschheit weiß man zu jedem Zeitpunkt exakt, wo sie sich hinbewegen und von der Sensorik noch einiges mehr darüber, was sie gerade tun. So etwas gab es in der Menscheitsgeschichte noch nicht“, hob Lukowicz hervor. Und es sei noch mehr möglich: Jedem einzelnen dieser Menschen können man beispielsweise Nachrichten senden und versuchen, ihn zu beeinflussen.
Mit „embedded intelligence“ ausgestattete Systeme sollen adäquat agieren, das heißt in komplexen dynamischen Situationen in der realen Welt. Ein prominentes Beispiel dafür ist das autonome „Google Car“. Lukowicz zufolge handelt es sich dabei letztlich nicht um „intelligente“ Systeme, sondern um Systeme, die aus Sicht der Menschen sinnvoll agieren. Die Frage, ob Maschinen wie etwa ein Schachcomputer intelligent sind, würde er daher verneinen. „Was ein Schachcomputer tut, ist extrem schnell suchen. Und natürlich kann der Computer schneller suchen als ein Mensch, er ist dafür gebaut worden. Ihm jetzt irgendwelche philosophischen Eigenschaften zuzusprechen, ist falsch“, so der KI-Forscher. Was „intelligente“ Maschinen im Prinzip tun, seien daher statistische Analysen und Suchen beziehungsweise Case-Anweisungen. „Mehr steckt hinter KI nicht. Das machen die Maschinen sehr effizient und in großem Maße.“ Erstaunlich sei, dass mit einem solchen Werkzeug so etwas wie ein Google Car möglich ist.
Kontrollverlust als Risiko
Problematisch ist aus seiner Sicht die Komplexität der Systeme, die niemand mehr überblicken kann. „Die reelle Gefahr ist der Kontrollverlust über die vernetzte Welt. Es entstehen Systeme von solcher Komplexität, und zwar Systeme, die plötzlich miteinander kommunizieren und sich beeinflussen in solch einer Geschwindigkeit, die die Menschen nicht mehr beherrschen können.“ Ein Beispiel für mögliche Risiken sind Finanzkrisen als Folge davon, dass die Akteure bei Finanztransaktionen in Sekundenbruchteilen handeln müssen. „Grundsätzlich sollten wir nicht vor Systemen Angst haben, die zu intelligent sind, sondern vor solchen, die in dieser vernetzten Welt zu dumm sind“, lautete seine Botschaft.
Klaus Birkenbihl, ict-Media GmbH und langjährig tätig im Advisory Board des World Wide Web Consortiums beim Web-Erfinder Sir Timothy Berners-Lee, verwies auf einen 2001 erschienenen Artikel im Scientific American, in dem Berners-Lee als einer der Autoren schildert, wie künftig Arzttermine automatisch mittels „mobiler Webbrowser“ arrangiert werden, indem diese im Semantic Web persönliche Agenten aktivieren, die wiederum Termine bei entsprechenden Therapeuten eigenständig aushandeln und organisieren. Das Semantic Web ist dabei zu verstehen als eine Erweiterung des herkömmlichen Web, in der Informationen mit eindeutigen Bedeutungen versehen werden, um die Kommunikation zwischen Mensch und Maschine zu erleichtern.
„Heute heißen diese Agenten ,Siri‘, ,Cortana‘ oder ,Google Now‘ auf Geräten, die mit dem Benutzer kommunizieren und im Hintergrund eine große Wissensdatenbank haben, aus der sie ihre Dienste für den Benutzer speisen“, erläuterte Birkenbihl. „Der Erfolg des Web beruht unter anderem darauf, dass man Ressourcen in der Welt miteinander vernetzt und dadurch einen Mehrwert erzeugt hat“, erläuterte er. Die Technologie sei inzwischen so weit, dass es für Firmen wie Google, IBM, Apple und andere „ein Klacks“ sei, das gesamte Web in ihren Rechenzentren zu speichern und zu verwerten. „Dadurch entwickelt sich eine Struktur, die gefühlt so ähnlich aussieht wie ein Semantic Web, aber ökonomisch etwas ganz anderes ist“, so der IT-Experte.
Die Semantic-Web-Technologie ist laut Birkenbihl auch heute noch überaus erfolgreich und heißt etwa bei Google „Knowledge Graph“. Dieses riesige interne Netz werde durch externe Bestandteile des Web ergänzt, etwa durch Wikidata, das Daten aus und für Wikipedia sammelt, sowie durch weitere verfügbare Medien, die automatisch oder halbautomatisch (und auch manuell) mit den Methoden künstlicher Intelligenz erschlossen werden.
Zu dieser Datenbasis kommen zusätzliche Daten aus angebotenen Diensten hinzu. Hierzu zählen etwa die Auswertung aus Suchanfragen, Quellen wie die sozialen Netzwerke, Anwendungen wie die Home Automation, das autonome Auto (etwa Bewegungsprofil, Fahrverhalten), Smartphone-Daten und die Erschließung multimedialer Inhalte (Gesichtserkennung, Video, Bilder). Die Philosophie dabei laute: „Je mehr wir wissen, desto besser sind unsere Dienste.“ Birkenbihl zufolge wird es künftig immer weniger problemorientierte isolierte Datenbanken geben. „Die Zukunft gehört vernetzten Daten, deren Anwendungsbezug nicht von vornherein feststeht. Da ergibt sich natürlich die Frage, ob das in jedem Fall gewünscht ist, vor allem dann, wenn sich an einer Stelle riesige Datenmengen anhäufen.“
Folgen für Datenschutz unklar
Das rasche Datenwachstum resultiere einerseits aus den zunehmend sich erschließenden Quellen, andererseits daraus, dass immer mehr Daten auch von den Devices produziert, ausgetauscht und vernetzt werden. „Was dabei noch gar nicht geklärt ist, sind die Auswirkungen auf den Datenschutz.“ Berners-Lee habe noch die Idee gehabt, dass die Agenten Vertrauensverhältnisse aufbauen. Das heißt, sie versenden jeweils nur die Daten, die für eine Aufgabe erforderlich sind und die sie jemandem anderen anvertrauen wollen. Heute flössen die Daten relativ ungehemmt in beide Richtungen.
„Es wird eine neue Gesellschaft entstehen und vermutlich den Datenschutz in der alten Form nicht mehr geben“, folgerte Birkenbihl. „Die Frage ist auch, welche Machtverhältnisse daraus resultieren, dass die Daten zentral an einer Stelle verfügbar sind oder kontrolliert werden, und die anderen nur die Nutzer sind, die auf Dienste angewiesen sind“. Was passiere mit Sicherheit, Vertrauen, Vertraulichkeit? Welche Auswirkungen habe das auf die Arbeitswelt, auf die Politik? „Das politische Denken läuft der exponenziellen Technologieentwicklung hinterher. Es passiert etwas, das nicht mehr in nationale Regelungsprozesse zurückzuholen ist“, befürchtet der IT-Experte. „Über die UNO gibt es Versuche, international in diese Prozesse einzugreifen und zu regulieren, denn die nationale Politik ist damit überfordert.“ Heike E. Krüger-Brand
Fakten zu Cognitive Computing
Definition: „Cognitive Computing beschreibt selbstlernende IT-Systeme, die in Echtzeit mit Menschen und anderen Computersystemen kommunizieren, sich an frühere Interaktionen erinnern und eigenständig Schlüsse ziehen können. Dabei berücksichtigen sie ihr Umfeld und verarbeiten in hoher Geschwindigkeit große Datenmengen aus unterschiedlichsten Quellen.“ Quelle: Bitkom
Markt: Nach Prognosen des Digitalverbands Bitkom wird der weltweite Umsatz mit Hardware, Software und Diensten rund um Cognitive Computing im Jahr 2015 rund 980 Millionen Euro betragen. Bis zum Jahr 2020 soll dieser Markt auf ein Volumen von 13 Milliarden Euro anwachsen.
Watson – der erste seiner Art
Für Aufsehen sorgte das kognitive Computersystem Watson im Jahr 2011, als es in der US-amerikanischen TV-Quizshow „Jeopardy!“ gegen die beiden bis dahin ungeschlagenen menschlichen Kandidaten gewann. Dabei musste der Rechner in natürlicher Sprache gestellte Fragen beantworten, das heißt, Nuancen wie etwa Wortspiele, Synonyme und Homonyme mit einbeziehen.
Der Supercomputer war dabei zunächst nicht mit dem Internet verbunden, sondern musste auf interne Wissensdatenbanken zurückgreifen. Er verwendete maschinelle Lernalgorithmen, statistische Analysetechniken und Verarbeitungsroutinen für die natürliche Sprache, um die Fragen „zu verstehen“. Anschließend verglich er mögliche Antworten auf ihre Wahrscheinlichkeit und antwortete innerhalb von drei Sekunden.
Schon bald hat IBM jedoch begonnen, die „kognitiven“ Funktionen aus dem Supercomputer herauszulösen und als Cloud-Services zur Verfügung zu stellen. Zudem wurden die Services mit weiteren Programmierschnittstellen ergänzt, die Entwickler weltweit mit eigenen Technologien zusammenbringen können. Watson ist laut IBM somit ein offenes System, um zu ermöglichen, dass rasch viele neue kognitive Lösungen entstehen.