Künstliche Intelligenz hat noch Grenzen

Künstliche Intelligenz

Intelligente Maschinen beschäftigen die Menschen derzeit stark. Die Wissenschaftsjournalistin Eva Wolfangel beschreibt hier  die ganz aktuellen Herausforderungen für Künstliche Intelligenz. Maschinelle Wissensaneignung ist eine der Technologien, die unser Leben verändern werden. Dazu am Ende des Textes auch ein Kommentar.

Sei es das soziale Netzwerk Facebook, das seine User mittels Künstlicher Intelligenz besser kennen lernen und Werbung noch gezielter platzieren will oder Googles Vision, den Menschen künftig Fragen zu beantworten, bevor sich diese ihnen stellen: Künstliche Intelligenz ist derzeit in viel gefragtes Themenfeld. Schließlich wächst die Bedeutung des Themas auch in der Wissenschaft, hohe Fördersummen fließen in entsprechende Projekte. Ein mutmaßlich weiterer Grund: Die Sichtweise der Öffentlichkeit – seien es Befürchtungen vor superintelligenten Robotern bis hin zu übergroßen Hoffnungen, was Maschinen alles leisten könnten – weicht bisweilen von der Realität der Forschung ab. In verschiedenen Artikeln beschreiben die Forscher die aktuellen Herausforderungen für die Künstliche Intelligenz – und ihre Begrenzungen.

Geschichte der intelligenten Computer

Die Wissenschaft erlebt derzeit ein großes Comeback eines Themas, das eigentlich bereits Mitte der 1960er Jahre auf der Tagesordnung stand. Bekanntestes Beispiel aus dieser Zeit ist sicherlich „Eliza“, eine Software des Massachusetts Institute of Technology, die vorgab, ein Therapeut zu sein, der mit Menschen schriftlich kommunizierte und dabei den Eindruck erweckte, intelligent zu antworten. In Wirklichkeit hatten „Elizas“ Entwickler aber einfach eine Reihe an Regeln programmiert, wie sie auf Fragen antworten konnte. Eine Zeitlang wirkt das System erstaunlich menschlich, aber in längeren Konversationen wird die Begrenztheit spürbar: zu sehr wiederholt sich das Schema, nach dem Eliza beispielsweise Bemerkungen des Nutzers einfach in eine Frage umformuliert und zurück stellt. (Hier kann man Eliza testen.) Mangels technischer Möglichkeiten blieb es damals bei einer kleinen Episode in der Forschung zu Künstlicher Intelligenz.

Selbst lernende Maschinen werden Alltag

Während den Entwicklern vor einem halben Jahrhundert kaum etwas anders übrig blieb, als Regeln zu programmieren, auf deren Grundlage Maschinen entscheiden sollten, entstehen heute so genannte selbst lernende Systeme. Computer zu bauen, die sich automatisch auf der Grundlage von Erfahrung verbessern,  sei das „Herz der künstlichen Intelligenz“, so Michael Jordan von der University of California und Tom Mitchell von der Mellon University in Pittsburgh.
Maschinelles Lernen habe in den vergangenen beiden Jahrzehnten „dramatische Fortschritte gemacht“. Der Katalysator dahinter: die massenhafte Online-Verfügbarkeit von Daten und die sinkenden Kosten leistungsstarker Computer, um diese automatisiert auszuwerten. „Viele Entwickler von KI-Systemen erkennen jetzt, dass es für viele Anwendungen leichter sein kann, ein System zu trainieren, indem sie ihm Beispiele von erwartetem Eingabe-Ausgabe-Verhalten zeigen, als das händisch zu programmieren und dabei alle erwünschten Antworten auf alle denkbaren Eingaben zu bedenken“, schreiben die Forscher weiter. Die Maschinen werden, vereinfacht gesagt, mit vorhandenen Daten gefüttert, beispielsweise Inhaltsgleiche Texte in verschiedenen Sprachen, erkennen darin Muster und lernen daraus die Regeln für eine automatische Übersetzung. Je mehr Daten vorhanden sind, umso zuverlässiger decken sie alle Fälle ab, an die ein menschlicher Programmierer vielleicht nicht gedacht hat. Jede Regeln einzeln zu programmieren ist zudem eine aufwendige Fleißarbeit.

Menschliche Sprache als Herausforderung

Die Fähigkeit von Computern, zwischen menschlichen Sprachen zu übersetzen, sei ein guter Maßstab für künstliche Intelligenz, schreiben Julia Hirschberg von der Columbia University und Christopher M.Manning von der Stanford University.  Das erfordere nicht nur die Fähigkeit, Sätze zu analysieren, sondern auch ein Verständnis von Kontext. Lange bevor der Begriff „Big Data“ eingeführt worden sei, habe die Computerlinguistik seit Beginn der 1980er Jahre mittels großer Mengen an Sprachdaten Modelle der menschlichen Sprache entworfen. Dennoch seien die Hoffnungen der Forscher immer wieder enttäuscht worden: Das Sprachverständnis von Robotern sei nach wie vor weit von den Vorbildern in Science Fiction Filmen entfernt. Erst in den vergangenen fünf Jahren habe sich die Situation verbessert, so dass zumindest junge Leute heute wie selbstverständlich mit ihrem Smartphone sprechen. Das kommerzielle Interesse an maschineller Sprachverarbeitung sei ebenfalls gewachsen. „Aus dieser Perspektive ist es aber wichtig zu bedenken, dass die Entwicklung wahrscheinlichkeitstheoretischer Ansätze für Sprache nicht einfach das Lösen technischer Problem ist“, betonen die Autoren:  Regeln menschlicher Sprache, die Computer in großen Datenmengen finden, werden wiederum in der Linguistik reflektiert. Dadurch werde die Sprachwissenschaft ihrerseits empirischer und verfolge quantitativere Ansätz

Künstliche Intelligenz kann den Menschen noch nicht übertreffen

Auch wenn die Forscher mit rein datenbasiert selbst lernenden Systemen erstaunlich gute Ergebnisse erzielen, erleben sie aktuell deren Begrenzung. Was Menschen über viele Jahre hinweg als Weltwissen ansammeln, ein intuitives Gespür für Zusammenhänge, die uns so selbstverständlich erscheinen, müssen Computer aufwendig lernen. Computerlinguisten beobachten aktuell, dass maschinelle Übersetzungen besser werden, wenn ein automatisches Modell und der Input von Menschen zusammen gebracht werden. „Maschinelle Übersetzungen sind nicht unbedingt eine Aufgabe, die Maschinen alleine erledigen sollten“, schreiben Hirschberg und Manning. Vielmehr sei eine Zusammenarbeit von Mensch und Maschine denkbar, die menschliche Fähigkeiten nutzt anstatt sie zu ersetzen.
Auch Jordan und Mitchell sehen einen Trend hin zu neuen maschinellen Lernmethoden, die in der Lage sind, kollaborativ mit Menschen zusammen zu arbeiten, um gemeinsam komplexe Datensätze zu analysieren. Computer können raffinierte statistische Effekte erkennen, und kombiniert mit dem vielfältigen Hintergrundwisse der Menschen können so plausible Erklärungen und neue Hypothesen entstehen.
Und eine weitere Entscheidung muss der Mensch treffen: „Wie jede machtvolle Technologie wirft auch Maschinelles Lernen die Frage auf, welche ihrer Anwendungen die Gesellschaft nutzen will und welche nicht“, so Jordan und Mitchell. Zudem stelle sich die Frage, wem die Daten in Zukunft gehören sollen und wer von deren Nutzen profitiert. Viele Daten sind aktuell in den Händen großer Unternehmen, die sie auswerten, um ihren Profit zu erhöhen. „Die Daten müssten ein öffentliches Gut sein, damit die Gesellschaft einen Nutzen daraus ziehen kann.“ Aktuell habe die Gesellschaft aber angesichts von Gesetzen, Sitten und kulturellen Faktoren aber gar nicht die Möglichkeit, von den bereits online vorhandenen Daten zu profitieren, selbst wenn sie wollte  – „obwohl es Daten über jeden von uns sind.“ Maschinelles Lernen sei eine der Technologien des 21. Jahrhunderts, die das Leben stark verändern. „Es erscheint unumgänglich, dass die Gesellschaft jetzt beginnt darüber nachzudenken, wie sie den maximalen Nutzen daraus zieht.“

Übertrumpfen uns die Maschinen in Zukunft?

Werden Maschinen eines Tages schlauer sein als wir selbst? Nach der Lektüre der aktuellen Science-Artikel zum Thema Künstliche Intelligenz kann man getrost davon ausgehen, dass dies zumindest noch in weiter Ferne ist. Noch sind viel zu viele grundlegende Probleme zu lösen, angefangen vom Weltwissen, das uns Menschen so natürlich und naheliegend erscheint, und das gleichzeitig so unlogisch, so uneindeutig und teilweise so unvorhersehbar  ist, dass Maschinen es kaum berechnen können. Bis hin zur noch holperigen Kommunikation mit Maschinen, die uns Menschen immer wieder daran erinnert, dass wir es nicht mit unseresgleichen zu tun haben. Trotzdem, warnt Stuart Russells, einer der Pioniere der Künstlichen Intelligenz im Science-Interview, sollten wir uns darauf nicht verlassen: „Studenten müssen deshalb heute lernen, dass die Ausrichtung künstlicher Intelligenz entlang menschlicher Werte zentral ist für das Feld.“ Schließlich gehe eine große Gefahr davon aus, wenn künstliche Intelligenz menschliche Werte falsch interpretiere oder anwende. All  jene, die solche Bedenken wegwischen mit dem Argument, dass künstliche Intelligenz nie auf das Niveau menschlicher Intelligenz oder darüber komme, sagt Russell:  „Das ist wie auf eine Klippe zuzufahren und zu sagen: Lasst uns hoffen, dass bald das Benzin leer ist.“

2000px-Neural_network.svg

________________________________________

KOMMENTAR -Welche Intelligenz wollen wir?

Fahren wir auf eine Klippe zu und hoffen, dass das Benzin leer ist, bevor wir in den Abgrund stürzen? Dieses drastische Bild zeichnet der KI-Pionier Stuart Russel von der University of Califormia in der aktuellen Ausgabe des „Science“-Magazins angesichts all derer, die sagen: Maschinen werden nie intelligenter sein als Menschen. Ob es zu diesem Punkt je kommt, steht in den Sternen. Aber auch das, was selbst lernende Algorithmen heute schon können, fordert eine Neuorientierung der Gesellschaft. Das Bild Russels ist symptomatisch für unseren Umgang mit dem Thema künstliche Intelligenz: Anstatt sich genauer mit dem zu beschäftigen, was die modernen Technologien selbst lernender Systeme an Veränderungen für unser Zusammenleben mit sich bringen, halten wir uns lieber die Augen zu und hoffen, dass es schon gut gehen wird. Einerseits fördert die Gesellschaft entsprechende Entwicklungen mit hohen Fördersummen, andererseits weigern sich Politiker, sich tiefer mit dem Thema auseinanderzusetzen und entsprechende Gesetze auf den Weg zu bringen.
Wie unzureichend die gegenwärtige Rechtsprechung auf das vorbereitet ist, was intelligente Systeme heute schon können, zeigen Eric Horviz von Microsoft Research und Deirdre Mulligan eindrücklich auf.
So  ermögliche die Analyse von öffentlich zugänglichen Twitter-Posts oder Facebook-Nachrichten eine Vorhersage drohender depressiver Erkrankungen – was einerseits gut für die Gesellschaft sein könnte, die Betroffenen so helfen kann, bevor sie in eine fortgeschrittene Phase der Krankheit kommen. Andererseits können Arbeitsgeber solche Analysen nutzen, um Bewerber abzulehnen, die ein großes Erkrankungsrisiko in der Zukunft haben. Nach aktuellem Recht ist das legal, da solcherlei Vorhersagen im Gesetz nicht vorgesehen sind. Erst das Vorhandensein großer Datenmengen und moderne intelligente Algorithmen machen sie möglich. Bewerber sind aktuell vom Gesetz nur dann geschützt, wenn sie bereits krank oder behindert sind – nicht, wenn sie es erst werden.
Es erscheint absurd, dass ausgerechnet Vertreter von Unternehmen wie Microsoft Research, die an den künftigen Entwicklungen der künstlichen Intelligenz verdienen wollen, förmlich um Regulierung betteln. Der Beitrag von Horvitz zeigt auch die Besorgnis der Forscher angesichts von Politikern, die technologische Entwicklungen scheinbar nicht ernst nehmen oder nicht verstehen. Natürlich ist es auch ein komplexes Thema: Aktuelle selbst lernende Systeme nach dem Vorbild neuronaler Netze erzeugen vielschichtige Ergebnisse, so Horvitz, „die selbst ihre Entwickler möglicherweise nicht in ihrer Gänze verstehen.“

Die Politiker müssen die Bürger schützen

Aber gerade deshalb müssen Politiker die Bürger schützen. Kaum ein Nutzer kann einschätzen, aufgrund welcher Daten ein Algorithmus beispielsweise seine Depressionsanfälligkeit berechnet. „Maschinelles Lernen erschwert es dem Einzelnen zunehmend zu verstehen, was andere über ihn wissen können auf der Basis jener Dinge, die er bewusst geteilt hat“, so Horwitz.
In der Vergangenheit haben Forscher immer wieder gezeigt, wie einfach es zudem ist, Einzelne in anonymisierten Datensätzen zu identifizieren. Je mehr öffentlich geteilte Daten und intelligente Rechenprogramme  hinzukommen, umso schwieriger wird es in Zukunft, einzelne Nutzer verlässlich zu anonymisieren. Vermutlich wird es bald genügend verfügbare Daten über jeden von uns geben, dass eine Anonymisierung zur Farce wird.
Fakt ist, dass die neuen Technologien mit guten oder mit schlechten Absichten genutzt werden können: zur Krankheitsprävention ebenso wie zur Diskriminierung. Anstatt das Datensammeln an sich regulieren zu wollen, sei es daher sinnvoller, nutzungsbasierte Gesetze  zu implementieren, so Horvitz: „Auch wenn das eine Herausforderung ist, sind solche Gesetze ein wichtiger Teil der rechtlichen Landschaft der Zukunft. Sie werden helfen, Freiheit, Privatsphäre und das Allgemeinwohl voran zu bringen.“ Solche Perspektiven sollten eigentlich Politiker einnehmen, anstatt an überholten Regulierungsmechanismen festzuhalten.
Selbst lernende Systeme und Künstliche Intelligenz stürzen uns in keinen Abgrund. Im Gegenteil, sie versprechen spannende neue Erkenntnisse und können unser Leben verbessern – wenn wir jetzt aufwachen und mitgestalten. Denn wie wir die Technologie nutzen wollen, ist eine gesellschaftliche Frage. Es ist peinlich, dass uns die Wissenschaft daran erinnern muss.

Twitterprofil der Autorin: https://twitter.com/evawolfangel

Kommentar hinterlassen zu "Künstliche Intelligenz hat noch Grenzen"

Hinterlasse einen Kommentar

E-Mail Adresse wird nicht veröffentlicht.


*