Künst­liche Intelligenz Roboter können nicht lieben – noch nicht

0
Künst­liche Intelligenz - Roboter können nicht lieben – noch nicht

© Shutterstock

Führer­lose Autos fahren selbst­ständig durch die Welt. Roboter über­nehmen die Pflege kranker Menschen. Sprach­assistenten beant­worten unsere Fragen. Der Motor all dieser Entwick­lungen heißt Künst­liche Intelligenz (KI). Maarten Stein­buch forscht als Professor seit rund 20 Jahren zu diesem Thema. Anfang Mai wird er darüber in Berlin beim „SingularityU Germany Summit“ referieren. Im Interview mit test.de erklärt er, wie KI funk­tioniert und wie sie die Welt verändern wird.

Wenn die Realität die Fiktion einholt

Vom verliebten Disney-Roboter „Wall-E“ über das ebenso intelligente wie verführerische Betriebs­system in „Her“ bis hin zu HAL, dem Rechner aus Stanley Kubricks „2001: Odyssee im Welt­raum“, der seine menschlichen Befehls­geber aussperrt und selbst die Leitung der Mission über­nimmt: Die Film­geschichte ist voller intelligenter Wesen, die Gefühle und einen eigenen Willen haben. Auch literarische Werke wie „Der Golem“, Goethes „Zauber­lehr­ling“ oder die Kurz­geschichten von Isaac Asimov mit ihren Robotergesetzen zeugen von der unheimlichen Faszination, die künst­liche Intelligenz seit langem auf Menschen ausübt. Alles nur Science-Fiction?

Eine Welt mit Über­menschen oder ganz ohne Menschen

Wie weit die Realität die Fiktion ein- oder sogar über­holen wird – darüber diskutieren Techniker, Naturwissenschaftler und Philosophen umso angeregter, seit der IBM-Computer Deep Blue den Schach­welt­meister Garri Kasparow besiegt hat, das US-Militär an Kampf­robotern arbeitet und Autos von Google auto­nom durch Kalifornien fahren. So vielfältig die Einsatz­möglich­keiten von künst­licher Intelligenz sind, so stark unterscheiden sich auch die Sicht­weisen auf die neuen Technologien. Trans­humanisten sehen in einer Verschmel­zung von Mensch und Maschine den Weg zu Nietz­sches „Über­menschen“. Manche Techniks­keptiker hingegen warnen vor einem totalen Kontroll­verlust, der in der Versklavung oder Zerstörung der Menschheit münden könnte.

Künst­liche Intelligenz als Chance

Solche Extrem­positionen sind jedoch oft eher von Fantasie als von Wissen geprägt. Als tech­nischer Experte tritt Prof. Stein­buch solchen Haltungen mit seinem Fachwissen entgegen. Der Wissenschaftler von der Tech­nischen Universität Eindhoven wirbt für eine opti­mistische Perspektive, die die Chancen der KI-Technik in den Vordergrund stellt und gleich­zeitig Lösungs­ansätze für die Gefahren erarbeitet, die von künst­licher Intelligenz ausgehen. Wir haben uns im Vorfeld des „SingularityU Germany Summit“ – einer Berliner Konferenz der Technologie-Denk­fabrik „Singularity University“ – mit ihm unterhalten.

Welt­meister im Roboterfuß­ball

Wie erforschen Sie das Thema „Künst­liche Intelligenz“?

Ich bin Leiter einer Forschergruppe, die auf Roboter und auto­nome Autos spezialisiert ist. Wir sind derzeit Welt­meister im Roboterfuß­ball. Wir sammeln während der Spiele Daten über unsere Gegner, um ihr Verhalten besser vorher­sagen zu können. Dadurch können wir schon vor der Aktion eines Gegen­spielers erahnen, ob er passen oder schießen wird. Das ermöglicht uns, bessere Strategien für unsere eigene Spiel­weise zu entwickeln.

Werden Ihre Roboter je das menschliche Welt­meister-Team schlagen können?

Definitiv! Die einzige Frage ist “Wann?” Ursprüng­lich galt das Jahr 2050 als Ziel, inzwischen erwarte ich diesen Erfolg eher um 2030 herum. Momentan entwickeln wir Roboter, die den Ball mit einer Geschwindig­keit von zehn Metern pro Sekunde schießen können – und sie werden auch immer präziser im Abschluss. Was wir noch schaffen müssen, ist, ihre Intelligenz zu erhöhen und ihnen die Fähig­keit zu geben, auf Naturrasen zu spielen. Sobald das abge­hakt ist, werden wir die National­elf von Brasilien oder Deutsch­land besiegen können.

Werbung mit der Nadel im Heuhaufen

Sie als Experte sind beim Roboterfuß­ball dabei. Aber wo begegnet KI dem Durch­schnitts­menschen im Alltag?

Bei vielen KI-Anwendungen sind wir uns meist gar nicht bewusst, dass KI dahinter steckt. Ein Beispiel sind Werbeanzeigen im Internet, die etwa von Google platziert werden. Wenn Sie online immer wieder nach Tablets suchen, zeigt Google Ihnen bald lauter Anzeigen für Tablets. Das funk­tioniert durch Daten­analysepro­zesse im Hintergrund, von denen wir im Normalfall nichts mitbekommen.

Was ist denn an Werbeanzeigen „intelligent”?

Künst­liche Intelligenz ist nichts weiter als große Mengen an Daten (Big Data) zu sammeln und in diesen unstrukturierten Daten bislang unbe­kannte Strukturen, Zusammenhänge und Korrelationen zu finden. Big Data an sich ist nicht sehr nützlich, das ist quasi ein Heuhaufen – die KI-Algorithmen lernen aber, wie sich darin Nadeln finden lassen. Konkret gesprochen: Da Google über die Jahre hinweg viele Ihrer Präferenzen und Hobbies erfährt, kann das Unternehmen Werbeanzeigen individuell auf Sie zuschneiden. Die Intelligenz besteht also darin, aus Ihrem gesamten Surf­verhalten das Relevante heraus­zufiltern.

Auto­nomes Fahren: Wagen, hol schon mal den Harry!

Woran arbeiten Sie bei auto­nomen Autos?

Autos müssen verstehen, was sie „sehen“. Das geht nur, wenn ihnen eine Daten­bank zur Verfügung steht, mit der sie ihre Erfahrungen abgleichen können. Wir haben in den letzten Jahren an einer solchen Daten­bank gearbeitet – sie heißt „RoboEarth“, wie Google Earth, nur eben für Roboter. Mit Hilfe einer solchen Daten­bank können Maschinen viel schneller lernen als Menschen, da sie nicht jede Erfahrung selbst machen müssen, sondern das Vorwissen anderer Maschinen einfach „herunter­laden“ können. Wenn ein Auto beispiels­weise auf etwas zufährt, das entweder ein Lampenpfahl oder ein sehr dünner Mensch sein könnte, dann kann es schnel­lere und bessere Entscheidungen treffen, indem es seine aktuelle Situation mit anderen Aufnahmen vergleicht, in denen Lampenpfähle oder dünne Menschen zu sehen sind. Zusätzlich kann es Bilder seiner aktuellen Situation „hoch­laden“, sodass die Daten­bank immer detaillierter und differenzierter wird.

Werden auto­nome Autos die Straßen sicherer machen als sie es derzeit mit menschlichen Fahrern sind?

Ja, Maschinen machen viel weniger Fehler als Menschen. Derzeit sterben jedes Jahr rund 1,4 Millionen Menschen im Straßenverkehr. Experten glauben, dass wir diese Zahl um bis zu 90 Prozent senken können, wenn wir auto­nome Autos verwenden.

Eine Theorie besagt, dass auto­nome Autos die Anzahl der welt­weiten Fahr­zeuge massiv verringern werden, was natürlich ein enormer Beitrag zum Umwelt­schutz wäre. Aber wie genau soll das funk­tionieren?

Unsere derzeitigen Fahr­zeuge sind eher Stehzeuge – die meiste Zeit stehen sie rum und tun gar nichts. Dennoch fallen Kosten für Versicherung, Steuern, Benzin, Instandhaltung und Parken an. Das ist eine riesige Geld­verschwendung. Jetzt nehmen wir mal an, Ihr Fahr­zeug würde für Sie arbeiten, während Sie es nicht verwenden. Es könnte in dieser Zeit andere Menschen trans­portieren. Das würde Ihre Ausgaben für’s Auto massiv senken, da Sie von den anderen Nutzern ja Geld erhalten – und die wiederum würden sparen, weil sie kein eigenes Auto kaufen brauchen. Dieser Anreiz soll dazu führen, dass immer mehr Menschen Autos miteinander teilen. Mit-Besitzer eines geteilten teuren Wagens zu sein, wird immer noch weniger kosten als sich ein güns­tiges Autos allein zu kaufen. In naher Zukunft werden zudem die Preise von Batterien für Elektro­autos deutlich sinken, während ihre Reich­weite wachsen wird. Dadurch werden sich mehr und mehr Menschen für Elektro­autos entscheiden, was der Umwelt auch schon hilft. Und die Technologie von Elektro­autos und auto­nomen Autos ist sehr ähnlich. Das heißt: Wenn wir uns erst­mal an Elektro­autos gewöhnt haben, ist es nur noch ein kleiner Schritt zu auto­nomen Autos.

Künst­liche Intelligenz als Allheil­mittel?

Dass KI-Systeme zum Klima­schutz beitragen sollen, liest man oft. Wenn wir mal von auto­nomen Autos absehen, wie genau soll das ablaufen?

Wir brauchen bessere Rechenmodelle, um die Konsequenzen unseres Handelns präziser voraus­zusagen. Das geht, indem wir mehr Daten sammeln und sie nach Mustern und Korrelationen durch­suchen. Diese Modelle helfen uns dann heraus­zufinden, was wir tun können und welche Klima­schutz-Maßnahmen am effektivsten sind.

In welchen Bereichen kann uns KI-Technologie noch helfen?

Zum Beispiel bei der gesundheitlichen Versorgung, bei der Mobilität und der Energieproduktion. Auto­nome Autos werden die Anzahl der Unfälle reduzieren und die Mobilität körperlich einge­schränkter Menschen steigern. Ein besseres Verständnis unserer DNA wird die Personalisierung von Medikamenten und Nahrungs­mitteln verstärken und damit Krankheiten verhindern oder lindern und die Lebens­erwartung verlängern. Vor Kurzem gab es zum Beispiel eine Studie, bei der Menschen mit der Kamera ihres iPhones ihre Haut fotografierten. Eine KI-Software stellte dann mit hoher Genauigkeit fest, ob die Haut gesund aussieht oder ob Verdacht auf Haut­krebs besteht. Das ist gerade für Menschen sehr hilf­reich, die in entlegenen Regionen wohnen, wo es an der ärzt­lichen Versorgung mangelt.

Kreativität und Emotionen als Heraus­forderungen

Um mal kurz zusammen­zufassen, was klappt schon ziemlich gut mit künst­licher Intelligenz? Und wo ist noch Luft nach oben?

Ziemlich beein­druckend ist die Daten­analyse – also Algorithmen, die zum Beispiel finanzielle Entwick­lungen wie Aktientrends vorher­sagen. Auch personalisierte Werbung läuft gut. Das Gleiche gilt für die Daten­analyse in der Industrie, die Arbeits­abläufe und Logistik­prozesse effizienter macht, die Produktivität erhöht und personalisierte Produkte ermöglicht. Und natürlich sind da noch die Fort­schritte bei auto­nomen Autos. Was wir noch verbessern müssen, ist Kreativität. KI-Systeme können zwar sehr gut Befehlen folgen und lernen, aber die eigen­ständige Entwick­lung von Ideen ist derzeit noch ein Schwach­punkt. Ein Computer kann jeden Menschen im Schach besiegen, aber er kann keinen Kunst­maler oder Komponisten ersetzen.

Wie sieht es aus mit Emotionen? Gerade für Pflegeroboter wäre das Verstehen und Zeigen von Emotionen ja eine wichtige Voraus­setzung. Gibt es da Fort­schritte?

Ja, neulich habe ich die Roboter-Robbe „Paro“ gesehen. Wenn man sie streichelt oder umarmt, reagiert sie, indem sie sich bewegt, ihre Augen öffnet und zeigt, dass ihr das gefällt. Gerade Demenz-Patienten sind von ihr sehr angetan. Dann gibt es die App „Moodies“, die anhand der Stimme eines Nutzers erkennen kann, wie er emotional drauf ist. Und ich habe eine KI-Technologie gesehen, die einen Psycho­logen ersetzen und Therapie­gespräche mit Patienten führen soll – ich fand sie besser als menschliche Psycho­logen. Mithilfe von Gesichts- und Stimm­erkennung gelingt es KI-Systemen also bereits, soziales Verhalten und Gefühle zu verstehen – und sie werden immer besser darin.

Arbeits­losig­keit: Wenn Roboter Menschen ersetzen

Das klingt bisher alles sehr viel­versprechend. Um aber auch mal auf die andere Seite der Medaille zu schauen: Es gibt Studien, die vorher­sagen, dass viele Jobs künftig von KI-Systemen über­nommen werden. Treffen diese Prognosen zu, werden Millionen von Menschen ihren Arbeits­platz verlieren. Das klingt ziemlich beängs­tigend. Stimmen diese Voraus­sagen?

Diese Prognosen halte ich für korrekt. Maschinen werden schließ­lich nicht müde oder krank, sie brauchen weder Nacht­ruhe noch Urlaub, sie machen keine Flüchtig­keits­fehler und sie streiken nicht. Allerdings werden auch viele neue Jobs entstehen – Jobs, bei denen Maschinen und Menschen koope­rieren. Möglicher­weise werden unsere Jobs auch interes­santer, denn die Maschinen werden vor allem mono­tone Aufgaben über­nehmen. Dennoch wird es deutlich mehr Arbeits­lose geben als derzeit, da einfach nicht mehr genügend Jobs vorhanden sein werden. Hier müssen sich Gesell­schaften Konzepte über­legen, wie sie mit permanent hohen Arbeits­losenzahlen umgehen wollen. Ein unbe­dingtes Grund­einkommen kann eine Möglich­keit sein.

Ethische Regeln einprogrammieren

Gibt es etwas beim Thema KI, das Ihnen Angst macht?

Wie jede Technologie kann auch KI miss­braucht werden. Deshalb müssen wir von Anfang an ethische Regeln einprogrammieren, dass KI-Systeme unser Leben und unseren Planeten schützen sollen. Eine konkrete Gefahr, die ich sehe, ist etwa der Einsatz von KI zu Kriegs­zwecken.

Und wie kann das verhindert werden? Das Militär oder auch manches Privat­unternehmen macht sich wahr­scheinlich weniger Sorgen um Ethik.

Wir müssen junge Programmierer und Ingenieure auch ethisch ausbilden und einen Ethik-Kodex entwickeln. Eine weitere Option ist, so viel wie möglich mit Open-Source-Software – Programmen mit frei lesbarem Quell­code – zu arbeiten, sodass externe Experten über­prüfen können, was das Programm tun soll und ob es so funk­tioniert wie geplant.

Eine der größten Sorgen vieler Skeptiker ist die sogenannte „Singularität“ – ein Zustand, in dem künst­liche Intelligenz uns nicht nur in Spezial­feldern wie Schach, sondern generell über­legen ist, sich selbst rasant verbessert und Entscheidungen trifft, deren Gründe Menschen nicht mehr nach­voll­ziehen können. Werden wir dieses Stadium je erreichen?

Ja, der nächste wichtige Schritt auf dem Weg dorthin ist die Entwick­lung computergenerierter Kreativität. Da erwarte ich in den nächsten fünf bis zehn Jahren deutliche Fort­schritte.

Werden Computer die Macht an sich reißen?

Was sagen Sie zu den Warnungen von Skeptikern, die befürchten, dass Roboter die Menschen „versklaven“ werden und selbst die Macht über­nehmen, sobald sie intelligenter sind als wir?

Diese Warnungen sind sehr hilf­reich. Sie weisen uns darauf­hin, dass wir ethische Regeln einprogrammieren müssen, damit KI-Systeme sich nicht verselbst­ständigen oder zu bösartigen Zwecken miss­braucht werden. Deshalb plane ich gerade ein Uni-Seminar mit dem Titel „Ethisches Programmieren“. Gleich­zeitig sollten wir uns keinen Illusionen hingeben: Es ist unmöglich, die Evolution von KI-Systemen zu verhindern. Wir können diese Entwick­lung nicht mehr stoppen. Wir können aber sehr wohl probieren, die KI-Systeme so zu programmieren, dass sie nicht gegen menschliche Moral­vorstel­lungen verstoßen.

Wie können Diskriminierungs­effekte verhindert werden? Den KI-Systemen stehen ja zunächst mal nur Daten aus der menschen­gesteuerten Vergangenheit zur Verfügung. Und wenn diese Daten zum Beispiel zeigen, dass Firmen meist männ­liche Chefs haben oder dass die Polizei dunkelhäutige Menschen häufiger kontrolliert als weiße, dann würden KI-Systeme diese Effekte ja repro­duzieren.

Das sind weitere Beispiele, die zeigen, wie wichtig es ist, Informatiker und Ingenieure nicht nur tech­nisch, sondern auch ethisch zu schulen. Computer scheren sich nicht um soziale Benach­teiligungen, also müssen wir ihnen einprogrammieren, dass sie solche Diskriminierungen zu unterlassen haben. Dazu müssen sich Gesell­schaften aber zunächst mal darüber einig werden, wie sie ihre mora­lischen Grund­sätze definieren – dann können wir sie den Maschinen auch einprogrammieren.

Politische Systeme dem Internet-Zeit­alter anpassen

Gibt es auch politische Schutz­maßnahmen, die ergriffen werden können – also Regulierungen?

Regulierung halte ich nicht für sinn­voll. Politiker müssen einsehen, dass sich die Technologie viel schneller entwickelt als die Gesetz­gebung dazu. Mit politischen Prozessen auf technologische Entwick­lungen zu reagieren dauert normaler­weise Monate – dann hat sich der technologische Stand aber längst schon wieder verändert. Wir brauchen daher sehr flexible Gesetze.

Wie aber schützen wir die politischen Systeme selbst? Den letzten Wahl­kampf in den USA sollen ja nicht nur russische Hacker, sondern auch Twitter Bots – auto­matisierte Twitter-Konten – beein­flusst haben. Für den kommenden Wahl­kampf in Deutsch­land befürchten viele ein ähnliches Szenario.

Wir werden unsere politischen Systeme dem Internet-Zeit­alter neu anpassen müssen. Das Internet sorgt einer­seits dafür, dass jeder Zugriff auf Wissen und Ideen hat – es sorgt aber eben auch dafür, dass jeder Nutzer andere Menschen beein­flussen kann. Auch eine Manipulation riesiger Menschen­massen ist möglich. Wir müssen unsere Demokratie vor Manipulationen durch falsche Informationen schützen. Das wird aber nicht über politische Entscheidungen funk­tionieren, sondern indem das Internet sich selbst korrigiert. Wo es falsche Informationen gibt, gibt es immer auch Faktench­ecker, die Lügen enttarnen. Das Netz heilt sich also gewissermaßen selbst. Zudem sollten wir das Internet als Chance nutzen, um mehr Formen direkter Bürgerbe­teiligung zu entwickeln – möglicher­weise könnte das die politische Entfremdung eindämmen, die wir derzeit in den repräsentativen Systemen erleben.

Geräte und Daten vor Hackern schützen

Bleibt noch die Gefahr des Hackens. Wie können wir sicher­stellen, dass sich KI-Systeme nicht durch Hacker von den mora­lischen Grund­sätzen abbringen lassen, die wir ihnen einprogrammieren? Große Unternehmen können sich Sicher­heits­experten leisten, aber viele leicht hack­bare Geräte aus dem Internet der Dinge stammen ja von kleinen Firmen, denen das Geld für Sicher­heits­experten fehlt.

Open Source wäre eine Antwort – also offene Quell­codes. Dann könnten externe Experten die Programmierung über­prüfen und gegebenenfalls warnen. Dennoch wird die Gefahr des Hackens stets bleiben, sie ist bei vernetzten Geräten unver­meid­bar. Wir können die Geräte aber robuster machen. Zum Beispiel, indem wir ein bestimmtes Verhalten für den Fall vorgeben, dass ein Produkt gehackt wird. Ein Auto etwa würde dann einfach routine­mäßig an den Straßenrand fahren und anhalten statt die Befehle der Hacker auszuführen. Für solche Notfall-Routinen gibt es spezielle Sicher­heitschips – also Hard­ware, die zwar nicht das Hacken selbst, aber zumindest dessen negative Effekte verhindern kann.

Letzte Frage: Sie erforschen seit vielen Jahren künst­liche Intelligenz. Was hat sie das über menschliche Intelligenz gelehrt?

Die beein­druckendsten Leistungen, zu denen unser Geist fähig ist, sind Bewusst­sein und Gefühle. Ein Roboter kann sich nicht verlieben – er kann so tun als ob, aber er kann nichts empfinden. Ich bin mir allerdings nicht so sicher, ob das in zehn Jahren immer noch stimmen wird.

0

Mehr zum Thema

0 Kommentare Diskutieren Sie mit

Nur registrierte Nutzer können Kommentare verfassen. Bitte melden Sie sich an. Individuelle Fragen richten Sie bitte an den Leserservice.