Ein Roboter, der das Gesamtwerk eines (Fach-)Autors innerhalb von Sekunden lesen und dann zitieren kann? Ein Roboter, der wie ein kleines Kind lernen kann, dass bestimmte Worte zu bestimmten Bildern gehören, und der dann die korrekten Gegenstände visuell erkennen und greifen kann, wenn er das passende Wort hört? „Robbie, hol‘ mir mal den …“ – Sind solche Erfindungen in Zukunft nützliche Assistenzsysteme für unsere Wohnungen, Arbeitsplätze, Krankenhäuser und Altenheime?
‚Maschinen-Lernen‘ bedeutet nicht, dass man Maschinen für jeden denkbaren Fall komplett durchprogrammiert. Vielmehr ‚zeigt‘ man der Maschine Beispiele und die Maschine ahmt diese dann selbstständig nach. Dafür gibt es sogar eigene ‚Robo-Psychologen‘!
Auch kindliche Gehirne sammeln im Grunde Daten und sind dann nach ein paar Jahren autonom in der Lage, diese Datensammlungen anzuwenden.
Allerdings sind unsere Gehirne zu solch hochkomplexen Leistungen fähig, dass künstliche Intelligenz nur in manchen Bereichen hinterherkommt. Es wird noch lange dauern, bis ein Roboter dem Gehirn eines zweijährigen Kindes auch nur nahekommt.
Kreativität, kritisches Denken, Kommunikation und Kollaboration: Es ist erwiesen, dass diese ‚4Ks‘ nicht so einfach durch Maschinen-Lernen nachzuahmen sind. Denn diese 4 Fähigkeiten haben viel mit Vorstellungskraft zu tun. Vorstellungskraft liegt sowohl hinter der Fähigkeit zur Empathie als auch hinter der Fähigkeit zum verantwortungsvollen Abwägen und Urteilen. Ohne dieses Abwägen könnten Maschinen als ‚autonome Systeme‘ auch ziemlichen Unfug treiben. – Dann allerdings mit maschineller Präzision! Und genau deswegen ist der Mensch so wichtig. Wir brauchen Menschen für Aufsicht, Klugheit und Verantwortung und damit ultimativ für Vertrauen.
So gesehen ist die Maschine dann doch eher ein ‚Fachidiot‘. Denn im Gegensatz zum Menschen besitzt sie ausschließlich logische Intelligenz und kann auch zwischen Gut und Böse nicht eigenständig unterscheiden. Der Mensch hingegen besitzt auch emotionale Intelligenz und damit eine unterliegende Werte-Haltung.
Die Fähigkeit von Maschinen, auf Gefühle von Menschen reagieren zu können, ist die nächste große Grenze im Maschinen-Lernen. Gefühle sind für Maschinen nämlich ‚nur‘ ein Klassifikationsproblem. Auch hier werden wieder Ähnlichkeiten mit gespeicherten Daten abgeglichen. Liebe ist für eine Maschine nicht mehr als ein Muster in einem Datensatz. Das ‚Lesen‘ von Emotionen wird für die Maschine sogar noch schwieriger, wenn sich der Mensch bewegt. „Maschinen haben kein Verständnis davon, was menschliches Leben ist“, sagt der Politologe Frank Sauer.
Wenn sie diese Fähigkeiten allerdings irgendwann einmal entwickeln, kommen auch moralisch-ethische Aspekte ins Spiel. Denn das Lesen von Emotionen ist das Auslesen biometrischer Daten. Wozu werden diese Informationen verwendet? Vielleicht um mehr Dinge zu verkaufen, die gerade unserer Stimmung entsprechen? Und wie viel Macht gibt das dann denen, die diese Daten sammeln und auswerten? Welche zusätzlichen Rückschlüsse können sie mit diesen Daten über uns ziehen? Und werden Menschen als ‚Objekte‘ gesehen, wenn man sie auf Datenpunkte reduziert? Mit solchen Fragen beschäftigen sich zum Beispiel Futuristen.
Wo kann uns das alles hinführen? Werden Roboter in Zukunft internationale Konflikte an Stelle von Soldaten ausfechten? Werden sie für uns fremde Planeten kolonisieren und dort Pflanzenwachstum initiieren? Und können wir durch künstliche Intelligenz gesünder, glücklicher und vielleicht auch klimaneutraler leben? Alles durchaus plausibel. Noch haben wir die Wahl und können als Futuristen, Psychologen, Ingenieure und Programmierer – aber auch als Nutzer und Tester – selbst aktiv mitgestalten.
Wer noch mehr wissen möchte, findet derzeit in der BR-Mediathek einige unterhaltsame Videos: ‚Helena – die künstliche Intelligenz‘ ist eine Serie von 7 interessanten 10-Minuten-Videos mit halb fiktionaler Utopie, halb dokumentarischer Forschungsrealität inklusive internationalen Expertenstimmen. In jeder Folge trifft man auf ‚Helena‘, das menschlich aussehende Daten-Hologramm, das allerdings noch ein paar Programmierungsschwierigkeiten hat und Stimmungen nicht ganz richtig einschätzen oder erwidern kann: