KI in der Robotik müsse laut Forschenden der TUM reguliert werden, da in sicherheitsrelevanten Bereichen keine Fehler passieren dürfen.
Eine KI wie ChatGPT kann das Programmieren effizienter machen, Texte verfassen, als Brainstorming-Partner dienen oder Designvorschläge kreieren. Sobald die so genannte generative künstliche Intelligenz allerdings in die physische Welt der Robotik gelangt, sind Forschende der Technischen Universität München (TUM) zurückhaltend.
Für OpenAI-Chef Sam Altman ist das von ihm als Denkmaschine bezeichnete generative KI-Modell ChatGPT der Beginn eines Paradigmenwechsels, vergleichbar mit dem Launch des iPhones oder gar des Internets. „Das nützlichste, bedeutendste und begeisterndste Tool, dass die Menschheit je geschaffen hat“, so sagt es Sam Altman bei seinem Besuch an der TUM in München Ende Mai. Gilt das auch für die Robotik?
„Ich muss Codes oft nicht mehr selbst schreiben“
Reinhard Heckel ist ein Fan von ChatGPT. Der Professor für maschinelles Lernen an der TUM nutzt das OpenAI-Produkt Copilot selbst zum Programmieren. „Ich muss Teile von Code oft nicht mehr selbst ausschreiben, das übernimmt das Tool automatisch“, erläutert Heckel. Besonders bei leichten Aufgaben spart er so Zeit und kann sich mit dem Teil vom Programmieren beschäftigen, „der wirklich spannend ist“.
Im Brainstorming mit ChatGPT sucht er nach geeigneten Titeln für ein Paper oder lässt es schon mal anschreiben. „ChatGPT ist ein guter Assistent für kleinere nervige Aufgaben“, meint Heckel. Sogar die Bilderkennung der Tools sei schon so gut, dass Blinde sich erklären lassen können, wie die Welt aussieht. Eine Grenze sei allerdings dann erreicht, wenn es um Roboter geht. „Als Roboter beispielsweise eine Zwiebel zu schneiden, ist komplex und im Moment schwieriger als der Umgang mit Text.“ Dennoch resümiert Heckel: „Die Vorteile überwiegen, ChatGPT und Tools wie Copilot erleichtern die Arbeit und machen sie effizienter.“
Trainingsdaten für neuronale Netze müssten da sein
Auch Klaus Diepold experimentiert mit generativer künstlicher Intelligenz. Schon vor einigen Jahren gab der Professor für Datenverarbeitung an der TUM in seinem Bachelor-Kurs „Computer und Kreativität“ Studenten die Aufgabe, Ideen zu entwickeln, wie Computer kreativ werden können. Heraus kam mit Vorläufern von ChatGPT eine Glückwunschkarte „für Tante Erna“ – grafisch gestaltet und getextet von der KI. „Die Software hat ein Gedicht geschrieben und die Ranunkeln – Tante Ernas Lieblingsblumen – durch das Tool mit einbauen lassen“, erinnert sich Diepold.
Praktische Anwendungen in der Robotik gab es allerdings nicht. Heute arbeitet Doktorand Lucca Sacchetto im Rahmen des Leuchtturmprojekts „KI.Fabrik“ beim Robotik- und KI-Institut MIRMI an einem Designgenerator auf Basis von Dalle_E, dem Bildtransformator von Altmans Unternehmen OpenAI. „Das Wissen für generative Modelle, einen Stuhl zu kreieren, ist gut, weil viele Bilder für das Training von neuronalen Netzen vorliegen.“ Solle allerdings ein Robotergreifer designt werden, sei das schwieriger, denn es gebe zu wenig Trainingsdaten. „Hinzu kommen Anforderungen an die Festigkeit des Materials und andere physikalische Eigenschaften“, sagt Diepold.
In der Robotik darf kein einziger Fehler passieren
Die Herausforderungen in der klassischen Robotik sind nach Angaben der Forschenden komplex. Ein Serviceroboter beispielsweise bewege sich im Umfeld mit dem Menschen: Er reicht einem pflegebedürftigen Menschen ein Glas Wasser oder unterstützt ihn in Reha-Übungen. „Der Roboter soll autonom, smart und schnell reagieren und darf kein Unheil anrichten“, sagt Diepold, „in einem sicherheitsrelevanten Umfeld darf man sich keinen einzigen Fehler erlauben“. Regulierungen sind also besonders in der Robotik vonnöten. „Verantwortungsvoll regulieren“ wolle er seine Software, versprach Altman in München. Als „sprachlich nettes Spielzeug“, wie es Diepold nennt, richtet ChatGPT erstmal keinen sichtbaren Schaden an, doch hat Diepold Zweifel an dessen Intelligenz. „ChatGPT produziert Texte, die eloquent sind, aber nicht intelligent“, sagt der Professor, „das ist wie bei einem Politiker auf der Bühne: Es kann sich alles gut anhören, muss deswegen aber noch lange nicht stimmen.“
Auch Alin Albu-Schaeffer, Professor für Sensorbasierte Robotersysteme und intelligente Assistenzsysteme an der TUM, macht deutlich: „ KI muss mit der physischen Welt interagieren, da reicht es nicht aus, ‚nur‘ quatschen zu können“. Das beste Beispiel dafür, was schieflaufen kann, liefert eine Hausarbeit, die Studenten von ihm über ChatGPT haben anfertigen lassen. „Sie las sich gut, aber keine der Referenzen stimmte, die in dem wissenschaftlichen Aufsatz angegeben waren“, berichtet Diepold. Immer, wenn Wissen fehle, überspiele ChatGPT das mit selbst erfundenen Informationen. In der Robotik dürfe hingegen kein Fehler passieren.
„Eine noch nicht ausgereifte Technologie ist in die Welt gekracht“
Die Co-Direktorin der Hightech-Plattform munich_i Alena Buyx von der TUM ist eine von knapp 20 Professorinnen und Professoren, die in der Taskforce für generative KI der TUM Perspektiven gegen Risiken abwägen. „Da ist ja eine noch nicht ganz ausgereifte Technologie ein wenig in die Welt gekracht und jetzt wird rapide versucht, Empfehlungen für anstehende gesetzliche Regelungen zu geben – von der technischen wie von der ethischen, sozialen und regulatorischen Seite“, erläutert die Professorin für Ethik in Medizin und Gesundheitstechnologien Buyx.
Ihr gehe es aber auch darum, neben den Risiken die positiven Potenziale zu erkennen und genau zu überlegen, wo man diese nutzen könne. Im Krankenhaus beispielsweise werden in den USA – kontrolliert und unter Aufsicht – bereits Social Bots eingesetzt, die ausführliche Entlassungsgespräche mit Patienten führen und Zeit haben, alle Fragen zu beantworten. Generative KI werde zudem in der Biotechnologie zur Analyse der Proteinfaltung eingesetzt, um neue Moleküle etwa für Krebsmedikamente zu entwickeln. Ob die Entwicklung in die richtige Richtung geht? „Die ganzen Daten, die für das Training der KI-Modelle nötig sind, stammen letztlich von uns allen, und sie wurden von den Unternehmen abgesaugt und verwendet für Technologien, die bald unsere Lebenswelt stark durchwirken werden“, erläutert Buyx, „da besteht klar für Gesellschaften das Recht, die Nutzung sowie Regulierung der Technologien aktiv zu gestalten“.
Auch OpenAI-Chef Altman betont bei seinem Besuch in München, die Fähigkeiten seiner Denkmaschine verantwortungsvoll regulieren zu wollen. Es gebe noch eine Menge zu tun. Auch deswegen sehe Altman für junge Leute gerade jetzt die wohl beste Chance in den vergangenen 15 Jahren, in der Technologie eine Karriere zu starten.
red.