
Roboterforschung
Kaiserslauterer Informatiker bringen Fahrzeugen das autonome Fahren bei und lehren einen humanoiden Roboter menschliche Emotionen und Gesten zu erkennen.
Auf den ersten Blick könnte es sich bei dem Raum im Erdgeschoss von Gebäude 48 um eine Garage handeln: Zwei geländegängige Fahrzeuge und ein kleines orangefarbenes Roboterfahrzeug stehen hier nebeneinander. Rechts daneben stapeln sich in Regalen viele Kisten, allerlei Technik und Kabel. Doch links davon arbeiten ein paar Studenten konzentriert an ihren Rechnern. Hinter ihnen springt Besuchern direkt ein künstliches Bein ins Auge: Es steht an einer Halterung befestigt auf einem Laufband. Das hochkomplexe Gebilde besteht aus einer Vielzahl von Drähten, Kabeln und Motoren. „Hiermit erforschen wir den menschlichen Gang für zweibeinige Roboter“, sagt Professor Dr. Karsten Berns, der hier mit seiner Arbeitsgruppe an Robotersystemen forscht.
Eine Etage darüber hat Robin sein Zuhause. Der humanoide Roboter besitzt ein Gesicht, Arme, Hände und Oberkörper. Er kann in englischer und deutscher Sprache sprechen. Ein Projektor, der in seinem Kopf sitzt, kann verschiedene Gesichter von Menschen, aber auch Tieren einblenden, und dabei fast jeden Gesichtsausdruck darstellen. Seinen Oberkörper kann er zudem relativ frei bewegen. Und auch die Hände können fast alle Gesten ausführen. Robin ist in der Lage, Gesten und Mimik des Menschen zu erkennen und nachzuahmen. Berns und sein Team sind dabei, ihm beizubringen, menschliche Emotionen wie Freude, Überraschung, Zweifel oder Angst zu erkennen. Langfristig soll er so lernen, diese richtig einzuordnen. Wichtig sind solche Kenntnisse in vielen Bereichen. „Die Interaktion zwischen Mensch und Maschine ist zum Beispiel in der Industrie von Bedeutung“, sagt Berns. „In Zukunft werden sie enger zusammenarbeiten. Daher ist es wichtig, dass Roboter erkennen, welche Intention die Handlung des Menschen hat.“ Hierbei spiele die Sprache nur eine untergeordnete Rolle. „Rund 65 Prozent der Kommunikation sind nonverbal.“ Umso wichtiger ist es, Mimik und Gestik richtig zu erkennen und einzuordnen.
In Zukunft werden sie enger zusammenarbeiten. Daher ist es wichtig, dass Roboter erkennen, welche Intention die Handlung des Menschen hat.
Professor Dr. Karsten Berns
Aber auch die Fahrzeuge, die unten im Labor stehen, sind Teil der Forschung von Berns und seinem Team. Sie arbeiten an der nächsten Generation Nutzfahrzeuge: Seien es Planierwalzen, die in der Kolonne autonom fahren und einen neuen Straßenbelag verdichten, oder Kräne, die ihre Ladung selbst abladen und dabei ihre Umgebung genauestens im Blick haben. Aber auch Bagger, die LKWs selbstständig mit Sand beladen, und Mähdrescher, die bei der Ernte autonom im Verbund über die Felder fahren. – Dies sind alles keine Zukunftsszenarien, sondern derzeitige Projekte. Doch bevor es mit den Fahrzeugen zum Testen auf Straße, Feld, Wald und Wiesen geht, überprüfen die Informatiker ihre Sensor-, Mess- und Kamerasysteme, die bei ihren Techniken zum Einsatz kommen, in aufwendigen Simulationen „Dank der Computerspiele-Industrie hat sich hier in den letzten Jahren sehr viel getan“, sagt der Professor. „Wir können Szenarien absolut realistisch nachbilden.“ Dies macht vieles der Arbeit leichter. „Wir können unsere Systeme auf diese Weise optimal testen, auch unter verschiedenen Bedingungen, etwa mit unterschiedlichem Wetter und Temperaturen“, so der Informatiker weiter. Im Freien ist dies oft nicht so einfach möglich.
Die Forscher entwickeln ihre autonomen Fahrzeuge derart, dass diese in der Lage sein sollen, selbst zu entscheiden, welchen Weg sie nehmen, das heißt zum Beispiel zu entscheiden, ein Hindernis zu umfahren oder darüber zu fahren, wenn es sich etwa um einen kleinen Ast auf dem Waldboden handelt. „Kamera- und Sensorsysteme liefern den Fahrzeugen Farbmuster und 3D-Bilder“, sagt Berns. „Mit diesen Daten setzen sie sich ein Bild der Umgebung zusammen und erkennen, welche Richtung sie nehmen müssen.“
Das kleine orangefarbene Roboterfahrzeug aus dem Labor ist zum Beispiel für den Einsatz in Katastrophengebieten, etwa nach einem Erdbeben, gedacht. Es kann Rettungskräften helfen, Opfer in eingestürzten Häusern schnell aufzuspüren. Die Informatiker haben es und ein größeres Roboterfahrzeug im europäischen Projekt „Integrated Components for Assisted Rescue and Unmanned Search operations“ (Icarus) mit Industriepartnern entwickelt. Berns und sein Team haben die Roboter unter anderem mit neuer Software ausgestattet. Mit Sensoren und Kameras können sie sich dabei einen Lageplan ihrer Umgebung erstellen und sicher vorankommen. Das größere Fahrzeug ist mit einem Presslufthammer und einem drei Meter langen Greifarm ausgestattet. „Damit kann es Mauern einreißen und größeres Gestein zur Seite schaffen“, erklärt Berns. Um das Innere von Gebäuden zu erkunden, kommt der kleine Roboter zum Einsatz, den das größere Gefährt in einer eigenen Transportbox mit an Bord hat. „Mithilfe des Greifarms kann er den kleinen Roboter etwa auf einen Balkon oder ein Dach setzen“, erklärt er weiter. Dieser kann im Anschluss das geschädigte Gebäude untersuchen. Dieses System misst mittels Sensoren verschiedene Größen wie zum Beispiel die Beschleunigung und kann so die genaue Position errechnen.
Für das nächste Fahrzeug, an dem die Informatiker arbeiten werden, brauchen sie Platz: Es wird ein geländegängiger Unimog von Mercedes-Benz sein. Auch er soll eines Tages autonom durch unwegsames Gelände fahren.

am 23.07.2018 von
Melanie Löw