Schattenblick → INFOPOOL → NATURWISSENSCHAFTEN → TECHNIK


ROBOTIK/114: Roboter machen Schule (MaxPlanckForschung)


MaxPlanckForschung - Das Wissenschaftsmagazin der Max-Planck-Gesellschaft 4/2015

Roboter machen Schule

von Peter Hergersberg


Als Haushaltshilfe, Pflegeassistent oder Katastrophenschützer taugen Roboter nur, wenn sie lernfähig sind und zumindest ansatzweise selbstständig handeln können. Stefan Schaal und die Mitarbeiter seiner Abteilung am Max-Planck-Institut für Intelligente Systeme in Tübingen bringen den Maschinen diese Flexibilität und Autonomie bei.


Einem griechischen Gott ähnelt Apollo eher entfernt. Sein treuherziger Blick aus den großen Kulleraugen erinnert mehr an Shaun, das Schaf, als an einen Unsterblichen, der mit seinen Widersachern gar nicht zimperlich umging. Auch taugt der Apollo aus dem Labor des Max-Planck-Instituts für Intelligente Systeme allenfalls als Halbgott, denn sein Oberkörper ruht auf einer massiven Säule statt auf einem wohlgeformten Unterleib. Und die Taten, welche er vollbringt, gehören, nun ja, eher zu den leichteren göttlichen Aufgaben: Wenn es gut geht, kann er diverse Gegenstände sicher greifen, einen Stab auf der Hand balancieren oder sogar ein Rad auf einer Achse montieren.

Für einen Gott mag das wenig sein, aber der Apollo im Labor des Tübinger Max-Planck-Instituts für Intelligente Systeme ist ein Roboter. Und für einen Roboter kann er erstaunlich viel. Vor allem lernt er - und zwar auf eine Weise, die es ihm oder, besser, seinen zweibeinigen Nachfahren einmal ermöglichen könnte, sich in einer unbekannten Umgebung autonom zu bewegen und selbstständig diffizile Aufgaben zu erledigen.

Die Lernfähigkeit braucht ein Roboter, wenn er etwa als Katastrophenhelfer in einer havarierten Industrieanlage einen Schaden beheben oder verletzte Personen bergen soll und dabei auf ein unerwartetes Hindernis stößt. Auch als Haushaltshilfe oder gar als Pflegeassistent müsste sich ein Roboter immer wieder auf neue Situationen und unvorhergesehene Ereignisse einstellen.

Zu der dafür nötigen Autonomie wollen Stefan Schaal, Direktor am Tübinger Max-Planck-Institut, und seine Mitarbeiter den Maschinenwesen verhelfen. Wie weit der Weg dahin noch ist, demonstriert Stefan Schaal mit einem Video der Darpa Robotics Challenge. Bei diesem Wettbewerb müssen Roboter mit einem Golfmobil fahren und über Sand gehen, um ein Gebäude zu erreichen, in dem sie ein Ventil zudrehen sollen. Man sieht aber vor allem eins: wie Rettungsmaschinen, von heroisch stimmender Musik begleitet, variantenreich stürzen. Wenn sie aus dem Golfwagen steigen, wenn sie über den Sandweg wanken oder wenn sie - statt die Tür zu ihrem Ziel aufzudrücken - sich selbst aus dem Gleichgewicht schieben.

Heute scheitern Roboter in ungewohntem Terrain noch meist, weil sie im Wortsinn einfältig sind. Ein Industrieroboter, der darauf programmiert ist, Türen in eine Autokarosserie zu schrauben, macht das perfekt. Aber nur das, und auch nur bei einem bestimmten Auto - zumindest solange seine Software nicht auf eine neue Order umgeschrieben wird.

Und auch die lernenden Roboter, die es bereits gibt, lassen sich nur auf je eine Aufgabe trimmen, etwa indem ein menschlicher Trainer ihren Arm bei einem Handgriff zunächst führt, ganz ähnlich, wie Schlaganfallpatienten am Anfang einer Reha therapiert werden. Wenn die Maschine eine Bewegung dann eigenständig nachahmt, erhält sie eine positive oder negative Rückmeldung, bis der Roboter die Aufgabe sauber erledigt. Das tut er dann auch. Aber wehe, etwas kommt dazwischen. "Heutige Roboter sind nicht robust", sagt Stefan Schaal. "Sie können also kaum Störungen abfangen." Als Störung erlebt es ein Roboter bereits, wenn er gelernt hat, einen Hammer am Stiel zu greifen, ihm das Werkzeug aber mit dem Kopf voran gereicht wird.

"Wir möchten die Robustheit erreichen, indem wir in der Robotik auf vielfältige Weise maschinelles Lernen einsetzen", sagt Stefan Schaal, in dessen Gruppe sich alles um den Zyklus aus Wahrnehmen, Handeln und Lernen dreht. Wenn eine Maschine - das heißt ein Computer, der auch das Hirn jedes Roboters bildet - lernt, wird eine Software anhand großer Datenmengen für eine Aufgabe trainiert. Bilderkennungsprogramme etwa lassen sich mit vielen Fotos von Personen aus verschiedenen Blickwinkeln und in diversen Situationen dazu bringen, zuverlässig Gesichter auszumachen. Auch wenn diese teilweise verdeckt oder im Halbprofil zu sehen sind.

Nach diesem Prinzip gehen die Tübinger Forscher in der Schule für Roboter vor, die sie seit gut drei Jahren betreiben und in die auch Apollo geht. Dabei handelt es sich jedoch gewissermaßen um eine experimentelle Lehranstalt. Denn anders als Lehrer bringen die Tübinger Wissenschaftler ihren Schülern kein vorhandenes Wissen bei, sondern erarbeiten zunächst, was und wie Roboter am besten lernen.

Eine der maschinellen Bildungsforscher ist Jeannette Bohg. Sie trainiert die visuelle Wahrnehmung der Maschinen so, dass ihnen ihr Sehsinn die nötigen Erkenntnisse liefert, um Handlungen sinnvoll zu planen. So sollen die Roboter lernen, in einer fremden Szenerie schnell und zuverlässig Objekte zu finden, die sie für eine Aufgabe brauchen.

Auf der Suche etwa nach einem Laptop suchen Softwareprogramme in einem Bottom-up-Ansatz bislang nach Pixelansammlungen, die aus dem Bild herausstechen, oder sie analysieren alle Gegenstände in einer Szene. Das braucht aber so viel Rechenzeit, dass ein Roboter eine Aufgabe kaum in akzeptabler Zeit erledigen kann.

Jeannette Bohg nimmt sich daher die Top-down-Suchstrategie von Menschen zum Vorbild: "Wir wissen genau, wo wir nach einem Gegenstand gucken müssen und wo nicht, weil wir über Hintergrundinformationen zu ihm verfügen", erklärt die Forscherin. "Einen Laptop zum Beispiel erwarten wir auf einem Tisch und nicht an der Wand." Dort aber können wir eine Uhr finden, die eine Person jedoch auch am Handgelenk tragen kann. In einer Szene zunächst die Orte zu identifizieren, an denen sich die Suche lohnt, ist für einen Roboter nicht zuletzt hilfreich, weil er dann näher an die Stellen herantreten kann, um sie genauer zu untersuchen - so wie wir Menschen es auch oft tun.

Um die menschlichen Suchtechniken auch ihren Maschinen-Schülern nahezubringen, erforscht Jeannette Bohg, wie sich die menschliche Suchstrategie am besten mit einer Software nachahmen lässt. Diese trainiert sie dann mit den Augenbewegungen, mit denen 15 Probanden 400 Bilder etwa nach einer Uhr oder einem Laptop abgetastet haben. Anhand dieser Daten sammelt ein Roboter die Erfahrung, die Menschen lehrt, wo ein bestimmter Gegenstand auftreten kann.


Roboter der ganzen Welt könnten ihr Wissen teilen

"Uhren und Laptops lokalisiert unser Suchalgorithmus nach dem Training schon sehr gut", sagt Jeannette Bohg. Allerdings findet die Technik einzelne Objekte nicht ganz so zuverlässig wie jene Methoden, die das gesamte Bild analysieren. "Mit 400 Bildern ist der Datensatz für das Training allerdings auch noch ziemlich begrenzt", so Bohg.

Ausreichend Daten anzuhäufen und aus diesen die richtigen Schlüsse zu ziehen, um für alle Eventualitäten des autonomen Daseins gewappnet zu sein, ist für die Maschinen ein generelles Problem: Einen brauchbaren Erfahrungsschatz aufzubauen, der sie unabhängig macht von Vorgaben oder Interventionen, würde locker ein ganzes Roboterleben füllen, das genauso endlich ist wie das Dasein eines Computers, eines Autos oder das des Menschen. Die immensen Datenmengen könnte ein einzelnes Elektronikhirn außerdem kaum handhaben. "Mit Cloud-Robotik können wir dieses Problem vielleicht lösen", sagt Stefan Schaal. Ähnlich wie heute schon unzählige Computer vernetzt werden, um große Aufgaben zu lösen, könnten sich Roboter der ganzen Welt vereinigen, um ihr Wissen selbstlos zu teilen - vorausgesetzt allerdings, ihre Programme sind kompatibel.

Einstweilen müht sich jeder Roboter noch allein mit all dem Wissen, das für ein halbwegs selbstständiges Agieren nötig ist. Zum Beispiel auch damit, den richtigen Griff zu planen, wenn er einen Gegenstand sieht - ein weiteres Forschungsthema von Jeannette Bohg.

In der Vergangenheit ließen Robotikforscher einen Roboter zunächst berechnen, an welchen Punkten seine Finger einen Gegenstand berühren müssen, um ihn sicher zu greifen. "Man ging davon aus, dass der Roboter von dem Objekt und von sich selbst ein detailliertes geometrisches Modell kennt, um die Ansatzpunkte für den Griff zu berechnen, und dass er diese Punkte auch präzise erreicht", erklärt Jeannette Bohg. Anhand der Modelle plante der Roboter dann, wie er einen Gegenstand greifen muss, damit dieser nicht runterfällt.

"Es hat sich aber gezeigt, dass diese Annahmen nicht realistisch sind", so Jeannette Bohg. Nicht nur, dass ein Roboter nicht von jedem Ding, nach dem er greifen könnte, ein Modell abgespeichert hat. Seine Steuerung arbeitet auch nicht präzise genug, um einmal berechnete Ansatzpunkte für einen Griff genau zu erreichen, zumal die Daten seiner Sensoren, anhand derer er seine Bewegungen kontrolliert, oft unvollständig und verrauscht sind. So fingerte die Maschine bis dato oft unbeholfen und vergeblich nach einem Gegenstand. Jeannette Bohg will das ändern und orientiert sich dabei wieder an den Menschen, die selbst Gegenstände, die sie noch nie gesehen haben, zuverlässig fassen können.

Die Informatikerin hat eine Datenbank aufgebaut, die sie mit Modellen von mehr als 700 Gegenständen gefüttert hat - vom Hammer bis zur Spielzeugpuppe. Damit der Roboter lernt, wie er erfolgreich nach diesen Objekten greift, simuliert sie unzählige mögliche Griffe am Rechner. Dabei berücksichtigt die Forscherin auch, dass ein Gegenstand seine Position verändert, wenn der Roboter ihn zuerst nicht mit seiner Handfläche, sondern mit den Fingerkuppen berührt, die das Objekt beim Zugreifen verschieben. Das Ding rutscht ihm dabei möglicherweise gerade noch in die Hand oder eben nicht.

Anhand der Erfahrung, die die Software in den Simulationen aufbaut, soll ein Roboter später nicht nur die Dinge aus dem gelernten Fundus zu fassen bekommen, sondern auch unbekannte Objekte. Und dies, selbst wenn seine Sensoren ihm nur unvollständige und verrauschte Informationen liefern.

Robotern zu einer zupackenden Art zu verhelfen ist auch ein Ziel Ludovic Righettis, der am Tübinger Max-Planck-Institut eine Forschungsgruppe leitet. Während es Jeannette Bohg darum geht, dass ein Roboter anhand visueller Informationen einen Griff nach einem unbekannten Gegenstand plant, setzen Ludovic Righetti und seine Mitarbeiter an anderer Stelle dieser Handlung an: Sie bringen Schülern wie Apollo unter anderem bei, gefühlvoller zuzupacken. Auf diese Weise soll die Roboterhand einen Gegenstand auch dann erwischen, wenn sie nicht genau an der geplanten Stelle auf ihn trifft.

Solche Aktionen sind ein Fall für die Regelungstechnik: das Computerprogramm, das Informationen von den Sensoren mit der Arbeit der Motoren rückkoppelt. Die Gefühle "Ich hab's" oder "Ich hab's noch nicht" kleiden sich bei Apollo in Daten, die Kraftsensoren in seiner Hand messen. Die Kontrolleinheit in seinem Hirn erzeugt aus den Daten einen Befehl für die Motoren der Finger. Die Sensoren melden dann zurück, ob die Finger wirklich dort landen, wo sie hinsollten. Tun sie das nicht, korrigiert die Software. Eine solche Regelung basiert stets auf einem Modell, das die Konstruktion eines Roboters sowie das Zusammenspiel zwischen dessen Steuerung und Motoren in mathematische Formeln fasst.


Die Regelungssoftware lernt selbstständig

Tatsächlich ist das korrekte Modell von Blechmann oder -frau eine knifflige Angelegenheit: "Die Physik eines Roboters ist hochgradig nichtlinear", sagt Stefan Schaal. Das heißt: Kleine Abweichungen von den Annahmen des Modells etwa in der Empfindlichkeit von Sensoren oder der Kraft eines Motors können gravierende Auswirkungen haben. Der Roboter spielt dann vielleicht komplett verrückt, jedenfalls tut er nicht, was er soll. Das liegt vor allem daran, dass ein Roboter mit komplettem Körper rund 40 Freiheitsgrade hat: Er kann seine diversen Gliedmaßen mithilfe von 40 voneinander unabhängigen Gelenken bewegen.

Doch im physikalischen Modell, auf dem die Steuerung des Roboters beruht, liegt nicht einmal das eigentliche Problem; das lässt sich trotz aller Widrigkeiten in den Griff bekommen. "Ich kann ein gutes Modell von meinem Roboter hinbekommen, jedoch nicht von einer unbekannten Umgebung", so Schaal.

Daher bringt ein Teil von Righettis Team Robotern mithilfe des maschinellen Lernens bei, ein flexibleres Modell für eine bestimmte Aufgabe zu entwickeln - zum Beispiel den Griff nach einer Tasse. "Der Roboter lernt dabei, wie sich eine Aktion zu jedem Zeitpunkt anfühlen sollte, was also die Kraftsensoren in seinen Handgelenken, die haptischen Sensoren an den Fingern und die Kameraaugen registrieren sollten", sagt Righetti. "Das ist eine relativ einfache Form des Lernens." Sitzt der Griff nicht, können Apollo und seine Mitschüler ihn mit ihrer anpassungsfähigen Steuerung korrigieren. "Letztlich wollen wir zu allgemeineren Modellen kommen, die sich auf viele verschiedene Aufgaben anwenden lassen."

Righettis Team arbeitet dabei mit Modellen, die wissen oder zumindest wissen sollten, welche Kräfte der Motoren zu welcher Bewegung führen - die Forscher regeln dann die Kräfte und damit die Aktion der Maschine. Die meisten Robotik-Wissenschaftler arbeiten heute dagegen noch mit Regelungen, deren Befehle für die Hand oder den Fuß eines Roboters explizit eine Position vorgeben, die erreicht werden soll.

Das klingt nach einem technischen Detail, hat aber praktische Konsequenzen: Wenn Regelungen ihren Erfolg daran messen, ob etwa eine Hand die Zielposition erreicht, will sie sich davon nicht abbringen lassen - auch nicht von einem Menschen, der ihr in die Quere kommt. Im Zweifelsfall wendet der Roboter mehr Kraft auf, um sich durchzusetzen. So kann es zu schlimmen Unfällen mit den besonders hart durchgreifenden Industrierobotern kommen.

Wird dagegen direkt die Kraft reguliert, kann die Maschine auf mehr Feinfühligkeit programmiert werden - eine unabdingbare Voraussetzung im Umgang mit Menschen. "Unsere kraftkontrollierten Roboter können viel nachgiebiger und trotzdem präzise agieren, weil wir weniger fehleranfällige Modelle verwenden", sagt Righetti. "Dieser Ansatz eröffnet viele Möglichkeiten und wird sich in Zukunft sicher verbreiten."

Auch Sebastian Trimpe arbeitet daran, wie sich die Regelung eines Roboters durch maschinelles Lernen verbessern lässt. Er entwickelt gewissermaßen das Unterrichtsmaterial, damit Roboter unter anderem lernen, einen Stab zu balancieren, ganz ähnlich wie Kinder einen Stock auf einem Finger im Gleichgewicht halten. "Das ist eine relativ einfache Aufgabe", sagt Trimpe. "Aber wenn wir verstehen, wie ein Roboter diese am besten zu lösen lernt, dann können wir ihm vielleicht beibringen, wie er auch anspruchsvolle Fähigkeiten erlernt." Etwa auf unbekanntem und unebenem Grund zu stehen und zu gehen.


Beweistechniken setzen Leitplanken für die Neugier

Um einstweilen einen Stab in der Balance zu halten, arbeitet in Apollo ein Regleralgorithmus, der Sensorinformationen über die aktuelle Lage und Bewegung des Stabs analysiert und in Steuerungssignale für die Elektromotoren umwandelt. Wenn der Stab etwa nach rechts zu kippen droht, greift der Regler ein und korrigiert Apollos Bewegung, um das Kippen zu verhindern.

Sein Lehrer macht es ihm dabei nicht einmal besonders einfach, denn er lässt ihn zunächst einen kurzen Stab in der Schwebe halten. Das ist schwieriger, als einen langen Stab zu balancieren, weil der kurze Stab aufgrund seiner geringeren Trägheit schneller kippt und daher eine raschere Reaktion erfordert. Apollo jedoch hält den kurzen Stab mühelos aufrecht, scheitert aber erst einmal kläglich, als er das Gleiche mit einem längeren Stab versucht.

Für Sebastian Trimpe ist es kein Wunder, dass der Versuch schiefgegangen ist: Wie viel Ausgleichsbewegung nötig ist, hängt von der Länge des Stabes ab, die der Regler berücksichtigt. Den Algorithmus haben die Forscher aber nicht angepasst, als sie Apollo den langen Stab in die Hand drückten. Die Regelung, die für den kurzen Stab prima funktioniert, versagt also beim langen Stab, weil sie Apollo viel zu schnell mit seinem Arm fuchteln lässt.

"Anstatt für jeden neuen Stab eine neue Regelung zu programmieren, haben wir die Regelungssoftware so angepasst, dass sie selbstständig lernt", sagt Sebastian Trimpe. Mithilfe des maschinellen Lernens kann sich der Roboter also autonom auf neue Situationen einstellen, ohne dass diese vorher genau einprogrammiert wurden. In der Regelungstechnik, einer Domäne der klassischen Ingenieurwissenschaften, verfolgt er so einen neuen Ansatz.

Obendrein haben die Forscher Apollo eine Anleitung in sein Kontrollzentrum geschrieben, nach der er sich den besten Regler mit möglichst wenigen Versuchen selbst aneignet. "Der Algorithmus schlägt automatisch denjenigen Regler vor, bei dem der Lerneffekt am größten ist", so Trimpe. Zu Beginn des Lernprozesses können das Regler sein, bei denen die Unterschiede zum ursprünglichen Regler groß sind. So wirken der zweite und dritte Balanceversuch Apollos noch unbeholfener als der erste, was der Roboter ungerührt hinnimmt. Danach aber geht es mit einer durchaus steilen Lernkurve aufwärts.

"Anders als bei typischen Anwendungen des maschinellen Lernens, etwa in der Bilderkennung, handelt es sich beim Lernen in der Robotik um ein dynamisches Problem", erklärt Trimpe. Der Datensatz, mit dem eine Software lernt, Gesichter zu erkennen, verändert sich nicht. Ein Roboter sammelt dagegen ständig neue Erfahrungen, während er sich durch die Welt bewegt und in ihr handelt. Er sollte daher lebenslang lernen. Das bringt ihn immer wieder in ein Dilemma.

"Um Neues zu lernen oder besser zu werden, muss der Roboter neues Verhalten ausprobieren", so Trimpe. Dabei kann er zeitweilig auch schlechter werden. Damit er dann keinen Unsinn macht oder gar Schaden nimmt, etwa wenn er stürzt, müssen die Forscher in den Lernalgorithmus Garantien einbauen. Mithilfe mathematischer Beweistechniken setzen sie der Neugier des Roboters Leitplanken, sodass er nicht nur flexibles, sondern auch sinnvolles und robustes Verhalten lernt.

Wenn es darum geht, die Regelung eines Roboters robuster, also weniger störanfällig zu machen, setzt Ludovic Righetti nicht nur auf die Lernfähigkeit der Maschinen. Seine Arbeit steht mustergültig dafür, dass die Robotik nicht bloß einer einzigen Route folgt, um Hilfsmaschinen für den Haushalt oder den Katastrophenschutz zu entwickeln.


Wenige Millisekunden, um die Haltung zu korrigieren

"Wir möchten den Ansatz, in dem ein Roboter Modelle durch Erfahrung entwickelt, kombinieren mit einer anderen Herangehensweise in der Regelungstechnik", sagt Righetti. Er und seine Mitarbeiter schreiben die Flexibilität, die für spontane Korrekturen einer Bewegung nötig ist, auch schon in die Algorithmen der Steuerung, die Sensordaten mit Befehlen für die Robotermotoren rückkoppelt. Ob dabei eine sinnvolle Handlung wie etwa der Griff nach einer Tasse oder ein Balanceakt auf wackligem Untergrund herauskommt, kann aus Sicht der Regelungstechnik als mathematisches Optimierungsproblem formuliert werden, dessen Lösung den besten Regler für die jeweilige Aufgabe liefert.

Oft lässt sich ein Regler vor dem Betrieb optimieren. Geht das nicht, weil etwas Unvorhergesehenes passieren kann - etwa dass der Roboter stolpert oder geschubst wird -, muss er mitten in der Aktion, zum Beispiel beim Gehen, verbessert werden. "Dafür haben wir starke Algorithmen entwickelt", sagt Ludovic Righetti.

Die Methoden berechnen nicht nur zuverlässig, wie der Regler an unerwartete Ereignisse angepasst werden muss. Die Software arbeitet auch sehr schnell. Das darf gar nicht anders sein. Vor allem wenn ein Roboter auf unebenem Grund gehen soll. "Der Roboter hat dann wenige Millisekunden, um seine Haltung zu korrigieren, sobald er aus der Balance gerät", sagt Ludovic Righetti. Schafft der Roboter das nicht, fällt er.

Wie gut eine Maschine mit ihrer Regelung die Balance hält, hat Righettis Team an Hermes bewiesen. Hermes ist gewissermaßen das Gegenstück zu Apollo, er besteht nämlich nur aus Unterleib und zwei Beinen. Dass es nur zwei sind, hat einen guten Grund: Vier und mehr Beine oder gar Räder machen einen Roboter zwar standfester, aber viele Hindernisse kann dieser nur überwinden, wenn er mit zwei Beinen und zwei Armen über sie klettert.

Mit dem zweibeinigen Hermes experimentierten Stefan Schaal und Ludovic Righetti an der University of Southern California, wo sie forschten, ehe sie an das Tübinger Max-Planck-Institut kamen. Bringen die Forscher Hermes etwa mit einem Stoß aus dem Gleichgewicht, korrigiert er seine Haltung mit geradezu menschlich anmutenden Ausgleichsbewegungen.

Die neue Steuerung macht Schule: "Inzwischen wird sie in vielen Robotern eingesetzt", sagt Righetti. Auch dem jüngsten Zugang im Olymp des Tübinger Instituts wird die Regelung beim Balancieren helfen: Athena, die als erster Roboter auf einem Sitzplatz aus den USA nach Deutschland geflogen ist. Sie erfüllt ebenfalls nicht ganz die Erwartungen, die sich mit dem Namen der Göttin verbinden. Ein mächtiger Oberkörper, kräftige Arme, Hydraulikschläuche und ihr Maschinenkopf, den sie nicht einmal immer trägt, verleihen ihr die Anmut eines Transformers. Immerhin besitzt sie beides - Arme und Beine.

Wie Athena alle ihre Gliedmaßen am besten koordiniert, wenn sie mehrere Aufgaben gleichzeitig lösen soll, darum wird es in der Forschung von Ludovic Righetti und seinen Mitarbeitern künftig gehen. Auch um die Frage, wie sie die richtigen Prioritäten setzt, wenn sie auf unebenem Grund gehend oder stehend nach einem Gegenstand greifen soll. Denn die Maschine weiß erst einmal nicht, dass es wichtiger ist, die Haltung zu bewahren, statt unbedingt das Ding in die Hand zu bekommen. Ein brauchbarer Helfer im Alltag muss da sinnvolle Entscheidungen treffen.

Bis Roboter selbstständig genug werden, um etwa hilfsbedürftige Menschen zu unterstützen, wird es noch eine Weile dauern. Denn an zu vielen Punkten im Zyklus aus Wahrnehmung, Lernen und Handeln muss die Robotik noch kräftig nachjustieren. So geht Stefan Schaal auch nicht davon aus, dass uns in 30 Jahren Wesen aus Blech, Plastik und Elektronik pflegen werden, und zwar schon aus rein technischen Gründen nicht, von der gesellschaftlichen Akzeptanz ganz zu schweigen. "Aber ich werde hoffentlich noch erleben, dass uns Roboter im Haushalt helfen, und sei es nur, dass sie auf Zuruf etwa ein Buch aufheben, wenn wir uns nicht mehr bücken können", sagt der Wissenschaftler.


Auf den Punkt gebracht


Roboter können sich heute noch nicht flexibel auf neue Aufgaben und unerwartete Situationen einstellen. Zudem sind sie störanfällig.

• Unter anderem mithilfe des maschinellen Lernens wollen Tübinger Max-Planck-Forscher Robotern etwa beibringen, schnell und zuverlässig Gegenstände in einer unbekannten Umgebung zu finden, Objekte, die sie nicht kennen, sicher zu greifen und selbstständig die geeignete Regelung für neue Aufgaben zu erlernen.

• Um Robotern zu mehr Standfestigkeit und einem sichereren Gang zu verhelfen, programmieren die Forscher die Regelung zudem so, dass Maschinen ihre Aktionen immer wieder neu optimieren und so etwa auf Störungen reagieren.


Glossar

Maschinelles Lernen: Anhand großer Datenmengen lernt eine Software Beispiele für eine Art von Aufgabe und kann diese Aufgabe anschließend allgemein ausführen. So vermitteln große Mengen von Bildern, in denen die Gesichter markiert sind, einer Software, anhand welcher Merkmale sie Gesichter erkennt. Danach identifiziert das Programm Gesichter auch auf unbekannten Bildern.

Regelung: Wenn eine Maschine aus Sensordaten Befehle für eine Aktion erzeugt und anhand der Sensordaten die Ausführung kontrolliert, diese also gegebenenfalls korrigiert, handelt es sich um eine Regelung. Bei einer einfachen Steuerung gibt es diese Rückkopplung nicht.


Der Artikel kann als PDF-Datei mit Abbildungen heruntergeladen werden unter:
https://www.mpg.de/9906832/F001_Fokus_018-025.pdf

*

Quelle:
MaxPlanckForschung - Das Wissenschaftmagazin der Max-Planck-Gesellschaft
Ausgabe 4/2015, Seite 18-25
Herausgeber: Wissenschafts- und Unternehmenskommunikation der
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.
Redaktionsanschrift: Hofgartenstraße 8, 80539 München
Telefon: 089/2108-1719 /-1276, Fax: 089/2108-1405
E-Mail: mpf@gv.mpg.de
Das Heft als PDF: www.mpg.de/mpforschung
 
Das Heft erscheint in deutscher und englischer Sprache
(MaxPlanckResearch) jeweils mit vier Ausgaben pro Jahr.
Der Bezug des Wissenschaftsmagazins ist kostenlos.


veröffentlicht im Schattenblick zum 4. Mai 2016

Zur Tagesausgabe / Zum Seitenanfang