Cebit 2016/3: Roboter und Mensch als Team

Roboter; CebitMein Freund der Roboter? So niedlich sieht die Zukunft vielleicht doch nicht aus; Foto: Cebit

Roboter werden sich in den kommenden Jahren noch stärker dem Menschen anpassen und mit ihm auf Augenhöhe kommunizieren. Auf der Cebit ist zu besichtigen, wie Menschen und Maschinen kooperieren können.

Baxter ist ein angenehmer Kollege. Widerspruch ist nicht seine Sache. Wenn man ihm einen auffordernden Blick  zuwirft und eine Geste  mit der Hand macht, holt er  aus dem Regal  ein Holzklötzchen. Wenn der menschliche Teampartner dann nur auf  die  Ablagefläche blickt, drehen sich Baxters muskulös gerundete, rot-schwarze Kunststoffarme  an die richtige Stelle und legen wieder nach einer Geste der Hand das Klötzchen ab.
Die Anordnungen übermittelt Tim Schwarz vom Deutschen Forschungsinstitut für Künstliche Intelligenz  mittels eines Blickdetektors an seiner Datenbrille und einem kleinen schwarzen Armband, das am Unterarm nahe des Ellbogens die Bewegung seiner Muskeln misst. „Bisher versteht der Roboter nur Greifbefehle“, sagt Schwarz, der sich in seiner Forschung in Saarbrücken mit der Schnittstelle von Mensch und Maschine befasst. Doch bald sei es denkbar, dass Baxter seinem menschlichen Partner buchstäblich auf jeden Wink folgt. „Das Lernen funktioniert dann wie beim Menschen“, sagt Schwarz: „Wenn er einmal danebengreift, dann merkt er sich, wenn er  von mir   korrigiert wird.“

Daten und Realität, Mensch und Roboter – alles verschmilzt

Eigentlich ist die Cebit eine Messe, bei der es um Datenwelten geht. Doch in Halle 6 ist zu besichtigen, wie Daten und Realität, Mensch und Maschine verschmelzen. Ob das  der Stand mit den weißen Bauarbeiterhelmen ist, an die ein winziges Datenübertragungs-Monokel montiert ist oder die Präsentation des Karlsruher Instituts für Technologie (KIT), wo    auf einem  Mini-Tablet Livedaten einer Maschine übertragen werden und  virtuell exakt markiert wird, an welcher Stelle in der Realität der Monteur seine Werkzeuge ansetzen muss.
Anstatt Robotern krampfhaft Fertigkeiten beizubringen, welche für die Maschine hochkomplex, aber für einen Menschen intuitiv und kinderleicht sind, versucht man heute die Talente verstärkt im Tandem zu nutzen. Die Maschine trumpft mit  Schnelligkeit, Präzision  und Kraft auf – der Mensch hingegen mit seiner Fähigkeit, sich  kreativ auf neue Situationen einzustellen, Empathie zu haben und   andere Menschen instinktiv besser einzuschätzen. Das viel gehypte Roboterauto wird  zumindest in komplexen Verkehrssituationen wie dem Stadtverkehr noch lange auf ein Zusammenspiel von Mensch und Technik angewiesen sein.  Die menschelnden Roboterpuppen mit blinkenden Kulleraugen, die etwa bei IBM selbstständig über den Messestand stapfen,  repräsentieren  nicht unbedingt den Trend.
Auf der Cebit ist  weniger das Zeitalter der Roboter als die Epoche der Mischwesen  zu besichtigen. Beim Zusammenspiel von Technologie und Mensch  müssen, wie Daniel Karl vom KIT erläutert,  immer wieder Zwischenschritte gefunden werden: ist: „Natürlich könnten Sie Maschinendaten auch auf eine Datenbrille übertragen, dann hätte der Monteur die Hände frei.“ Doch bei den Versuchspartnern aus Baden-Württemberg  gibt es  Sicherheitsbedenken, einen Mitarbeiter  hinter den Scheuklappen einer  virtuellen 3D-Brille durch die Fabrik stapfen zu lassen.
Der Roboter am Stand des Deutschen Forschungszentrums für Künstliche Intelligenz ist noch von etwas grüblerischer Natur. Eine Schrecksekunde lang scheint es zu dauern, bevor er die Blickrichtung seines menschlichen Partners  analysiert hat. Dann fragt er vorsichtshalber mit Maschinenstimme, ob er den Befehl  richtig verstanden hat. Auch den Greifbefehl versteht der Roboter nur bei dem Menschen, auf den er geeicht ist.
Baxter ist harmlos. „Die Maschine ist so entworfen, dass sie gar nicht die Kraft hat, einen Menschen zu verletzen“, sagt Schwarz. Ultraschallsensoren oben am Roboter erkennen, ob Menschen oder andere Objekte in seiner Nähe sind. Je näher ein Mensch kommt, umso vorsichtiger werden die Bewegungsabläufe.
Und noch zwei  digitale Technologien verschmelzen auf der Cebit: Virtuelle Realität wird auch für Roboter ein Thema.   Baxter lässt sich theoretisch auch aus tausenden Kilometern Entfernung mit Blicken und Gesten steuern. Damit dies den menschlichen Befehlsgeber hinter seiner aufgesetzten Datenbrille nicht verwirrt, werden dessen Unterarme und Hände in die virtuelle Umgebung eingeblendet, sodass er sieht, wie er dem Roboter das Greifkommando gibt.

 Truphysics aus Stuttgart versetzt Roboter in die virtuelle Realität

Das Stuttgarter Startup Truphysics treibt das Thema virtuelle Realität für Roboter sogar noch ein Stück weiter. Bisher müssen  Roboter in einer Montageanlage  vor Ort sozusagen eingelernt werden, um den optimalen Bewegungsablauf und das Ausweichen vor Hindernissen zu üben. „So ein Produktionsroboter erkennt von sich aus noch nicht einmal wo eine Wand ist,“ sagt Björn Schenke, Mitgründer und Technikexperte von Truphysics.
Das an der Universität Stuttgart entstandene Startup hat eine Software entwickelt, mit der man den Roboter seinerseits virtuell in seine künftige Arbeitsumgebung versetzen kann.  Eine Datenbrille braucht das Gerät  natürlich nicht.  Der gar nicht so triviale Clou des Programms ist, dass es die Simulationen auf die  normale Steuerungssoftware einspielen kann.
Nein, er mache sich so schnell keine Sorgen, dass Roboter den Menschen ausstechen, sagt  Schenke. Er erlebt die Grenzen dieser Maschinen. Roboter seien dann dem Menschen überlegen, wenn sie vorbestimmte Aufgaben erfüllten. Sie seien sozusagen immer noch ein bisschen dumm, sagt er: „Wenn sie denen eine andere Aufgabe geben als die gewohnte,  kommen sie  an die Transferleistung des menschlichen Gehirns nicht heran.“

Kommentar hinterlassen zu "Cebit 2016/3: Roboter und Mensch als Team"

Hinterlasse einen Kommentar

E-Mail Adresse wird nicht veröffentlicht.


*