In Zukunft mit Gefühl
- 20 May 2017
- Haptic Intelligence
Roboter können erstaunliche Dinge. Doch unser Tastsinn ist ihnen noch überlegen. Warum sich das bald ändern könnte – und was das heißt
Wenn man spontan die menschlichen Sinne nach ihrer Bedeutung für das tägliche Leben ordnen müsste, käme er wohl nicht an erster Stelle: unser Tastsinn. Dabei wäre unser Leben ohne ihn gar nicht möglich. Kein Mensch kommt ohne Tastsinn auf die Welt, sogar bei Embryos in einer ganz frühen Entwicklungsphase kann man ihn nachweisen. Dem Tastsinn verdanken wir entwicklungspsychologisch so bedeutsame Dinge wie die Erkenntnis, wo unser Körper aufhört und die Umwelt beginnt. Darüber denkt man im Alltag nicht nach, wenn man seine Katze streichelt oder mit einem Druck auf einen Pfirsich prüft, ob er schon reif ist. Blinde können mittels der Brailleschrift Text lesen. Wenn wir den Wind auf der Haut spüren, wissen wir, dass wir besser eine Jacke anziehen, um nicht krank zu werden. Ständig verarbeiten wir eine riesige Menge an taktilen Informationen – ohne sie wären wir ziemlich hilflos.
Forscher wollen nun auch Computern und Robotern zu einer haptischen Wahrnehmung verhelfen. Dadurch sollen sie eine größere Zahl von Aufgaben erledigen können. Vor allem aber soll dies helfen, die Interaktion von Mensch und Maschine einfacher und intuitiver zu gestalten. Eine der weltweit führenden Wissenschaftlerinnen auf diesem Gebiet ist die Amerikanerin Katherine J. Kuchenbecker, die seit wenigen Wochen als Direktorin am Max-Planck-Institut für Intelligente Systeme in Stuttgart forscht.
In einem Vortrag vor der Royal Society, der im Internet abrufbar ist, zeigt sie das Video eines berühmten Experiments aus den 70er Jahren: Eine Frau, der für diesen Versuch drei Finger der rechten Hand betäubt wurden, sollte mit dieser Hand ein Streichholz aus einer offenen Packung nehmen und es an der fixierten Schachtel anreißen. Sie fingert umständlich in der Schachtel herum, mehrmals fällt ihr das Hölzchen aus der Hand. Es dauert, bis sie es in der richtigen Position hält – aber sie schafft es letztendlich doch. Das Experiment zeigt sehr plastisch die Bedeutung des Tastsinns. Und, so sagt es Kuchenbecker, es zeigt, warum auch Roboter so viel besser sein könnten, wenn sie einen Tastsinn bekommen.
Rund zehn Jahre lang hat Kuchenbecker an der Universität von Pennsylvania in Philadelphia genau daran gearbeitet. Eines der Projekte, das sie dort entwickelte, hat sie nun auch nach Stuttgart begleitet. Kuchenbecker arbeitet an roboterunterstützten Operationssystemen, wie sie längst in vielen Kliniken eingesetzt werden. Solche Systeme erlauben schonende, minimal-invasive Eingriffe. Der Chirurg ist weiterhin im OP. Er steht aber nicht am OP-Tisch, sondern sitzt vor einem Schirm und blickt auf ein 3D-Bild der Operationsstelle. Mittels Handsteuerung und Datenleitung fernsteuert er seine Werkzeuge, die am Patienten schneiden, nähen oder schaben. Das Problem: Bislang hat der Chirurg keine haptische Rückmeldung, er sieht nur, spürt aber nicht, wenn er zu tief schneidet oder auf wie viel Widerstand im Gewebe er stößt. Da setzt Kuchenbeckers Team an. Ihr Ziel: die Maschinen um haptische Komponenten zu erweitern, um das Operieren präziser und leichter erlernbar zu machen.
In ihrem neuen, noch etwas leeren Labor in Stuttgart zeigt Kuchenbeckers Mitarbeiter Gunhyuk Park die neueste Entwicklungsstufe der Technik. Mittels Bewegungssensoren und Motoren – Bauteilen, die seit der Smartphone-Revolution viel besser und günstiger geworden sind – kann der Operationsroboter dem Chirurgen nun haptische und akustische Rückmeldungen geben. Unter Parks Anleitung darf man sogar selbst Chirurg spielen und die Greifer, die in der aktuellen Konfiguration an den Roboterarmen montiert sind, bewegen.
Der Kopf muss tief in eine Art Haube geschoben werden, bis man mit der Stirn an eine Vertiefung stößt. Auf einem Schirm sieht man dreidimensional vor sich die Zangen – die in Wirklichkeit über einem kleinen Tisch hinter dem Operateursplatz schweben – sowie eine Art Mininagelbrett mit bunten Plastikformen, die man mit den Greifern packen und von einem Nagel auf den anderen bugsieren kann. Auch ein kleines Metallgitter liegt da, das man mit etwas Übung von der einen in die andere Zange geben kann. Sogar als Anfänger hat man den Dreh schnell raus, nur ab und zu stößt man irgendwo gegen – und hört dann ein Schaben oder Scheppern. Zusammen mit den Vibrationen und den Widerständen, die man von der Handsteuerung bekommt, fühlt sich das tatsächlich so an als hätte man die Instrumente selbst in der Hand.
Ist das also die Zukunft des Operierens? Sitzt bald irgendwo in einem Niedriglohnland ein Operateur, der über Internet am Fließband Blinddärme und Tumore herausschneidet? „Das ist nicht unser Ziel und das würde momentan auch nicht funktionieren, da die Verzögerungen bei der Datenweiterleitung noch viel zu groß sind“, sagt Park. Prinzipiell ausschließen will er so ein Szenario aber nicht. Vor allem aber könnten Roboter so lernen, irgendwann selbst zu operieren…
Die Medizintechnik ist nur eines der Gebiete, auf denen Kuchenbecker forscht. Ihre Pläne für die Roboter der Zukunft gehen viel weiter. Sie präsentiert sie am Ende des Vortrags vor der Royal Society: Allein durch das Anschauen von Bildern haben wir eine Vorstellung davon, wie sich die Dinge in der echten Umwelt anfühlen. Wenn wir ein Ei sehen, wissen wir, wir dürfen beim Greifen nicht zu fest zudrücken. Wenn wir Glatteis sehen, wissen wir, wir müssen vorsichtig laufen. Roboter können auf Bildern nur Formen und Farben wahrnehmen. Bislang. Aber die Forscher tasten sich voran. Matthias Zimmermann