Computersystem lernt die Körpersprache des Menschen
Der Mensch kommuniziert nicht nur mit Worten, auch die Körpersprache macht einen großen Teil in der Kommunikation aus. Wissenschaftler vom US-amerikanischen Carnegie Mellon University’s Robotics Institute (CMU RI) arbeiten daher an Computersystemen, die die Körpersprache von Menschen bis hin zu deren Fingern erfassen und verarbeiten können. Das System, das in Echtzeit und sogar in Menschenmengen funktioniert, soll die Interaktion von Menschen und Maschinen natürlicher machen.
Bisher beschränkt sich die Kommunikation mit Computern auf Mouseklicks und Touchscreens. Auch die Spracherkennung greift immer weiter um sich, aber die Körpersprache wird bisher noch nicht in Kommunikationsprozesse eingebunden. Doch ohne das Einbeziehen von Körpersprache ist die Kommunikation oft schwer und aufwendig.
Das Knifflige für die neue Technik ist das Identifizieren von menschlichen Körperhaltungen, denn diese sind oft subtil und so fein, dass selbst die Positionen der einzelnen Finger entscheidend sein können. Zwar gibt es bereits große Datensätze zu Gesichtsausdrücken, doch die Gesten sind bislang nicht erfasst.
Das Team um Yaser Sheikh, Professor für Robotik an der Carnegie Mellon, musste daher neue Wege gehen. Zum einen mussten dem Computer Datensätzen mit Handgesten und Körperhaltungen bereitgestellt werden. Graduierte Studenten führten so tausende Posen und Gesten vor Kameras auf.
Zum zweiten sollte der Computer die Posen nicht auf üblichem Wege lesen. Statt auf die ganze Person zu schauen und an ihr die Körperhaltung abzuarbeiten, sollte sich der Computer nun individuell auf Hände, Arme, Beine und Gesichter konzentrieren und sie dann der Person zuordnen. Nach Angaben des Teams war dies insbesondere bei Menschenmengen nützlich.
Als nächstes wurden mit dem CMU’s Panoptic Studio 500 Videokameras eingesetzt, die es dem Computer erlaubten, jede Körperhaltung aus hunderten verschiedenen Blickwinkeln zu studieren und dabei viele Subjekte auf einmal zu betrachten.
„Eine einzige Aufnahme zeigt dir 500 Bilder von der Hand einer Person, außerdem wird die Position der Hand automatisch erfasst“, sagt Hanbyul Joo, ein Doktorand der Robotik. „Hände sind zu klein als dass sie von unseren Kameras erfasst werden, aber für diese Studie haben wir 31 HD-Kameras verwendet und es war möglich einen großen Datensatz aufzunehmen.“
Für eine bessere Erkennung arbeitet das Team gerade an der Umwandlung von 2D Modellen in 3D Modelle. Das große Ziel ist es, anschließend ein System zu entwickeln, das es einer einzelnen Kamera und einem Laptop ermöglicht, die Körperhaltungen von einer Gruppe von Menschen zu lesen.
Wenn die Technologie ausgereift ist, soll nicht nur die Interaktion von Menschen und Maschinen erleichtert werden. So sollen beispielsweise auch selbstfahrende Autos eigenständig erkennen können, wenn ein Fußgänger vor hat die Straße zu überqueren.
Die Forschungsergebnisse zu dieser neuen Technologie wurden auf der Computer Vision and Pattern Recognition Conference in Honolulu im Juli vorgestellt.
Unsere Experten auf diesem Gebiet bieten Ihnen auf Ihren Veranstaltungen spannende Einblicke in die Welt der Technologie und raffinierten Innovationen.
Prominente Experten und zukunftsorientierte Redner:
Professor für Kybernetik
Cyborg Artist
Zukunftsforscher
Außergewöhnlicher Trendspotter
Unternehmer und Investor für Künstliche Intelligenz
Vorsitzender von Cyborgs e.V. – Journalist, Blogger
Zukunftsforscher, Autor
Quelle: Newatlas.com