{"id":6638,"date":"2025-07-24T21:30:00","date_gmt":"2025-07-24T19:30:00","guid":{"rendered":"https:\/\/aitrends.center\/teaching-robots-to-understand-their-bodies-with-just-a-camera\/"},"modified":"2025-07-24T21:30:00","modified_gmt":"2025-07-24T19:30:00","slug":"robotern-mit-einer-kamera-beibringen-ihren-korper-zu-verstehen","status":"publish","type":"post","link":"https:\/\/aitrendscenter.eu\/de\/teaching-robots-to-understand-their-bodies-with-just-a-camera\/","title":{"rendered":"Robotern das Verstehen ihres K\u00f6rpers beibringen - nur mit einer Kamera"},"content":{"rendered":"<p>Forscher des Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT haben eine revolution\u00e4re Methode zur Steuerung von Robotern entwickelt, die sich am menschlichen adaptiven Lernen orientiert. Im Gegensatz zu herk\u00f6mmlichen Robotersystemen, die mit einer Reihe komplexer Sensoren und sorgf\u00e4ltig von Hand erstellten Bewegungsmodellen ausgestattet sind, kann dieses neue System mit der Bezeichnung \"Neural Jacobian Fields\" (NJF) Roboter dazu anleiten, ihre eigenen K\u00f6rperbewegungen und Reaktionen auf Befehle allein durch Beobachtung selbst zu erlernen.<\/p>\n<p>Im Herzen des CSAIL-Labors ergreift eine weiche Roboterhand flink und geschickt einen winzigen Gegenstand. Bemerkenswert ist, dass die Hand sensorlos ist und ihre Bewegungen, die von einer einzigen Kamera beobachtet werden, allein durch visuelle Daten gesteuert werden. Diese bahnbrechende Technologie folgt nicht dem starren Programmieransatz, der bisher die Norm war. Stattdessen begibt sie sich in den Bereich des Lehrens und Lernens. Die Roboter werden zu Sch\u00fclern - sie beobachten, lernen und passen ihre Bewegungen an, genau wie Menschen.<\/p>\n<p>\"Diese Arbeit deutet auf eine Verlagerung von der Programmierung von Robotern zum Unterrichten von Robotern hin\", sagt Sizhe Lester Li, der MIT-Doktorand, der die Forschung leitete. \"Anstatt jede Bewegung zu kodieren, k\u00f6nnen wir einem Roboter eine Aufgabe zeigen und ihn herausfinden lassen, wie er sie zu bew\u00e4ltigen hat.<\/p>\n<p>Diese Innovation stellt das traditionelle Modell v\u00f6llig auf den Kopf, das auf ein starres Design und eine mit Sensoren ausgestattete Technologie setzt, um die Kontrolle zu gew\u00e4hrleisten. NJF erm\u00f6glicht eine noch nie dagewesene Freiheit, die es Robotern (unabh\u00e4ngig davon, ob sie weich, unregelm\u00e4\u00dfig oder ohne Sensoren sind) erm\u00f6glicht, ihr eigenes internes Bewegungsverst\u00e4ndnis aufzubauen, indem sie einfach beobachten und sich anpassen. Dieser radikale Ansatz er\u00f6ffnet Ingenieuren unendliche M\u00f6glichkeiten, bioinspirierte Maschinen zu entwickeln, ohne sich um sp\u00e4tere Kontroll- oder Modellierungskomplikationen k\u00fcmmern zu m\u00fcssen.<\/p>\n<p>\"Das ist so, als w\u00fcrde man lernen, seine Gliedma\u00dfen zu kontrollieren. Man beobachtet, wackelt und passt sich an\", erkl\u00e4rt Li. \"Das ist das gleiche Prinzip, das unser System anwendet.\"<\/p>\n<p>Das Team testete NJF an verschiedenen Roboterformen - von einer pneumatischen Soft-Hand \u00fcber eine starre Allegro-Hand bis hin zu einem 3D-gedruckten Arm und einer rotierenden Plattform ohne Sensoren. In jedem Fall verwendete das System visuelle und zuf\u00e4llige Bewegungsdaten, um die Geometrie des Roboters und seine Reaktion auf Befehle zu lernen und zu verstehen. Nach dem Training ben\u00f6tigt der Roboter nur eine einzige monokulare Kamera, um in Echtzeit zu agieren, und erreicht dabei eine Geschwindigkeit von 12 Bildern pro Sekunde - ein bedeutender Fortschritt im Vergleich zu anderen Simulatoren.<\/p>\n<p>In NJF ist ein neuronales Netz eingebettet, das zwei wichtige Aspekte erlernt: die 3D-Form des Roboters und seine Reaktion auf Steuersignale. Das System lernt, indem es zuf\u00e4llige Aktionen des Roboters beobachtet, ohne dass menschliche Eingaben oder bereits vorhandenes Wissen erforderlich sind.<\/p>\n<p>\"Das Sehverm\u00f6gen allein kann die f\u00fcr die Lokalisierung und Steuerung erforderlichen Hinweise liefern\", sagt Daniela Rus, Direktorin des CSAIL und Mitautorin der Studie. \"Dies \u00f6ffnet die T\u00fcr zu Robotern, die in chaotischen, unstrukturierten Umgebungen funktionieren k\u00f6nnen - ohne kostspielige Infrastruktur.\"<\/p>\n<p>Zu den derzeitigen Herausforderungen geh\u00f6ren die Notwendigkeit, jeden Roboter einzeln mit mehreren Kameras zu trainieren, und das Fehlen eines Tastsinns. Mit Unterst\u00fctzung des Solomon Buchsbaum Research Fund, des MIT Presidential Fellowship, der National Science Foundation und des Gwangju Institute of Science and Technology ist das Team jedoch bestrebt, das Potenzial des Systems durch die Bew\u00e4ltigung dieser Herausforderungen zu verbessern.<\/p>\n<p>\"\u00c4hnlich wie der Mensch ein intuitives Gef\u00fchl f\u00fcr die Bewegungen seines K\u00f6rpers entwickelt\", sagt Li. \"NJF vermittelt Robotern diese Art von verk\u00f6rpertem Verst\u00e4ndnis und legt damit den Grundstein f\u00fcr eine flexible, adaptive Steuerung in der realen Welt.\"<\/p>\n<p>Ausf\u00fchrlichere Informationen \u00fcber diese Forschung finden Sie auf MIT News: <a href=\"https:\/\/news.mit.edu\/2025\/vision-based-system-teaches-machines-understand-their-bodies-0724\" target=\"_blank\" rel=\"noopener\">https:\/\/news.mit.edu\/2025\/vision-based-system-teaches-machines-understand-their-bodies-0724<\/a><\/p>","protected":false},"excerpt":{"rendered":"<p>At the forefront of pioneering robot manipulation, researchers at MIT\u2019s Computer Science and Artificial Intelligence Laboratory (CSAIL) have engineered a revolutionary way to control robots that draws its inspiration from human adaptive learning. Unlike traditional robotic systems armed with an array of complex sensors, and movement models carefully constructed by hand, this new system called Neural Jacobian Fields (NJF), has the ability to instruct robots to self-learn their own bodily movements and responses to commands purely through observation. In the heart of the CSAIL lab, a soft robotic hand nimbly grasps a tiny object with finesse. Remarkably, the hand is [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":6639,"comment_status":"","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[46,47],"tags":[],"class_list":["post-6638","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-automation","category-ai-news","post--single"],"_links":{"self":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts\/6638","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/comments?post=6638"}],"version-history":[{"count":0,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts\/6638\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/media\/6639"}],"wp:attachment":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/media?parent=6638"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/categories?post=6638"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/tags?post=6638"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}