Natürlich bestimmen die Roboter von Boston Dynamics ihre Bewegungsabläufe durch Echtzeitdatenverarbeitung ihres Sensorinputs. Ansonsten könnten sie ja u.a. keine autonome Gegenreaktionen gegen gezielte externe Störung (z.B. Schubsen) durchführen. Das habe ich auch nicht in Frage gestellt. Wie gut das funktioniert wird auch in folgendem TED-Vortrag gezeigt:
https://www.ted.com/talks/marc_raibert_meet_spot_the_robot_dog_that_can_run_hop_and_open_doors#t-584403Ich habe wohl aber in Zweifel gestellt, dass dies im Falle des Rückwärtssaltos genauso abgelaufen ist. Mir schoss einfach als erster Gedanke durch den Kopf, dass man hier die Grundlagen eines solchen extrem komplexen Bewegungsablaufs sozusagen als "Grobschablone" über ein Motion Capture Verfahren auf das Endoskelett übertragen haben könnte und dann in die sicherlich immer noch hochkomplexe Verfeinerung des Ablaufs gegangen sein könnte (Adaption auf die Massenschwerpunkte, Aktorsteuerung, Ermittlung der notwendigen Absprungkräfte, Ermittlung der optimalen Stufenhöhe, etc.). Die PR-Wirkung eines solchen Kunststücks sieht man gegenwärtig ja in den Medien. Vielleicht erfahren wir ja in der näheren Zukunft wie Boston Dynamics das wirklich hinbekommen hat.
Glaube jedenfalls nicht, dass Atlas das gleiche Kunststück autonom bei einer anderen Stufe ähnlicher Höhe sofort nochmals hinbekommen würde. Daher sprach ich von "geteacht" noch dazu mit voller Absicht in Anführungszeichen, weil es in meinen Augen kein Teaching im eigentlichen Sinn war (Roboter führt eine durch den Bediener vorgegebene Bewegung nach), sondern vielmehr ein intern vorgegebener (komplex ermittelter) Bewegungsablauf abgerufen wurde, der nicht auf Basis von sensorischem Input erfolgte. Wie gesagt, meine Meinung.
Das Know-How in Sachen Heuristik bei Boston Dynamics ist sicherlich dennoch weltweit führend.
Um den Kreis zur Raumfahrt wieder zu schließen, liegt meines Erachtens nach bei der Autonomie auch das noch größte Problem. Anwendungen bei denen ein externer Bediener einen teilhumanoiden Roboter bei Außeneinsätzen steuert, so wie es Sensei weiter oben beschrieben hat (am besten noch mit hochentwickeltem Haptik-Feedback), sehe auch ich als Nahziel. Da macht auch der humanoide Aufbau am meisten Sinn.
Den autonomen Umgang mit unvorhergesehen Problemen wie klemmenden Schrauben, Panelen oder wegdriftenter Ausrüstung (um nur mal einige spontan auftretende Problemfälle zu nennen), ohne dabei vollkommen überfordert zu sein und/oder größeren Schaden anzurichten, sehe ich noch in recht weiter Ferne.