Żarłak napisał(a): To jest niesamowite. Nie sądziłem, że tak szybko osiągną takie rezultaty. Trochę straszne i fajne równocześnie. Szok...
Wg mnie przesadzasz z zachwytem - jeżeli w wirtualnych animacjach można "poruszać" zdefiniowanymi obiektami będącymi częścią składową obiektów złożonych, to przełożenie tego na ruch rzeczywistych obiektów jest niemal wyłożone na tacy - dodać interfejs sterujący obiektem rzeczywistym będącym odpowiednikiem wirtualnego, no i powinno zadziałać... Wyzwaniem jest mechanika, czyli to co tym rzeczywistym obiektem będzie poruszało. Aczkolwiek to i tak wierzchołek góry lodowej, bo gdyby robot stał o własnych siłach i zaczął ruszać głową, to trzeba by się zastanowić, na ile to wpłynie na jego równowagę, no i się zaczyna...
Humanoidalne roboty chodzące, skaczące i wykonujące salta już istnieją, przynajmniej na filmikach firmy Boston Dynamics - ale tam się mimiką twarzy nikt nie przejmuje, bo to niepotrzebne zżeranie zasobów.... No właśnie, po co taki realizm w mimice twarzy robota? Ciekawi mnie ile takie sterowanie realistyczną mimiką zżera mocy obliczeniowej w porównaniu z mocą obliczeniową potrzebną do czynności praktycznych, czyli wykorzystania kończyn robota, co by np. coś wziął w "rękę"...
Niesamowite będzie dopiero wtedy, gdy zostanie przełamany Paradoks Moraveca przynajmniej odnośnie poruszania się w przestrzeni i manipulacji przedmiotami - ot, niech sobie ten robot z realistyczną mimiką chwyci w swoją niemal ludzką rękę plastikowy kubek z wodą, nie miażdżąc go, nie wylewając wody przełoży kubek do drugiej ręki, drugą ręką postawi na głowie i robi miny, rusza głową, ale warunek...: kubek ma mu z głowy nie spaść przynajmniej przez kilkanaście sekund - dla człowieka po paru ćwiczeniach jak najbardziej wykonalne, ale co do robota, to póki co życzę powodzenia w dorabianiu wszelkiej maści czujników, a potem w próbach oprogramowania metod realizacji takiego wyczynu...


