Weźmy automatycznego robota sprzątającego połączonego z aplikacją sterowaną przez LLM-a. Przy czym ten LLM ma zarządzać robotem, informować właściciela domu o stanie robota i jego awariach, wysyłać robota do serwisu, zamawiać przez internet części itd. Taki połączony system też jest w stanie opisać swoją rzeczywistość, wejść w interakcję z otoczeniem, o którym nigdy mu nie opowiedziano (wcześniej nie znał domu – robot sprzątający musiał go najpierw zmapować), potrafi też opisać swoje problemy i zachowywać się stosownie do nich.
Wygląda, że ten system ma (prosty) model rzeczywistości w Twoim sensie.
Jak podłączymy LLM-a do bardziej skomplikowanego robota (o większej liczbie stopni swobody i czujników), to ten model rzeczywistości też się rozszerzy. Wytrenujemy lepszego LLM-a, to rozszerzy się bardziej. Połączymy taki system z modułami dedykowanymi do konkretnych przydatnych w życiu codziennym dziedzin. W końcu uzyskamy roboty, które w sensie behawioralnym, będą bardzo podobne do przeciętnego człowieka.
Wygląda, że ten system ma (prosty) model rzeczywistości w Twoim sensie.
Jak podłączymy LLM-a do bardziej skomplikowanego robota (o większej liczbie stopni swobody i czujników), to ten model rzeczywistości też się rozszerzy. Wytrenujemy lepszego LLM-a, to rozszerzy się bardziej. Połączymy taki system z modułami dedykowanymi do konkretnych przydatnych w życiu codziennym dziedzin. W końcu uzyskamy roboty, które w sensie behawioralnym, będą bardzo podobne do przeciętnego człowieka.

