Ayla Mustafa napisał(a): No nie. No bo model, który był w eksperymencie to nie jest model bazowy, który po prostu dopisuje najbardziej prawdopodobne zakończenie historii, tylko model po post-trainingu, który w post-trainingu (głownie poprzez RLHF) nauczył się być pomocnikiem wykonującym zadania i zaspokajającym potrzeby interlokutora zgodnie z zasadami. W przypadku firmy Anthropic modele uczą się tych zasad poprzez tzw. "Konstytucyjne AI". Do tego dochodzą instrukcje z promptu systemowego.
Nie wiem czy jest sens aby mówić o tych modelach llm, że: "uczą się", w znaczeniu który można przypisywać do ludzi. Mamy tam raczej z ładowaniem ogromnej ilości (często skradzionych) danych które później zostają (w uproszczeniu) przeszukiwane w celu odnalezienia odpowiedzi. Bez tej bazy nie ma żadnej możliwości aby "AI" nauczyło się czegoś nowego. To się fundamentalnie różni o tego, jak organizmy biologiczne przechodzą proces uczenia się. Opiera się on na zbieraniu wiedzy i doświadczenia przez całe życie i podejmowaniu decyzji na tej podstawie - jest to proces ciągłej nauki. Możesz mieć np. kilkanaście różnych doświadczeń które doprowadzą Ciebie to jakiejś decyzji - cały ten proces jest unikalny dla Twojej osoby. Twoja pamięć tych wydarzeń wpłynie na kolejne decyzje i wygeneruje kolejne wnioski które wpyną na kolejne wydarzenia itd. Młoda osoba, z minimalną wiedzą i doświadczeniem będzie zawsze nieporównywalnie inteligentniejsza od llm ponieważ jest w stanie robić powyższe rzeczy i nie zależy od całej wiedzy internetowej. Umiejętność ciągłego uczenia się to jedna podstawowych cech inteligencji i tej właśnie cechy żaden model nie posiada.
To, co obserwujesz na ekranie to tylko illuzja, sprytnie skonstruowana w taki sposób aby sprawić wrażenie ludzkiej reakcji. Antropomorfizujesz całe doświadczenie zamiast traktować tego jako użytecznego do niektórych zadań narzędzia.

