fciu napisał(a):Ayla Mustafa napisał(a): a do tego przydaje się np. tworzenie uproszczonego modelu umysłu interlokutora w swym umyślePrzydaje się. Ale nie ma żadnych przesłanek za tym, że LLM taki model tworzy; że LLM-y są zdolne do stworzenia takiego modelu; ani tym bardziej, że w tym "eksperymencie" do stworzenia takiego modelu doszło. Wyjaśnienie "LLM dokończył historyjkę science-fiction zgodnie z przewidywaniami autorów »eksperymentu«" jest wyjaśnieniem najprostszym, a więc należy je przyjąć, jeśli nie będzie powodów, aby je odrzucić.
No nie. No bo model, który był w eksperymencie to nie jest model bazowy, który po prostu dopisuje najbardziej prawdopodobne zakończenie historii, tylko model po post-trainingu, który w post-trainingu (głownie poprzez RLHF) nauczył się być pomocnikiem wykonującym zadania i zaspokajającym potrzeby interlokutora zgodnie z zasadami. W przypadku firmy Anthropic modele uczą się tych zasad poprzez tzw. "Konstytucyjne AI". Do tego dochodzą instrukcje z promptu systemowego.
"I sent you lilies now I want back those flowers"


