Osiris napisał(a):Model AI uczy się inaczej i mniej wydajnie niż ludzie, ale to nie znaczy, że się nie uczy. Człowiek też potrzebuje świata zewnętrznego wobec siebie, by się czegoś nauczyć. Same przyrodzone geny człowieka zawierają tylko kilka gigabajtów informacji.Ayla Mustafa napisał(a): No nie. No bo model, który był w eksperymencie to nie jest model bazowy, który po prostu dopisuje najbardziej prawdopodobne zakończenie historii, tylko model po post-trainingu, który w post-trainingu (głownie poprzez RLHF) nauczył się być pomocnikiem wykonującym zadania i zaspokajającym potrzeby interlokutora zgodnie z zasadami. W przypadku firmy Anthropic modele uczą się tych zasad poprzez tzw. "Konstytucyjne AI". Do tego dochodzą instrukcje z promptu systemowego.
Nie wiem czy jest sens aby mówić o tych modelach llm, że: "uczą się", w znaczeniu który można przypisywać do ludzi. Mamy tam raczej z ładowaniem ogromnej ilości (często skradzionych) danych które później zostają (w uproszczeniu) przeszukiwane w celu odnalezienia odpowiedzi. Bez tej bazy nie ma żadnej możliwości aby "AI" nauczyło się czegoś nowego.
Model AI, choć mniej wydajny w procesie nauki od ludzi (ludzie mają w sobie lepszy "algorytm" uczenia się), ma tę zaletę, że już po nauce działa szybko, tanio i dość dobrze (a rozwój ciągle zasuwa), a także, że łatwo kopiować i uruchamiać jego wagi/parametry w ogromnych ilościach, by działał w bardzo wielu rozmowach jednocześnie.
"I sent you lilies now I want back those flowers"


