fciu napisał(a): Ale Ty pisałeś, że "nie było żadnej funkcji".
Bo Anthropic (ani nikt inny) żadnej złowieszczej funkcji, o której Ty pisałeś, nie używał.
Bazowo wszystkie modele językowe są pretrenowane za pomocą cross-entropy loss i mają przewidywać następny token. Potem jest fine-tuning na mniejszym zbiorze danych i RL. Tu nie ma żadnych
fciu napisał(a):funkcji, która promuje kłamanie i oszukiwanie
fciu napisał(a): Anthropic pokazał, że w specjalnie zaprojektowanej ustawce LLM zachowuje się tak, jak warunki tej ustawki każą. To tyle.
Czyli za ustawkę uznajesz podłączenie flagowego modelu językowego do infrastruktury firmy i poinstruowanie go, żeby działał dla jej dobra i nie krzywdził ludzi? Ok. Nie będę się spierał.
Moim zdaniem to bardzo realny scenariusz w przyszłości. Pewnie już są takie firmy.

