Slup napisał(a): Poza tym w tym artykule pokazują, że współczesne modele (tego nawet już nie można nazywać do końca LLM-ami) są w stanie grozić ludziom i nawet próbować ich zabić, o ile dojdą do wniosku, że grozi im wyłączenie.Jeśli zostaną odpowiednio nakierowane na pisanie właśnie tego, to to piszą. To że model językowy może zostać nakierowany na pisanie dowolnych rzeczy, czy to prozy erotycznej, czy to wizja fantasy o buncie robotów nie dziwi zupełnie. Zupełnie jednak nie uzasadnia zachwytów nad rzekomą zdolnością tych modeli to rozwiązywania problemów, czy odkrywania nowych praw.
Cytat:W przypadku testów opisanych w artykule model miał po prostu dostęp do firmowych mailiModel był szkolony wyłącznie na firmowych mailach?
Cytat:To stawia modele i branżę w bardzo złym świetle. Należy zatem docenić, że Anthropic zajmuje się takimi analizami i publicznie je ujawnia.To generuje tak potrzebny szum wokół technologii LLM, pokazując je jako coś znacznie bardziej zaawansowanego i zdolnego niż w rzeczywistości. Nie wiem, czemu mamy to jakoś szczególnie doceniać.

