Slup napisał(a): Anthropic nawet nie wie (i ja też nie wiem), jak te modele były dokładnie uczone, bo to jest tajemnica przemysłowa.Ale Ty pisałeś, że "nie było żadnej funkcji".
Cytat:Anthropic pokazał, że jeśli spróbujesz go potem wyłączyć i ten model się o tym wcześniej "dowie", to może próbować Cie zabićAnthropic pokazał, że w specjalnie zaprojektowanej ustawce LLM zachowuje się tak, jak warunki tej ustawki każą. To tyle. To oczywiście nie znaczy, że w ogóle różne modele AI nie mogą być niebezpieczne. Mogą. To oczywiście nie znaczy, że dziedzina bezpieczeństwa AI nie powinna być badana. Powinna. Nadal jednak to konkretne badanie jest ustawką PR-ową mającą po prostu nakręcić hype na LLM-y.

