fciu napisał(a):Slup napisał(a): Tutaj:Nie napisałem, że funkcja musi być złowieszcza. W przypadku tego akurat pseudoeksperymentu funkcja promuje następny token, który pasuje do ludzkiego języka. Więc tak:
1. Uczymy LLM-a pisać jak cżłowiek.
2. Dajemy mu początek scenariusza o złej AI, która buntuje się przeciwko człowiekowi.
3. LLM kończy ten scenariusz zgodnie z przewidywaniami.
I tyle. Jest to dokładnie tak samo dziwne, jak to, że LLM dostawszy początek scenariusza o hydrauliku, co przyszedł pod nieobecność męża dokończy "a potem się ruchali".
Nie. To, co piszesz, opisuje model bazowy po samym pre-trainingu, który w strumieniu myśli przewiduje najbardziej prawdopodobny ciąg dalszy tekstu. Ale wraz z post-trainingiem model AI uczy się wykonywać zadania i zadowalać interlokutora, a do tego przydaje się np. tworzenie uproszczonego modelu umysłu interlokutora w swym umyśle, a to już wyższa szkoła jazdy.
"I sent you lilies now I want back those flowers"

