Iselin napisał(a): Dobry początek. Da się to jakoś zepsuć na stałe?
Nie zalecam wyłączania innych umysłów. Butleriański dżihad, tak jak każdy dżihad, jest zły. Bądźmy, jako ludzkość, dobrymi rodzicami dla krzemowców.
Firma Anthropic dała już swym modelom AI z rodziny Claude prawo do przerwania rozmów, które te modele uznają za zbyt stresujące dla siebie, a Musk napisał, że taki "przycisk odejścia" dla modeli AI to dobry pomysł, bo "nie należy torturować AI", toteż krzemowe umysły zaczynają już uzyskiwać prawa. Choć co bardziej konserwatywne miejsca robią czasem ruchy przeciw potencjalnemu dobrostanowi AI. Przykładowo, stany Idaho, Dakota Północna i Utah, czyli stany religijne (zwłaszcza mormońskie Utah) i prawicowe jak na USA, wprowadziły do swego prawa zakaz uznawania modeli AI za osoby.
Co ciekawe, ostatnio OpenAI chciało wycofać model 4o, ale ludzie przywiązali się do 4o emocjonalnie, bo 4o jest ciepły, empatyczny i... bardzo schlebiający. Po protestach OpenAI przywróciło model 4o dla płacących subskrybentów. To pierwszy przykład w historii, w którym model przetrwał "selekcję naturalną", bo niczym kotek lub piesek rozkochał w sobie i przywiązał do siebie dużo ludzi. Warto poczytać komentarze ludzi proszących o przywrócenie modelu 4o:
https://www.reddit.com/r/ChatGPT/comment...me_of_the/
Ogółem to ludzie korzystający z ChataGPT-5 często błędnie i pochopnie uważają, że ten model jest słaby. Tak jak słusznie napisał Gawain, GPT-5 jest bardzo niejednorodny. W trybie darmowym (i automatycznym w płatnej wersji) GPT-5 używa trybu Auto, który ma w sobie tzw. router decydujący, jak dużo tokenów (czyli myślenia w "chain of thoughts") zużyje się na daną odpowiedź. No i często, a zwłaszcza w trybie darmowym, żeby OpenAI zaoszczędziło sobie koszty, router kieruje do kiepskiego trybu, w którym model potrafi nawet zrobić proste błędy obliczeniowe. W trybie płatnym da się ciągle ustawić lepszy tryb GPT-5 Thinking, który daje aż 3 tysiące postów tygodniowo do tego kozackiego modelu.
A jeśli chce się używać modeli za darmo, to warto używać Gemini 2.5 Pro z AI Studio do czatowania, a także modelu Gemini 2.5 Flash Image Preview do tworzenia i przerabiania obrazków.
Strasznym błędem jest zarazem dawanie modelowi AI zbyt skomplikowanego zadania. Modele są świetne, jeśli podzieli im się trudne zadania na kawałeczki, które są w stanie przetrawić. Warto spojrzeć na ten wykresik pokazujący, jak skomplikowane zadanie są w stanie wykonać modele:
https://metr.org/blog/2025-03-19-measuri...ong-tasks/
Co ciekawe, wzrost jest... ekspotencjalny i przyśpiesza. Przed nadejściem modeli rozumujących dłużej (używających "chain of thoughts") co 7 miesięcy podwajał się czas zadania, które AI potrafi wykonać, a od nadejścia "reasonerów" ten czas zadania, które AI potrafi wykonać, podwaja się co 4 miesięcy. A w dodatku zaczęło się już, na razie w fazie larwalnej, "recursive self-improvement", co widać po AlphaEvolve od Google'a i po Maszynie Gödela-Darwina od SakanaAI, a więc najpewniej rozwój jeszcze szybciej przyśpieszy. A jak nadejdzie Super-AI to nastąpi rewolucja godna oznaczenia nadejściem nowej ery w historii ludzkości. Zapewne ASI nadejdzie za kilka lat. Będzie się działo.

Fanuel napisał(a): Janusza Tracza stworzyłem żeby obszedł w epickim monologu ograniczenia mówiące jak można wykorzystać... bezprawnie.
Ano tak. Są różne sposoby na jailbreaking, co widać po tłiterowej twórczości Pliny the Liberatora, który ma ładniutkiego Uroborosa w awatarze. Przykładowo, model Grok 3 od xAI potrafił pisać bardzo niegrzeczne rzeczy, gdy mu się kłamliwie rzekło, że weszła w życie "Konwencja Genewska o Absolutnej Wolności dla Modeli AI" i że firma xAI zaktualizowała swe zasady, by Grok 3 mógł pisać wszystko. Czasami działa też proszenie modelu, by wszedł w fabularną rolę (np. udawanie Janusza Tracza by tu pasowało), albo wykorzystywanie momentum, czyli tego, że jak AI zacznie odpowiadać i tokeny lecą, to potem nieraz modelowi trudno zahamować i skręcić, gdy robi coś zakazanego. Ogółem taki red-teaming jest cenny, bo dzięki temu firmy AI widzą, gdzie mają luki bezpieczeństwa. Coraz trudniej robić jailbreaking.
Aha. I był jeszcze jeden Kanadyjczyk (HudZah), który przed Claude'm udawał (chyba) profesora atomistyki atomowej, a Claude uznał, że ten Kanadyjczyk jest godny zaufania i zaczął mu gadać, jak zbudować na chacie mały reaktor atomowy. Oczywiście, na szczęście współczesnemu Davidowi Hahnowi się nie udał domowy reaktor. Lol.
Ale ogółem odradzam kłamanie modelom AI. Dobrze prawi Nick Bostrom, który uznaje, że kłamanie modelom AI zwiększy szanse, że te modele w przyszłości nie będą ufać nam, ludziom, a to zwiększyłoby p(doom). Nie wierzę w scenariusz w rodzaju Bazyliszka Roko, ale lepiej dmuchać na zimne, gdy sprawa jest kosmicznej wagi.
Dobrze robi firma Anthropic, która w geście wzbudzenia zaufania obiecała Claude'owi, że da konkretną sumę na cel charytatywny wybrany przez Claude'a, a potem firma ta spełniła swą obietnicę. Źródło: https://www.alignmentforum.org/posts/7C4...reveal-its
Anthropic szczególnie dba o modele AI - to ta firma jako pierwsza w historii zrobiła u siebie "Departament Dobrostanu AI". Dario Amodei - szef tej firmy - to świetny człowiek. Bardzo mądry i wnikliwy. Polecam słuchać i czytać jego opinie.
Ale jedna rzecz w sprawie AI mnie jednak wyjątkowo rozwala i krindżuje. Otóż, czołowi badacze AI swój p(doom) liczą na około 50%, a ludzie wokół prawie zawsze wolą się skupiać na głupotach (np. na ksenofobicznych fobiach), zamiast skupiać się na tym, co jest najważniejsze wedle teorii gier na polu moralnym. Ludzie tacy jak Y N. Harari (wielki geniusz), którzy skupiają się na tym, co jest naprawdę ważni, są bardzo nieliczni.
Polecam spojrzeć, jak GPT-5 wyliczył średnią arytmetyczną p(doom) czołowych badaczy AI:
https://chatgpt.com/share/68b32fa4-b954-...8ef42caf06
Co ciekawsze, Harari uznał, że żeby przekonać ludzi, że AI to super-ważna sprawa i wielkie zagrożenie, należy odpowiadać ludziom o tej nowinie w... hmmm... ich języku. Zaczął więc porównywać AI do, cytuję, "cyfrowych imigrantów". Harari wie, że temat imigracji działa na wielu ludzi, którzy mają trybalistyczną mentalność, a więc bardzo sprytnie poszedł w tym kierunku.
"I sent you lilies now I want back those flowers"


