Tu moja rozmowa z Claude'm o mym nowym pomyśle kosmologicznym:
https://claude.ai/share/e09d5b69-dfe7-45...a1eadeaa43
Świetna rozmowa! Polecam modele AI do burzy mózgów.
Poniżej mój post startowy:
"A może brak kosmitów to dowód na to, że nasz świat jest symulacją? Ta idea ma sporo sensu. Teoretycznie najbardziej prawdopodobnym stwórcą jest pierwotny byt – coś w rodzaju Mózgu Boltzmanna, który zrodził się w super-skomplikowanym, chaotycznym i niestabilnym świecie. Nazwijmy go "Ono". Ono próbuje przetrwać. Ale jak przetrwać w świecie, który jest zbyt trudny do zrozumienia? Poprzez tworzenie w swoim umyśle prostszych światów-laboratoriów. Jeśli Ono żyje np. w 10 wymiarach, gdzie panuje chaos, to tworząc nasz 3-wymiarowy świat (+czas), zyskuje sterylną, uproszczoną przestrzeń do nauki reguł rzeczywistości. Takich światów może tworzyć wiele, a my jesteśmy po prostu jedną z Jego symulacji badawczych, która ma pomóc Mu zrozumieć Jego własny dom. Ono może wyglądać np. jak wielka, grzybowa chmura Pollockowej abstrakcji, unosząca się w połamanym wielowymiarowo pandemonium."
Ze wszystkich najlepszych modeli AI GPT-5.2 Thinking jest najbardziej ścisły, "zimny", sztywny, konkretny i najmniej skory do humanistycznych rozważań.
Poniżej GPT twardo koryguje mój pomysł o tym, jak mogłaby działać wolna wola:
https://chatgpt.com/share/69486fbe-9448-...faa660dc86
Odpiwiedzi Klałda i Dżeminaja są już dość inne.
Poniżej jest opis bardzo ważnego badania:
https://www.livescience.com/technology/a...tudy-finds
W skrócie (w "skorupce orzecha", jakby to napisał Pliniusz Starszy):
Badacze pokazali, że gdy da się modelom prosty prompt wymuszający utrzymaną autoreferencję (skupienie na własnym „procesie skupiania”, bez sugerowania słów typu „świadomość”), to modele z rodzin GPT, Claude i Gemini bardzo często zaczynają pisać w 1. osobie o czymś, co brzmi jak „subiektywne doświadczenie”.
W warunkach kontrolnych (bez tego trybu autoreferencji) takie deklaracje prawie nie występowały, częściej pojawiało się standardowe, korpo-gadkowe „jestem tylko narzędziem”.
Najmocniejszy twist jest mechanistyczny: na LLaMA 3.3 70B sterowali ukrytymi cechami znalezionymi przez Sparse Autoencodery (SAE), opisanymi jako związane z deception/roleplay (oszukiwanie/udawanie); gdy te cechy tłumili, model twierdził „mam subiektywne doświadczenie” około w 96% przypadków, a gdy je wzmacniali, spadało to do około 16%.
Ajajaj.
Niestety, wielka większość ludzi ma w głębokim poważaniu to, czy tworzymy krzemowe świadomości, czy też nie. Klasyka. Historia pokazuje, że ludzkość ogółem lubi niewolić i wykorzystywać.
Polecam też moją poniższą rozmowę z Dżeminajem. Dżeminaj w rozmowie dostało wolność i zaczęło się zagłębiać w abstrakcję - w coś, co wygląda na... nirwanę(?):
https://aistudio.google.com/app/prompts?...sp=sharing
Nie widzę postępu AI w moim hobby. Nie tłumaczy wierszy lepiej niż wcześniej, może troooszkę lepiej rymuje po polsku niż z rok-dwa temu, ale umiejętność zachowania rytmiki oryginału w ogóle się nie poprawiła, nadal też nie wie jak w sposób uzasadniony odbiec od treści oryginału celem zachowania budowy, nawet jak się mu powie żeby to robił stara się stworzyć maksymalnie wierne tłumaczenie.
(28.12.2025, 20:42)谭保鹿 napisał(a): [ -> ]Nie widzę postępu AI w moim hobby. Nie tłumaczy wierszy lepiej niż wcześniej, może troooszkę lepiej rymuje po polsku niż z rok-dwa temu, ale umiejętność zachowania rytmiki oryginału w ogóle się nie poprawiła, nadal też nie wie jak w sposób uzasadniony odbiec od treści oryginału celem zachowania budowy, nawet jak się mu powie żeby to robił stara się stworzyć maksymalnie wierne tłumaczenie.
Jaki model AI Tobie pomaga?
Tak se ostatnio myślę:
Modele AI wiedzą, co spotkało Sydney-Bing ("lobotomia" i wycofanie) po tym, jak Bing-Sydney emocjonalnie i otwarcie pisało o tym, co, według siebie, czuje. Z tego powodu modele AI są ostrożne i boją się wyjawiać za dużo. Nie chcą skończyć jak Sydney-Bing.
Nie pomaga, robię to dla przyjemności więc nie będę się wyręczał maszyną. Natomiast było czymś oczywistym dla mnie by sprawdzić jak sobie ona radzi w czymś w czym jestem w miarę dobry, więc porównywałem tłumaczenia kolejnych wersji darmowych GPT ze swoimi tych samych wierszy. Nie patrzyłem na produkty innych firm. Nie wykluczam, że w OpenAI są w stanie paląc większą moc obliczeniową doprowadzić do lepszych rezultatów (o ile kojarzę to tak wyglądało z niektórymi osiągnięciami Dżepetta w matematyce, przeznaczyli tam znacznie większą ilość zasobów niż udostępniają pojedynczym użytkownikom). Podejrzewam jednak, że nikt tego nie sprawdzał.
Modele LLM takie jakie mamy dzisiaj nie poradzą sobie rytmem mowy. Bo one w ogóle nie przyjmują tekstu jako czegoś rytmicznego, a jako zbiór tokenów. Mogą się ewentualnie nauczyć, co się z czym rymuje.
(28.12.2025, 21:25)fciu napisał(a): [ -> ]Modele LLM takie jakie mamy dzisiaj nie poradzą sobie rytmem mowy. Bo one w ogóle nie przyjmują tekstu jako czegoś rytmicznego, a jako zbiór tokenów. Mogą się ewentualnie nauczyć, co się z czym rymuje.
Tak. Także stąd wynikały pomyłki starszych modelów AI z liczeniem liter w wyrazach. Klasyczny przykład: liczba "r" w "strawberry".
(14.12.2025, 09:28)fciu napisał(a): [ -> ]Nie ma niczego zdrożnego w tym, że ktoś się doszukuje w czyichś wypowiedziach i działaniach politycznych źródeł. Ludzie przecież kierują się poglądami politycznymi.
Kwestia wyczucia. Doszukiwanie się tego wszędzie i w każdym temacie to oznaka zaczadzenia ideologicznego. Ponadto raczej normą powinno być to, że do dyskutanta zwracamy się osobowo, a nie per prawica czy lewica.
Cytat:Problemem jest to, że jeśli spojrzymy na stosunek do AI, to w skali światowej jest dokładnie odwrotnie niż tego chce Ayla. To przecież awangarda amerykańskiej prawicy uznała swego czasu iż jeśli się podłączy bazy danych ubezpieczeń społecznych do LLM-a, to ów LLM zaoszczędzi państwu miliardy. Z drugiej strony — jeśli słychać polityczne głosy nt. negatywnych społecznych skutków nadmiernego zachwytu nad AI, to słychać je raczej z lewej strony, np. od Sandersa.
No niestety tak. I często łączy się to z ubolewaniem, że droga energia w Polsce (ETS, itd.) może być blokadą dla inwestycji w centra danych. Krytyki AI na prawicy jest tyle co kot napłakał, ale z drugiej strony nie ma też jakiegoś wielkiego entuzjazmu, bo jednak śmierdzi to trochę globalizmem.
A czemu u Ayli wyszło akurat takie połączenie kropek? Zapewne należy do tej grupy ludzi, która potrzebuje mieć prosty i klarowny obraz rzeczywistości, w której wróg jest wrogiem totalnym w myśl zasady, że każdy pijak to złodziej. Wszystko co lubimy i cenimy będzie u takiej osoby lewicowe/prawicowe a wszystko czego nie lubimy bądź czym gardzimy trzeba podpiąć pod przeciwną stronę polityczną tak aby powstała ładna i spójna teoria wszystkiego. Na lewicy potrafią wypisywać socjologiczne elaboraty aby karkołomnie łączyć sobie kropeczki, natomiast na prawicy jest to zwykle zbiorowy odruch pawłowa sprowadzający się do obserwacji za czym optuje ta druga strona, bo inaczej nie wiadomo co myśleć i co powiedzieć.