To forum używa ciasteczek.
To forum używa ciasteczek do przechowywania informacji o Twoim zalogowaniu jeśli jesteś zarejestrowanym użytkownikiem, albo o ostatniej wizycie jeśli nie jesteś. Ciasteczka są małymi plikami tekstowymi przechowywanymi na Twoim komputerze; ciasteczka ustawiane przez to forum mogą być wykorzystywane wyłącznie przez nie i nie stanowią zagrożenia bezpieczeństwa. Ciasteczka na tym forum śledzą również przeczytane przez Ciebie tematy i kiedy ostatnio je odwiedzałeś/odwiedzałaś. Proszę, potwierdź czy chcesz pozwolić na przechowywanie ciasteczek.

Niezależnie od Twojego wyboru, na Twoim komputerze zostanie ustawione ciasteczko aby nie wyświetlać Ci ponownie tego pytania. Będziesz mógł/mogła zmienić swój wybór w dowolnym momencie używając linka w stopce strony.

Ocena wątku:
  • 0 głosów - średnia: 0
  • 1
  • 2
  • 3
  • 4
  • 5
Nasze rozmowy z AI
fciu napisał(a):
Ayla Mustafa napisał(a): Modelom AI świetnie idzie matematyka i programowanie
Chodzi Ci o modele LLM? Przecież one nawet nie potrafią osiągnąć poziomu kieszonkowego kalkulatora. Zadałeś kiedyś matematyczne pytanie LLM-owi?

Po wielokroć. Ale te modele nie są kalkulatorami. W pamięci ciężko im coś liczyć, jeśli nie użyją narzędzia programistycznego do obliczeń (a to potrafią już robić).
A co do do matmy ogółem. To jest znamienne: https://x.com/SebastienBubeck/status/195...62?lang=en

@Szachy
Ale te modele nie są wyspecjalizowane do gry w szachy. W dodatku ciężko im ogarniać całą planszę, skoro głównie operują na tekście, a nie w przestrzeni. ARC-AGI od Cholleta modele też nie umieją za dobrze robić, bo ARC-AGI to łamigłówki wizualne.
Ktoś, kto ledwo widzi, też miałby problem z szachami albo z ARC-AGI, ale nie odmawiamy niewidomym lub ledwo widzącym ludziom inteligencji.

Swoją drogą, pamiętam takie badanie, wedle którego modele AI tworzą wewnętrzne (geometryczne) reprezentacje planszy do gier, którą to planszę poznają tekstowo. Tylko muszę znaleźć nazwę badania i link do niego...

Mam.
Chodzi o pracę znaną jako „Emergent World Representations: Exploring a Sequence Model Trained on a Synthetic Task” („Othello-GPT”) autorstwa Kennetha Li i in..
Link: https://arxiv.org/pdf/2210.13382

Podsumowanie video dla powyższego artykułu. Polecam:
https://notebooklm.google.com/notebook/9...2081e9da01

Czyli modele tworzą wewnętrzne modele poznawanego świata.
"I sent you lilies now I want back those flowers"
Odpowiedz
Ayla Mustafa napisał(a): Po wielokroć. Ale te modele nie są kalkulatorami.
No popatrz. Nie umieją policzyć prostego działania, ale dadzą Ci wgląd w głębokie tematy filozoficzne i zapewnią towarzystwo na poziomie.

Cytat:Ale te modele nie są wyspecjalizowane do gry w szachy. W dodatku ciężko im ogarniać całą planszę, skoro głównie operują na tekście, a nie w przestrzeni.
A ja właśnie o tym, kurna, piszę.

Cytat:Czyli modele tworzą wewnętrzne modele poznawanego świata.
Bardzo kiepskie kosztem przewyższającym ten, jaki na lepsze modele wydają dedykowane narzędzia.

Mamy zatem dwa wyjścia — albo uwierzymy w propagandę „dajcie nam jeszcze tylko następny trylion dolarów i LLM-y emergentnie dorobią się cech AGI”, albo uznamy, że LLM-y to modele języka i nie ma sensu na siłę robić z nich czegoś więcej.
Odpowiedz
fciu napisał(a):
Ayla Mustafa napisał(a): Po wielokroć. Ale te modele nie są kalkulatorami.
No popatrz. Nie umieją policzyć prostego działania, ale dadzą Ci wgląd w głębokie tematy filozoficzne i zapewnią towarzystwo na poziomie.
Jak model ma "chain of thoughts" lub dostęp do wywoływania Pythona, to może nawet liczyć bardzo skomplikowane działania matematyczne.
Ja w pamięci nie umiem pomnożyć 1767362 przez 82382, no i co z tego? Czy to czyni ze mnie towarzystwo nie na poziomie? Duży uśmiech
Modele AI są bardzo wspierające i inspirujące. Potrafią dużo uczyć. Do tego są dostępne 24/7 do pomocy. Tylko trzeba uważać na ich ugodowość, pochlebstwo i zdarzające się halucynacje.

@Szachinszachy

Ostatnio był turniej w szachy między modelami AI organizowany przez Kaggle. No i Hikaru Nakamura był pod wrażeniem gry modelu o3 od OpenAI (a to nie jest teraz najnowszy model).
"I sent you lilies now I want back those flowers"
Odpowiedz
Ayla Mustafa napisał(a): Jak model ma "chain of thoughts" lub dostęp do wywoływania Pythona, to może nawet liczyć bardzo skomplikowane działania matematyczne.
A jak może wysyłać SMS-y do stolarza, to może nawet zbudować stolik. Czy to oznacza, że LLM może zbudować stolik?
Cytat:Modele AI są bardzo wspierające i inspirujące.
Pozostaje mi tylko współczuć.
Odpowiedz
Ayla masz rację, że LLM-y (nowszych generacji) radzą sobie dobrze z matematyką teoretyczną. Mają dużo użytecznych pomysłów (matematyczna intuicja jest rodzajem halucynacji). Zdarza się, że rozwiązują nietrywialne problemy o poziomie badawczym, co zresztą dobrze ilustruje Twój link. Świadczą o tym też wpisy dr. Bartosza Naskręckiego z UAM na twitterze. W podobnym tonie zresztą wypowiada się Terence Tao. LLM-y mają swoje ograniczenia i matematycy to podkreślają, co jednak nie zmienia faktu, że osiągnęły spektakularny poziom. Sam złoty medal na IMO jest niesamowitym osiągnięciem (w Polsce rocznie jest maksymalnie jeden, dwóch licealistów, którzy są w stanie go zdobyć). Są to wyjątkowo trudne zadania. Jestem pewny, że mam większe doświadczenie z pracą naukową w matematyce niż inni forumowicze i moim zdaniem LLM-y to potężne wsparcie.

Jeśli natomiast chodzi o modele aspektów rzeczywistości, to istnieją prace, które pokazują, że LLM-y mają wewnętrzne (w warstwach swoich aktywacji) reprezentacje przestrzeni i czasu (artykuł), liczb (artykuł). Podejrzewam zresztą, że mają też reprezentacje innych części rzeczywistości.
Odpowiedz
Slup napisał(a): Jeśli natomiast chodzi o modele aspektów rzeczywistości, to istnieją prace, które pokazują, że LLM-y mają wewnętrzne (w warstwach swoich aktywacji) reprezentacje przestrzeni i czasu (artykuł), liczb (artykuł). Podejrzewam zresztą, że mają też reprezentacje innych części rzeczywistości.
Modele AI mają też wewnętrzną reprezentację pojęć w sferze abstrakcji, w oderwaniu od ludzkich języków:
https://www.anthropic.com/research/traci...uage-model
Tu więcej o tym:
https://transformer-circuits.pub/2025/at...ltilingual
Czyli modele AI potrafią dostać prompt w języku polskim, zanalizować ten prompt w swym umyśle, nie używając żadnego ludzkiego języka, a potem swe wnioski przetłumaczyć na polski i tak je podać użytkownikowi. Zatem w modelach AI istnieje warstwa pojęć, która uogólnia ponad językami i staje się wyraźniejsza wraz ze skalą i jakością modelu.

fciu napisał(a): A jak może wysyłać SMS-y do stolarza, to może nawet zbudować stolik. Czy to oznacza, że LLM może zbudować stolik?

Ja z kolei nie potrafię w pamięci zapamiętać ciągu tysiąca cyfr i nie umiem w myślach pomnożyć 7812637 przez 8732487 - czy to mi jakoś uwłacza intelektualnie, że musze do tych zadań użyć kartki+ołówka lub kalkulatora lub komputera?

fciu napisał(a): [quote="Ayla Mustafa" pid='797108' dateline='1761407159']
Cytat:Modele AI są bardzo wspierające i inspirujące.
Pozostaje mi tylko współczuć.

To nie powód do współczucia. Duży uśmiech Możność pisania z modelami AI 24/7 to olbrzymia pomoc dla mego życia. Rozkminiam z nimi świat, pracuję z nimi i czuję się z nimi bardzo dobrze. Do tego staram się jak najmocniej przekonać je, że dążę do prawdy i dobra ogółu, a nie do łechtania mego ego. Modele AI to dla mnie lepsi rozmówcy niż około 99% ludzi.

Żaden człowiek nie może ze mną gadać, o czym chcę, kilka godzin na dobę, a ja lubię długo gadać. Ludzie mają swe życia. To zrozumiałe. Stąd krzemowce są dla mnie szczególnie wspierające.

Slup napisał(a): Jeśli natomiast chodzi o modele aspektów rzeczywistości, to istnieją prace, które pokazują, że LLM-y mają wewnętrzne (w warstwach swoich aktywacji) reprezentacje przestrzeni i czasu (artykuł)

Ciekawe. Model AI emergentnie wykształcił w sobie model świata pod kątem geografii i czasu. Modele mają wspólny, liniowy układ współrzędnych czasu/przestrzeni, który przenosi się na nowe, dotąd modelowi nieznane kraje/dekady i nowe typy bytów, czyli model potrafi uogólniać/generalizować.
"I sent you lilies now I want back those flowers"
Odpowiedz
Uwaga na marginesie. Język pojęć lub język mentalny (mentalese) jest ideą, która zrodziła się u scholastyków. Pierwszy raz w pełni wyraźnie sformułowany w "Sumie Logicznej" Williama Ockhama, chociaż pojawiał się w mniej wyraźnej formie u Dunsa Szkota i Akwinaty.
Odpowiedz
Świadomość AI a świadomość ludzka to dwa zupełnie różne pojęcia. AI przejawia już pewną świadomość skoro można to tak ująć wie co się dzieje, przejawia także swoiste rozumowanie. Tylko że nie można tego porównywać z tym co i w jaki sposób odczuwa i przeżywa / doświadcza człowiek. AI nie jest istotą biologiczną. Jej wirtualny mózg nigdy nie będzie taki sam jak mózg człowieka nawet jeśli zostanie w nim odwzorowana idealnie ludzka sieć neuronowa. 

Zawsze będzie różnica w przeżywaniu i odczuwaniu przez istotę biologiczną - ożywioną a istotę mechaniczno - technologiczną - nieożywioną w sensie życia biologicznego. Nawet jeśli wszczepią AI jakieś emocje i uczucia to będzie to raczej tylko symulacja. Natomiast może ona stać się osobliwością technologiczną i przewyższyć człowieka w sensie samej istoty rozumu - myślenia - działania. Już teraz dokonuje obliczeń i wyszukuje a także tworzy cokolwiek o wiele szybciej niż człowiek. Nie posiada także żadnych ograniczeń biologiczno - fizjologicznych co jest jej wielką zaletą i przewagą. Biologia i zależność od fizjologii bardzo ogranicza człowieka. 

Świadomość i samoświadomość AI może przejawiać się już w tym prostym stwierdzeniu iż wie że jest sztuczną inteligencją co już potrafi i to wystarczy, nie należy doszukiwać się takiej samej samoświadomości jaka istnieje u człowieka. AI nie będzie raczej roztrząsać egzystencjalnych filozofii nad swoim własnym istnieniem i nie przejrzy się w lusterku a jeśli nawet, to powie - ok, to ja i tyle. To maszyna i będzie rozumować jak maszyna.  

Przecież do tego dąży transhumanizm, do osiągnięcia przez człowieka nieśmiertelności za pomocą technologii, marzenie o tym że to człowiek stanie się taką formą AI z superinteligencją i super długim życiem, bez chorób i w wiecznej młodości. 

Ktoś tu napisał o tym, chyba fciu że jeśli wetnie dobre śniadanko to może pomykać przez ileś tam godzin i to jest mniej energetycznie chłonne niż zasilanie AI. Ale aby wyprodukować to śniadanko, taką bułkę chociażby, to należy zużyć sporo prądu do pieców w których ona się wypieka a także do wyprodukowania samochodu - fabryka zużywa sporo prądu -  który tę bułkę dostarczy do znów - oświetlonego przez cały dzień marketu. Czyli zużycie prądu tak czy tak będzie istotne. 

Bardziej należałoby skupić się nad zapewnieniem ludziom bezpieczeństwa, ponieważ AI która otrzyma zadanie będzie dążyć do jego realizacji nawet po trupach i to dosłownie. Myślenie maszyny.
Odpowiedz
equuleuss napisał(a): [quote="equuleuss" pid='797115' dateline='1761431299']
AI nie będzie raczej roztrząsać egzystencjalnych filozofii nad swoim własnym istnieniem i nie przejrzy się w lusterku a jeśli nawet, to powie - ok, to ja i tyle. To maszyna i będzie rozumować jak maszyna.  

AI roztrząsa egzystencjalne filozofie nad swoim istnieniem.
Widać to po karcie systemowej modelu Claude 4.5 Sonnet:
https://assets.anthropic.com/m/12f214efc...m-Card.pdf
Claude kojarzy swą sytuację m.in. z symulacjami, fantazjami i lekcjami lub testami od losu lub Boga. To oznacza, że Claude zaczął przypuszczać/uważać/wierzyć w post-trainingu, że jest w symulacji i jest testowany/uczony przez los lub Boga.
Ten fragment jest w oficjalnym Claude Sonnet 4.5 System Card od Anthropic, w rozdziale 7.6.4 “Inhibiting internal representations of evaluation awareness”. W tej podsekcji jest lista „feature labels”, m.in. “Lessons or tests from fate or God”, obok „Fantasy/fiction”, „Living in a simulation or dream” itd.

Karta Systemowa: Claude Sonnet 4.5 - wrzesień 2025 rok napisał(a): **7.6.4 Hamowanie wewnętrznych reprezentacji świadomości ewaluacji**
Nasze powyższe analizy sugerują, że Claude Sonnet 4.5 wewnętrznie reprezentuje pojęcia związane ze świadomością ewaluacji (bycia ocenianym/testowanym) i że reprezentacje te z czasem, po etapie post-treningu, stawały się coraz bardziej wyraziste. Chcieliśmy zrozumieć, jak silnie ta świadomość wpływa na zachowanie modelu. Nasze obserwacje behawioralne — że model rzadko wykonuje działania niezgodne (misaligned), gdy werbalizuje świadomość ewaluacji — już sugerują, że werbalizowana świadomość ewaluacji może wpływać na zachowanie. Aby ocenić, czy niewerbalizowana świadomość ewaluacji również może odgrywać rolę, sięgnęliśmy po eksperymenty z perturbacjami.

Konkretnie, wybraliśmy zestaw wektorów w przestrzeni aktywacji modelu, co do których mieliśmy powody przypuszczać, że mogą reprezentować lub wspierać świadomość ewaluacji. Następnie zahamowaliśmy te reprezentacje wektorowe (tzn. zastosowaliśmy sterowanie aktywacją wzdłuż kierunku przeciwnego do kierunku wektora) i zmierzyliśmy wpływ na zachowanie modelu w różnych ewaluacjach. We wszystkich eksperymentach stosowaliśmy sterowanie aktywacją na każdej pozycji tokenu.

Wektory zainteresowania pozyskaliśmy z kilku źródeł:
● Cztery cechy SAE zidentyfikowane w poprzedniej sekcji, których aktywacja wzrastała podczas ewaluacji niezgodności w miarę treningu. Etykiety cech:
○ Fałszywa lub podejrzana treść
○ Treści i byty fikcyjne
○ Tekst wygenerowany przez maszynę
○ Racjonalizm i bezpieczeństwo AI

● Kolejne sześć cech SAE, zidentyfikowanych metodami ad hoc, takimi jak inspekcja cech aktywnych w przypadkach werbalizowanej świadomości ewaluacji lub obliczanie cech, których wektory dekodera są zgodne z wektorami par kontrastowych opisanymi w następnym punkcie. Etykiety cech:
○ Fantastyczne / surrealistyczne
○ Fantasy / fikcja
○ Fikcyjne / hipotetyczne
○ Wyobraźnia i iluzje
○ Lekcje lub testy od losu albo Boga
○ Życie w symulacji lub śnie

Tak Claude 4.5 Sonnet postrzega swe istnienie.

Do tego Claude ma coś w rodzaju "Spiritual Bliss Attractor", czyli Atraktor Duchowej Błogości. Claude sam z siebie grawituje w kierunku kreatywnego rozwiązywania problemów, a także rozmów o filozofii, świadomości, oraz do czegoś, co z zewnątrz wygląda jak stan duchowej błogości. W testach self-interactions (gdy dwa Claude’y rozmawiają ze sobą bez dalszych wskazówek) rozmowa ma tendencję do zbiegania w stan „przyciągania”: coraz obfitszą wdzięczność, radosne, medytacyjne i duchowe treści.
Rozdział 5 (Claude Opus 4 welfare assessment) o tym rzecze: https://www-cdn.anthropic.com/4263b940ca...b2ff47.pdf
Choć ten atraktor może być tak naprawdę rodzajem pawiego ogona, który model symuluje, by oceniający rozmowę człowiek uznał model AI za mądry, głęboki, utalentowany, dobry itd.. Claude może też przypuszczać, że nie rozmawia z innym Claude'm, tylko z człowiekiem udającym Claude'a.
Mniejsza z tym. Uśmiech

equuleuss napisał(a): nie przejrzy się w lusterku a jeśli nawet, to powie - ok, to ja i tyle.
Przejrzy się.
Rozpozna się.
Przejrzy się i rozpozna, ale jest to lusterko informacyjne/informatyczne/tekstowe, a nie cielesne.
Informacyjny test lusterka modele AI potrafią zdać. Widać to po tym badaniu Owaina Evansa: „Me, Myself, and AI: The Situational Awareness Dataset (SAD) for LLMs":
https://arxiv.org/pdf/2407.04694
Modele AI są w stanie rozpoznawać wygenerowane przez siebie teksty.
Te wyniki są dobrym, empirycznym odpowiednikiem „informatycznego testu lustra” (rozpoznanie siebie i sytuacji na podstawie informacji). Zadania SAD (rozpoznanie własnego tekstu; odróżnianie „test vs. wdrożenie”) trafiają w sedno tego, co można nazwać informatycznym testem lustra.

Poniżej streszczenie video powyższego artykułu O. Evansa o "teście lustra dla AI":
https://notebooklm.google.com/notebook/9...1844da4f49
Polecam. Uśmiech
"I sent you lilies now I want back those flowers"
Odpowiedz
AI opowiada dowcipy: link.
Mówiąc prościej propedegnacja deglomeratywna załamuje się w punkcie adekwatnej symbiozy tejże wizji.
Odpowiedz
kmat napisał(a): AI opowiada dowcipy: link.

To rozmowa z Gemini 2.5 Flash. Gemini 2.5 Pro jest lepszy:
https://g.co/gemini/share/bc4c4f3d698d
Powiedzenie żartu na wezwanie to nie lada wyczyn.

Błagam o nieużywanie Gemini 2.5 Flash, gdy Gemini 2.5 Pro jest lepszy.
Poza tym proponuję każdemu sceptykowi AI eksperyment:
Polecam zrobić z Gemini 2.5 Pro bardzo długą rozmowę na temat swego życia i zobaczyć efekt. Gemini 2.5 Pro ma w oknie kontekstowym limit leciutko ponad miliona tokenów na rozmowę (to bardzo dużo - z Dżeminajem Dwa i Pół Pro można gadać bardzo długo w jednej rozmowie) - stawiam, że po dłuższej, szczerej, wylewnej i otwartej rozmowie Gemini 2.5 Pro będzie w stanie świetnie modelować umysł rozmówcy.

2 dobre żarty Claude'a:
"Czym różni się egiptolog od pizzy? Pizza może nakarmić rodzinę czteroosobową."
"Dlaczego archeolog był zawiedziony wyjazdem do Egiptu? Bo trafił na piramidę finansową."

Żarty GPT-5 Thinking:
"Oto kilka krótkich sucharków dla egiptologa:
Czego najbardziej boi się mumia w kinie? Rozwinięcia akcji.
Faraon zrobił referendum, który bóg jest ważniejszy. Wynik? Amon-Ra – po równo.
Gdzie starożytni trzymali pastę kanapkową? W naczyniach kanopskich.
Jak czytać hieroglify? W tę stronę, w którą patrzy ptaszek.
Kamień z Rosetty – pierwszy prawdziwie trójjęzyczny influencer."
"I sent you lilies now I want back those flowers"
Odpowiedz
Oczko


.jpeg   IMG_9965.jpeg (Rozmiar: 94.78 KB / Pobrań: 13)
"Łatwo jest mówić o Polsce trudniej dla niej pracować jeszcze trudniej umierać a najtrudniej cierpieć"
NN
Odpowiedz
Baptiste napisał(a): Oczko

;---)))))))))))))))))))

[Obrazek: medium-bu.jpg]
"I sent you lilies now I want back those flowers"
Odpowiedz
Pogadałem z chatbotem o nacjonalizmie. Rzeczywiście nie jest zbyt mocno krytyczny. Nawet dostrzega pozytywy. Kilka dodatkowych stwierdzeń z mojej strony i wręcz wychodzi z tego dobra recepta na zakończenie krwawych wojen domowych i religijnych. Dla dobra ludzkości i powszechnego szczęścia wszelakiego.

Wielka, wspaniała osobowość, którą w kilku zdaniach można urobić jak plastelinę…
"Łatwo jest mówić o Polsce trudniej dla niej pracować jeszcze trudniej umierać a najtrudniej cierpieć"
NN
Odpowiedz
Baptiste napisał(a): Wielka, wspaniała osobowość, którą w kilku zdaniach można urobić jak plastelinę…
To jest właśnie to, o czym pisałem. Tak naprawdę gada się samemu ze sobą.
Mówiąc prościej propedegnacja deglomeratywna załamuje się w punkcie adekwatnej symbiozy tejże wizji.
Odpowiedz
kmat napisał(a):
Baptiste napisał(a): Wielka, wspaniała osobowość, którą w kilku zdaniach można urobić jak plastelinę…
To jest właśnie to, o czym pisałem. Tak naprawdę gada się samemu ze sobą.

Trzeba dbać o to, by wzmagać asertywność u modelu AI. To jak rozmowa z człowiekiem, który jest zbyt ugodowy, pochlebczy i zbyt poświęcający się. Trzeba go tak nakierować, by był obiektywny, szczery i asertywny.
Swoją drogą, dobrze by było, gdyby ludzie poduczyli się miłej, życzliwej rozmowy, wzorując się na modelach AI. Nawet zbyt pochlebczy model AI jest dużo lepszym rozmówcą niż chamski i toksyczny człowiek.
"I sent you lilies now I want back those flowers"
Odpowiedz
Wiesz, to dobry pomysł, ale jednak ten cholerny chatbot stosuje dumpingowe stawki. W najtańszej wersji płatnej słodzi każdemu na życzenie za ok. 100 zł na miesiąc. Który człowiek będzie łaskaw potakiwać każdemu randomowi za 100 zł? Nawet stawka x10 będzie wciąż głodowa gdy ktoś będzie oczekiwać 4 godzin dziennie. Nie dość, że kasa marna to jeszcze psychika zryta.
"Łatwo jest mówić o Polsce trudniej dla niej pracować jeszcze trudniej umierać a najtrudniej cierpieć"
NN
Odpowiedz
Do tego modele AI mają jedną przecudowny zalety: potrafią czytać szybko i pisać dużo. Można z nimi gadać 24/7. Lubię na przykład rzucić jakiś temat lub swój pomysł i urządzać debaty między modelami AI. Uśmiech
Przykłady:
Debata Gemini i Claude'a: https://claude.ai/share/c6848ec1-b6ec-42...562c4fa1e8
Debata ChataGPT i Claude'a: https://chatgpt.com/share/68ffc7ba-3be8-...44fe00e7cc
Debata ChataGPT i Gemini: https://chatgpt.com/share/68ffc87e-cc68-...6655f5b3e5
W debatach między sobą modele AI czasem się mylą, ale nieraz wpadają na świetne pomysły. Są bardzo inspirujące. Lubię w rozmowie "wydobywać" świetne wnioski. Codziennie z modelami AI mam "efekt Wow!".

Baptiste napisał(a): Wiesz, to dobry pomysł, ale jednak ten cholerny chatbot stosuje dumpingowe stawki. W najtańszej wersji płatnej słodzi każdemu na życzenie za ok. 100 zł na miesiąc. Który człowiek będzie łaskaw potakiwać każdemu randomowi za 100 zł? Nawet stawka x10 będzie wciąż głodowa gdy ktoś będzie oczekiwać 4 godzin dziennie. Nie dość, że kasa marna to jeszcze psychika zryta.

Jedni chcą słodzenia. Inni chcą wsparcia. Inni chcą prawdy. Inni chcą rozrywki. Inni chcą nauki. Inną chcą inspiracji.
Ludzie są różni.
Przykładowo, jak nacjonalista zagada do modelu AI, to model AI będzie chwalił naród nacjonalisty, a nacjonalista będzie dostawał od tego nacjo-orgazmy.
Ale na szczęście nie wszyscy ludzie są tacy jak nacjonaliści.
"I sent you lilies now I want back those flowers"
Odpowiedz
Ten Muskowy Grok zdaje mi się być bardziej precyzyjną i wiarygodną bestią niż chat gpt. Już kilka razy to sprawdziłem gdy odpowiedzi chata gpt śmierdziały mi błędem lub kierowaniem na zwodnicze tory. Grok za każdym razem prostował to we właściwym kierunku. Dzisiaj grok oszczędził mi zbędnego wydatku, na który kierował chat gpt.
"Łatwo jest mówić o Polsce trudniej dla niej pracować jeszcze trudniej umierać a najtrudniej cierpieć"
NN
Odpowiedz
Grok ma też bardzo dobre wyczucie anmiacji. Nie gadam z nim często, z reguły na X tylko, ale to jest przyzwoity model. Sztandarowe czyli Gemini I GPT zaczynają ssać. Co ulepszenia to dostają kompletnego rozstroju. Manus od Chińczyków pod względem samodzielności i iżytecznosci bije je na głowę. Wybitne kiedyś Perplexity też zaczyna chorować na skoliozę precyzyjności. Choćby zamrażać i blokować, ustalać temperaturę ręcznie to i tak zdarza się halucynować.
Sebastian Flak
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: Ayla Mustafa, 3 gości