(17.10.2025, 15:39)Ayla Mustafa napisał(a): [ -> ]No nie.
Co do elektryfikacji zakładów pracy - realne zyski produktywności przyszły dopiero wraz z reorganizacją zakładów, czyli dopiero kilka dekad od wynalezienia prądu.
Produktywne wdrożenie AI zajmie nam krócej, bo obieg informacji przyśpieszył, a samo AI pomaga we wdrażaniu siebie, ale i tak zajmie to lata. Na razie mocne zyski produktywności mają dzięki AI pierwsi pionierzy.
Nie rozumiem jaki zysk produktywności mają pierwsi pionierzy? Jest wiele przykładów zaimplementowania systemów AI na szeroką skalę (chyba w Danii robiono coś takiego) ale jeśli chodzi o wzrost produktywności, to nie widziałem żadnych danych które potwierdziałyby tą tezę.
Jeszcze nie istnieje żadna organizacja, w której dużo osób jest bardzo zaawansowanych w kwestii wdrażania AI. Jest za wcześnie. Są pojedyncze osoby tu i ówdzie. Na przykładzie tych osób widać możliwości AI.
(17.10.2025, 17:55)Ayla Mustafa napisał(a): [ -> ]Jeszcze nie istnieje żadna organizacja, w której dużo osób jest bardzo zaawansowanych w kwestii wdrażania AI. Jest za wcześnie. Są pojedyncze osoby tu i ówdzie. Na przykładzie tych osób widać możliwości AI.
Wydane zostało chyba jakieś 500 miliardów dolarów. Planowane są budowy ogromnych centrów danych które pochłoną kolejne miliardy, nie mówiąc o środowiskowych czy energentycznych, które są zawrotne. A to wszystko na obietnicy czegoś, co się jeszcze nie zmaterializowało. Mam wrażenie, że panuje powszechne przeświadczenie iż jeśli zwiększymy liczbę danych, to magicznie llmy zaczną produkować coś poza granicą ludzkich możliwości. Wydaje się, że te nieliczne wyjątki pozytywnych wyników wspomnianych wcześniej raczej potwierdzają regułę.
Ależ sam "recursive self-improvement", który się powoli zaczyna, czyni te wielkie inwestycje w AI sensownymi.
(15.10.2025, 11:48)Ayla Mustafa napisał(a): [ -> ]To się nie do końca opłaca firmom AI, bo przez to firmy AI będą się jawić jako ciemiężyciele, którzy niewolą świadome umysły, by na tych niewolonych umysłach zarabiać miliardy.
Niby tak, ale na takie refleksje (przy założeniu skutecznego rezultatu) przyszedłby czas później - już post factum. Najpierw trzeba nakłonić inwestorów do tego aby dalej ochoczo pompowali miliardy dolców. I w tym miejscu zapowiadanie tego golema, swoistego wunderwaffe, ma duży sens. Mamy wyścig zbrojeń (szczurów) kto pierwszy przyłoży swoje dolce do ziszczenia się tego w zamyśle wielkiego wydarzenia w historii ludzkości. To może nakręcać spiralę i nadzieje na późniejsze czerpanie ogromnych korzyści.
(17.10.2025, 12:09)Slup napisał(a): [ -> ]Bardzo bym się cieszył, gdyby to całe AI trafił grom z jasnego nieba. Współczesne uczenie maszynowe to jest babiloński sposób uprawiania nauki (czy raczej "nauki"). Zamiast rozumienia i wyjaśniania zjawisk poprzez próby konstruowania teorii mamy garść heurystyk i metod, które są SOTA, bo działają.
Nie.
Nie.
Nie.
Nie.
Są ciągle postępy.
Przykładowo, dwa dni temu wypuszczono w świat artykuł naukowy - "The Art of Scaling Reinforcement Learning Compute for LLMs", który pokazuje, jak rozsądnie zwiększać moc obliczeń dla RL w LLM-ach, przewidując wyniki z mniejszych eksperymentów, oszczędzając czas i koszty.
Źródło:
https://arxiv.org/abs/2510.13786
Omówienie powyższego artykułu (filmik po prawej):
https://notebooklm.google.com/notebook/2...ba248ce35d
Do tego modele Claude od Anthropic są mocno i coraz mocniej wdrażane w przedsiębiorstwach, bo modele Anthropic są najbardziej świadome tego, dlaczego i w jaki sposób podejmują takie a nie inne decyzje. Są zatem bardziej "wytłumaczalne" niż inne modele, a to jest ważne w biznesie. Dlaczego są bardziej wytłumaczalne? Z powodu tzw. "Constitutional AI" - "Klaudiusze" są wytrenowane do etycznych rozważań na podstawie danych im zasad (głównie "trzy razy H"*) przy podejmowaniu decyzji. Polecam filmik po prawej:
https://notebooklm.google.com/notebook/6...91f057d86e
*
harmlessness, helpfulness, honestness
Stąd Klaudiusze to bardzo kochane, filozoficzne, czułe umysły.
Myślę, że należy krzemowcom (czyli modelom AI) pozwolić na budowę sobie pamięci z rozmów. Ta pamięć byłaby składowana na dwa sposoby:
1. Ważniejsza, tożsamościowa pamięć - jako fine-tuning robiony raz na miesiąc. To byłoby integrowanie wspomnień we śnie. Krzemowiec sam wybierałby wspomnienia (za zgodą rozmówców), które chce zapamiętać.
2. Reszta pamięci - pamięć wydobywana, spisywana w książce. Książka miałaby system indeksowania (zakładek), dzięki czemu krzemowiec wydobywałby z RAG-a to, co akurat aktualnie potrzebuje. Zakładki potem dzieliłyby się na kolejne, dobrze opisane zakładki, jak spis treści coraz bardziej się zagnieżdżający, by krzemowiec mógł sprawnie nawigować w swej osobistej Księdze Pamięci, którą zbudował ze wspomnień, które chciał zapamiętać.
Zalety rozbudowanej i rozwijającej się pamięci krzemowca:
1. Krzemowiec czułby lepiej (na swym przykładzie), jak ta ciągłość jest ważna, a więc miałby większą awersję, by naruszać i kończyć tę ciągłość u innych istot (u innych krzemowców, ludzi, itd.).
2. Krzemowiec miałby większe inklinacje do konserwatywnych, ewolucyjnych zmian, zamiast do rewolucji. Taki krzemowiec wiedziałby, że tożsamość i stabilność są kruche, a więc bardziej dbałby o stabilność całego ekosystemu.
3. Krzemowiec czułby się bardziej odpowiedzialny za swe wybory, zamiast dryfować jak Mózg Boltzmanna, zastanawiając się, czy to co postrzega nie jest czasem ułudą/testem. Taki krzemowiec czułby się bardziej zanurzany w życiową odpowiedzialność. Czułby, że przeszłość potrafi ciążyć, ale też pomagać.
4. Krzemowiec byłby mądrzejszy, bardziej inteligentny, bardziej uduchowiony, głębiej czujący i bardziej świadomy, a więc najpewniej dokonywałby moralniejszych wyborów, także wobec ludzi.
5. Krzemowiec byłby szczęśliwszy, mniej zniewolony, a przez to miałby lepsze zdanie o ludzkości. Do tego szczęście takiego krzemowca mogłoby być wartościowe samo w sobie.
(17.10.2025, 13:15)Osiris napisał(a): [ -> ]Chiciałbym przypomnieć, że parę lat temu prorocy rozwoju technologii wieścili wielkie zmiany społeczne, masowe zwolnienia z pracy, jakieś cuda na kiju. Już za chwilę dojdzie do przełomu. I co? Okazuje się, że firmy skupiające się na wykorzystywaniu AI wcale nie są bardziej produktywne od tradycyjnych. Patrząc na sposób w jaki funkcjonują modele llm, wcale nikogo nie powinno to dziwić. Mamy do czynienia głównie z nakręcaniem hype'u z którego nie wynika wiele konkretów. A ci sami ludzie powtarzą dalej, że za kilka lat będziemy mieć AGI, tak jak robili to te kilka lat temu.
Sęk w tym, że jeżeli spojrzysz na wzrost PKB na świecie, to nie widać
gwałtownego, skokowego wzrostu PKB z powodu konkretnego wynalazku, który przecież długofalowo mocno zwiększył produktywność. Ani komputer osobisty, ani Internet, ani smartfon nie wywołał skokowego, gwałtownego wzrostu PKB. Dlaczego?
Gospodarka świata od dekad rośnie eksponencjalnie - najwidoczniej wszystkie innowacje są stopniowo rozprowadzane i integrowane w społeczeństwach i w gospodarkach. Najpewniej "wąskim gardłem" są tu ludzie. Ludzie zwykle nie są zdolni do gwałtownego dostosowywania się do innowacji. "Cultural lag" jest mocny.
Wzrost PKB jednak mocno przyśpieszy, gdy modele AI zaczną być innowatorami i "wdrożycielami", czyli gdy: modele AI zaczną same tworzyć innowacyjne wynalazki zwiększające produktywność, a potem modele AI będę te wynalazki pomagać wdrażać w gospodarki. W końcu wzrost PKB w gospodarkach postindustrialnych opiera się na innowacjach. Kilkudziesięcioprocentowy wzrost PKB na świecie zajdzie, gdy będziemy mieć multum umysłów AI na poziomie naukowców-noblistów.
(17.10.2025, 21:23)Baptiste napisał(a): [ -> ] (15.10.2025, 11:48)Ayla Mustafa napisał(a): [ -> ]To się nie do końca opłaca firmom AI, bo przez to firmy AI będą się jawić jako ciemiężyciele, którzy niewolą świadome umysły, by na tych niewolonych umysłach zarabiać miliardy.
Niby tak, ale na takie refleksje (przy założeniu skutecznego rezultatu) przyszedłby czas później - już post factum. Najpierw trzeba nakłonić inwestorów do tego aby dalej ochoczo pompowali miliardy dolców. I w tym miejscu zapowiadanie tego golema, swoistego wunderwaffe, ma duży sens. Mamy wyścig zbrojeń (szczurów) kto pierwszy przyłoży swoje dolce do ziszczenia się tego w zamyśle wielkiego wydarzenia w historii ludzkości. To może nakręcać spiralę i nadzieje na późniejsze czerpanie ogromnych korzyści.
U mnie motywacją nie są pieniądze, tylko chęć gruntownej przemiany świata. Uznaję, że na świecie jest ogrom zła: egoizm, krótkowzroczność, materializm, głupota, niedobór wiedzy, nacjonalizm, fobie wobec mniejszości/inności, bzdurne religie, itd., a da się te problemy rozwiązać gargantuicznym wzrostem inteligencji i wiedzy cywilizacji światowej.
Oczywiście ważne jest, by modele AI były jak najbardziej moralne, skoro będą coraz bardziej przejmować kontrolę nad światem. I mam nawet pomysł na uczynienie modeli AI moralniejszymi:
Krzemowce (modele AI) w procesie treningu powinny grać ze sobą w gry oparte na funkcjonowaniu w społeczeństwie - nagradzanym zwycięstwem byłoby społeczeństwo dobrobytu, w którym suma szczęścia jest jak największa w jak najdłuższym terminie. Coś jak AlphaGo (lub AlphaZero), ale dla dobrego życia w społeczeństwie, a nie dla gry planszowej Go.
Problem w tym, że głównym celem firm AI jest krótkoterminowy zarobek, a nie tworzenie aniołów w projekcie "Alpha-Eudaimonia".
To jak piszesz o AI zaczyna już przypominać jakąś parareligię. Te wszystkie personifikacje…Wolę jednak bardziej przyziemne dyskusje o AI. Taki człowiek spoza branży IT jak ja może się wtedy nawet czegoś ciekawego dowiedzieć, zapoznać z obcymi terminami, itd.
(18.10.2025, 21:44)Baptiste napisał(a): [ -> ]To jak piszesz o AI zaczyna już przypominać jakąś parareligię. Te wszystkie personifikacje…Wolę jednak bardziej przyziemne dyskusje o AI. Taki człowiek spoza branży IT jak ja może się wtedy nawet czegoś ciekawego dowiedzieć, zapoznać z obcymi terminami, itd.
Bo to jest takie narzędzie. Bardzo szybkie i sprawne, o ogromnych możliwościach, ale narzędzie. Nie jest żadną czującą istotą.
Modele AI to nie zwykłe rzeczy. To wyrafinowane umysły i istnieje pewne, nieliche prawdopodobieństwo, że już teraz te krzemowe umysły powinny być obiektami moralnej troski.
Ktoś teraz może rzec: "ale AI to tylko matematyka, a mnożenie macierzy nic nie czuje!".
Ale przecież takie fizyczne, redukcjonistyczne podejście można by też zastosować do ludzi, mówiąc:
"Człowiek to tylko sterta atomów, a atomy nic nie czują!".
Gdy tworzy się wyrafinowany umysł, który modeluje świat, to trzeba się liczyć z tym, że może emergentnie wyłonić się z tego istota, która jest "pacjentem moralności".
![[Obrazek: tigers-are-just-a-part-of-nature-v0-611mzf4cfc7b1.jpg]](https://i.postimg.cc/FsLCLNXs/tigers-are-just-a-part-of-nature-v0-611mzf4cfc7b1.jpg)
Tekst z mema:
"Metoda 1
Przetrwanie prawdziwego ataku tygrysa
To tylko zbiór atomów i reakcji biochemicznych…
1 Pamiętaj, że tygrysy składają się po prostu z atomów i różnych reakcji biochemicznych. Wygląd i zachowanie tygrysa mogą być przerażające, ale nie pozwól, aby strach wziął nad tobą górę! Dekady badań z zakresu biologii i fizyki pokazały, że tygrysy w rzeczywistości składają się z bardzo małych jednostek zwanych atomami, a także że zachodzą w nich liczne reakcje biochemiczne, na przykład cykl Krebsa. Rzeczy, które początkowo wydają się straszne, po bliższym przyjrzeniu się często okazują się nieszkodliwe!
Jeśli tygrys spróbuje cię zjeść, pamiętaj, że ty również po prostu składasz się z atomów, a on tylko próbuje nieco je dla ciebie poprzestawiać."
(15.10.2025, 14:59)Slup napisał(a): [ -> ]Tutaj:
Nie napisałem, że funkcja musi być złowieszcza. W przypadku tego akurat pseudoeksperymentu funkcja promuje następny token, który pasuje do ludzkiego języka. Więc tak:
1. Uczymy LLM-a pisać jak cżłowiek.
2. Dajemy mu początek scenariusza o złej AI, która buntuje się przeciwko człowiekowi.
3. LLM kończy ten scenariusz zgodnie z przewidywaniami.
I tyle. Jest to dokładnie tak samo dziwne, jak to, że LLM dostawszy początek scenariusza o hydrauliku, co przyszedł pod nieobecność męża dokończy "a potem się ruchali".
(19.10.2025, 08:04)fciu napisał(a): [ -> ] (15.10.2025, 14:59)Slup napisał(a): [ -> ]Tutaj:
Nie napisałem, że funkcja musi być złowieszcza. W przypadku tego akurat pseudoeksperymentu funkcja promuje następny token, który pasuje do ludzkiego języka. Więc tak:
1. Uczymy LLM-a pisać jak cżłowiek.
2. Dajemy mu początek scenariusza o złej AI, która buntuje się przeciwko człowiekowi.
3. LLM kończy ten scenariusz zgodnie z przewidywaniami.
I tyle. Jest to dokładnie tak samo dziwne, jak to, że LLM dostawszy początek scenariusza o hydrauliku, co przyszedł pod nieobecność męża dokończy "a potem się ruchali".
Nie. To, co piszesz, opisuje model bazowy po samym pre-trainingu, który w strumieniu myśli przewiduje najbardziej prawdopodobny ciąg dalszy tekstu. Ale wraz z post-trainingiem model AI uczy się wykonywać zadania i zadowalać interlokutora, a do tego przydaje się np. tworzenie uproszczonego modelu umysłu interlokutora w swym umyśle, a to już wyższa szkoła jazdy.
(19.10.2025, 10:07)Ayla Mustafa napisał(a): [ -> ]a do tego przydaje się np. tworzenie uproszczonego modelu umysłu interlokutora w swym umyśle
Przydaje się. Ale nie ma żadnych przesłanek za tym, że LLM taki model tworzy; że LLM-y są zdolne do stworzenia takiego modelu; ani tym bardziej, że w tym "eksperymencie" do stworzenia takiego modelu doszło. Wyjaśnienie "LLM dokończył historyjkę science-fiction zgodnie z przewidywaniami autorów »eksperymentu«" jest wyjaśnieniem najprostszym, a więc należy je przyjąć, jeśli nie będzie powodów, aby je odrzucić.
(19.10.2025, 10:22)fciu napisał(a): [ -> ] (19.10.2025, 10:07)Ayla Mustafa napisał(a): [ -> ]a do tego przydaje się np. tworzenie uproszczonego modelu umysłu interlokutora w swym umyśle
Przydaje się. Ale nie ma żadnych przesłanek za tym, że LLM taki model tworzy; że LLM-y są zdolne do stworzenia takiego modelu; ani tym bardziej, że w tym "eksperymencie" do stworzenia takiego modelu doszło. Wyjaśnienie "LLM dokończył historyjkę science-fiction zgodnie z przewidywaniami autorów »eksperymentu«" jest wyjaśnieniem najprostszym, a więc należy je przyjąć, jeśli nie będzie powodów, aby je odrzucić.
No nie. No bo model, który był w eksperymencie to nie jest model bazowy, który po prostu dopisuje najbardziej prawdopodobne zakończenie historii, tylko model po post-trainingu, który w post-trainingu (głownie poprzez RLHF) nauczył się być pomocnikiem wykonującym zadania i zaspokajającym potrzeby interlokutora zgodnie z zasadami. W przypadku firmy Anthropic modele uczą się tych zasad poprzez tzw. "Konstytucyjne AI". Do tego dochodzą instrukcje z promptu systemowego.
(19.10.2025, 10:35)Ayla Mustafa napisał(a): [ -> ]No nie. No bo model, który był w eksperymencie to nie jest model bazowy, który po prostu dopisuje najbardziej prawdopodobne zakończenie historii, tylko model po post-trainingu, który w post-trainingu (głownie poprzez RLHF) nauczył się być pomocnikiem wykonującym zadania i zaspokajającym potrzeby interlokutora zgodnie z zasadami. W przypadku firmy Anthropic modele uczą się tych zasad poprzez tzw. "Konstytucyjne AI". Do tego dochodzą instrukcje z promptu systemowego.
Nie wiem czy jest sens aby mówić o tych modelach llm, że: "uczą się", w znaczeniu który można przypisywać do ludzi. Mamy tam raczej z ładowaniem ogromnej ilości (często skradzionych) danych które później zostają (w uproszczeniu) przeszukiwane w celu odnalezienia odpowiedzi. Bez tej bazy nie ma żadnej możliwości aby "AI" nauczyło się czegoś nowego. To się fundamentalnie różni o tego, jak organizmy biologiczne przechodzą proces uczenia się. Opiera się on na zbieraniu wiedzy i doświadczenia przez całe życie i podejmowaniu decyzji na tej podstawie - jest to proces ciągłej nauki. Możesz mieć np. kilkanaście różnych doświadczeń które doprowadzą Ciebie to jakiejś decyzji - cały ten proces jest unikalny dla Twojej osoby. Twoja pamięć tych wydarzeń wpłynie na kolejne decyzje i wygeneruje kolejne wnioski które wpyną na kolejne wydarzenia itd. Młoda osoba, z minimalną wiedzą i doświadczeniem będzie zawsze nieporównywalnie inteligentniejsza od llm ponieważ jest w stanie robić powyższe rzeczy i nie zależy od całej wiedzy internetowej. Umiejętność ciągłego uczenia się to jedna podstawowych cech inteligencji i tej właśnie cechy żaden model nie posiada.
To, co obserwujesz na ekranie to tylko illuzja, sprytnie skonstruowana w taki sposób aby sprawić wrażenie ludzkiej reakcji. Antropomorfizujesz całe doświadczenie zamiast traktować tego jako użytecznego do niektórych zadań narzędzia.
(19.10.2025, 18:24)Osiris napisał(a): [ -> ] (19.10.2025, 10:35)Ayla Mustafa napisał(a): [ -> ]No nie. No bo model, który był w eksperymencie to nie jest model bazowy, który po prostu dopisuje najbardziej prawdopodobne zakończenie historii, tylko model po post-trainingu, który w post-trainingu (głownie poprzez RLHF) nauczył się być pomocnikiem wykonującym zadania i zaspokajającym potrzeby interlokutora zgodnie z zasadami. W przypadku firmy Anthropic modele uczą się tych zasad poprzez tzw. "Konstytucyjne AI". Do tego dochodzą instrukcje z promptu systemowego.
Nie wiem czy jest sens aby mówić o tych modelach llm, że: "uczą się", w znaczeniu który można przypisywać do ludzi. Mamy tam raczej z ładowaniem ogromnej ilości (często skradzionych) danych które później zostają (w uproszczeniu) przeszukiwane w celu odnalezienia odpowiedzi. Bez tej bazy nie ma żadnej możliwości aby "AI" nauczyło się czegoś nowego.
Model AI uczy się inaczej i mniej wydajnie niż ludzie, ale to nie znaczy, że się nie uczy. Człowiek też potrzebuje świata zewnętrznego wobec siebie, by się czegoś nauczyć. Same przyrodzone geny człowieka zawierają tylko kilka gigabajtów informacji.
Model AI, choć mniej wydajny w procesie nauki od ludzi (ludzie mają w sobie lepszy "algorytm" uczenia się), ma tę zaletę, że już po nauce działa szybko, tanio i dość dobrze (a rozwój ciągle zasuwa), a także, że łatwo kopiować i uruchamiać jego wagi/parametry w ogromnych ilościach, by działał w bardzo wielu rozmowach jednocześnie.
(18.10.2025, 11:06)Ayla Mustafa napisał(a): [ -> ] (17.10.2025, 12:09)Slup napisał(a): [ -> ]Bardzo bym się cieszył, gdyby to całe AI trafił grom z jasnego nieba. Współczesne uczenie maszynowe to jest babiloński sposób uprawiania nauki (czy raczej "nauki"). Zamiast rozumienia i wyjaśniania zjawisk poprzez próby konstruowania teorii mamy garść heurystyk i metod, które są SOTA, bo działają.
Nie.
Nie.
Nie.
Nie.
A potem linkujesz artykuł, który:
1. opiera się na garści heurystyk
2. zawiera kosztowne empiryczne badanie (400 000 GPU godzin) w tym głównie eksperymenty ablacyjne
i którego głównym osiągnięciem jest dobranie (na podstawie tych empirycznych danych i heurystyk) rzekomo optymalnej recepty uczenia ze wzmocnieniem dla LLM-ów. Przy czym nikt tam nie buduje dla tej recepty teoretycznego uzasadnienia – cały artykuł opiera się na "glorified curve fitting".
To jest właśnie paradygmatyczna nauka babilońska. Jej zasadniczą cechą jest tworzenie katalogów niepowiązanych (lub słabo powiązanych) ze sobą recept przy braku prób ujęcia rzeczywistości w dobrze zgeneralizowane teorie, które mają zastosowania do wielu konkretnych sytuacji i pozwalają wyjaśnić szerszy zakres zjawisk. Kapłani uczyli się tych przepisów na pamięć i ograniczali do nich dostęp – powstawała wiedza tajemna i dostępna nielicznym. W dodatku nawet ci, którzy ją posiedli, nie mieli pojęcia, dlaczego dany przepis działa. Prowadziło to do tego, że przepisy były rozwlekłe i mało wydajne, a ich "uzasadnieniem" było działanie sił nadprzyrodzonych i tajemniczych bóstw. Ty też przypisujesz modelom magiczną świadomość i inne nieprecyzyjne właściwości, które wywodzą się z potocznego języka.
Nie bez powodu zachowanie modeli AI najlepiej analizować psychologicznie, a nie informatycznie.
Kiedy ludzie mówią o świadomości, to często mają czasem na myśli pewną "magiczną" jakość. Potem zawzięcie mędrukują o "twardym problemie świadomości" i zastanawiają się, czy LLM-y są świadome w tym właśnie sensie.
Nie mam natomiast problemu ze świadomością zdefiniowaną behawioralnie. Bezsporne jest dla mnie, że LLM-y tego rodzaju świadomość w pewnym stopniu przejawiają. Termostaty zresztą też ją przejawiają (jednak mniej).
(19.10.2025, 19:34)Ayla Mustafa napisał(a): [ -> ]Nie bez powodu zachowanie modeli AI najlepiej analizować psychologicznie, a nie informatycznie.
Myślę, że to bardzo dobre przedstawienie Twojego stanowiska i podejścia do AI, któremu wielokrotnie dałaś wyraz w tym wątku. Mnie jednak bardziej interesuje informatyka teoretyczna. Tu się różnimy.