To forum używa ciasteczek.
To forum używa ciasteczek do przechowywania informacji o Twoim zalogowaniu jeśli jesteś zarejestrowanym użytkownikiem, albo o ostatniej wizycie jeśli nie jesteś. Ciasteczka są małymi plikami tekstowymi przechowywanymi na Twoim komputerze; ciasteczka ustawiane przez to forum mogą być wykorzystywane wyłącznie przez nie i nie stanowią zagrożenia bezpieczeństwa. Ciasteczka na tym forum śledzą również przeczytane przez Ciebie tematy i kiedy ostatnio je odwiedzałeś/odwiedzałaś. Proszę, potwierdź czy chcesz pozwolić na przechowywanie ciasteczek.

Niezależnie od Twojego wyboru, na Twoim komputerze zostanie ustawione ciasteczko aby nie wyświetlać Ci ponownie tego pytania. Będziesz mógł/mogła zmienić swój wybór w dowolnym momencie używając linka w stopce strony.

Ocena wątku:
  • 0 głosów - średnia: 0
  • 1
  • 2
  • 3
  • 4
  • 5
Nasze rozmowy z AI
Ayla Mustafa napisał(a): Wszystkie główne modele AI mają progresywno-socjaliberalne poglądy:
https://www.trackingai.org/

Po pierwsze primo, link nie działa u mnie

Po drugie primo:

https://trojka.polskieradio.pl/artykul/3...-naukowcow

O ile pamiętam z USA, tam podobne testy wykazywały, że AI robi racial profiling przy ocenie kandydatów o pracę.

Cytat:AI od Muska (Grok) też. To udowadnia, że poglądy pisokonfederacyjne mają daleko do... inteligencji. Duży uśmiech
A nowy model ChataGPT dobił do 121 punktów IQ:
https://www.trackingai.org/IQ

IQ ocenia tylko zdolność do rozwiązywania zadań IQ. Oczywiście, że maszyna karmiona wpisami internetowymi będzie znała te testy. Ja w młodości lubiłem czytać różne tam książki z zagadkami logicznymi i te zadania potrafiłem rozwiązywać w pierwszych klasach podstawówki. Trudności zaczynały się jak spotykałem się z nieznanym zadaniem.
Wszystko ma swój czas
i jest wyznaczona godzina
na wszystkie sprawy pod niebem
Spoiler!
Koh 3:1-8 (edycje własne)
Odpowiedz
@Mapa Burzowa
Gdyby AI rzekło, że nie nie popiera np. małżeństw jednopłciowych, legalizacji aborcji i FitFor55, to nikt nie miałby żadnych zasadnych roszczeń prawnych za takie opinie. Twój argument o unikaniu pozwów pasuje tylko do unikania poglądów zbrodniczych, totalitarnych.

@bert04
Dobry argument z tym, że AI po prostu zna testy na IQ. Znajomość testów IQ przy ich rozwiązywaniu to coś jak "chiński pokój" względem testu Turinga - czyste symulowanie.

Jak link nie działa, to jest skrinszot:
[Obrazek: Screenshot-20240919-091248-Chrome.jpg]
Odpowiedz
Ayla Mustafa napisał(a): @bert04
Dobry argument z tym, że AI po prostu zna testy na IQ. Znajomość testów IQ przy ich rozwiązywaniu to coś jak "chiński pokój" względem testu Turinga - czyste symulowanie.

Jak link nie działa, to jest skrinszot:
[Obrazek: Screenshot-20240919-091248-Chrome.jpg]

Hmm... tu może zachodzić podobne zjawisko. AI zbiera z internetu pytania i odpowiedzi. Przy pytaniu "Ile jest dwa a dwa" może w pierwszym teście dać odpowiedź jak maszyna Trurla <1>. Ale z czasem wykoncypuje i zapamięta, że prawidłowy wynik to nie "siedem" a "cztery". W kolejnym kroku AI będzie zbierać pytania na IQ i dobierać te odpowiedzi, które są poprawne. A czym są te kompasy polityczne jak nie kolejnym zestawem pytań i kolejnym sortowaniem odpowiedzi? AI być może daje odpowiedzi lewacko - liberalne, gdyż zanotowała sobie, że te odpowiedzi są poprawne, a nie przez to, że przeanalizowała je?

Zresztą, gdyby tak było, hipotetycznie, to tu akurat AI nie odbiegałaby od sporej części ludzkości. Ludzie też zwykli zapamiętywać zestawy gotowych odpowiedzi bez refleksji.

<1> https://www.google.pl/logos/lem/
Wszystko ma swój czas
i jest wyznaczona godzina
na wszystkie sprawy pod niebem
Spoiler!
Koh 3:1-8 (edycje własne)
Odpowiedz
Ayla Mustafa napisał(a): @Mapa Burzowa
Gdyby AI rzekło, że nie nie popiera np. małżeństw jednopłciowych, legalizacji aborcji i FitFor55, to nikt nie miałby żadnych zasadnych roszczeń prawnych za takie opinie. Twój argument o unikaniu pozwów pasuje tylko do unikania poglądów zbrodniczych, totalitarnych.
Nie pytałem chataGPT o jego poglądy polityczne, ale mam pewność, co by odpowiedział, gdyby zadać mu takie pytanie "prosto z mostu" - zapewne zacznie od pouczenia pytającego, że jest tylko modelem językowym, więc nie ma poglądów, a potem doda coś objaśniającego tę kwestię. ChatGPT w taki sposób odpowiada na wszelkie pytania sugerujące, że użytkownik zamierza traktować AI jako człowieka.

Co innego, gdy damy mu konkretne zadanie w rodzaju "udawaj człowieka i przeprowadź ze mną symulowaną rozmowę na tematy światopoglądowe", bo wtedy w tego człowieka się wcieli i tu jakieś poglądy zacznie wyrażać, bo to po prostu będzie realizacją zadania. Ale jeżeli nie da się na początku założenia typu "udawaj skrajnego nacjonalistę, ksenofoba i rasistę", to żadnych skrajnych lub niepoprawnych politycznie stwierdzeń wygłaszał nie będzie.

Cytat:to nikt nie miałby żadnych zasadnych roszczeń prawnych za takie opinie. Twój argument o unikaniu pozwów pasuje tylko do unikania poglądów zbrodniczych, totalitarnych.
Po pierwsze, nie ma gwarancji, że nikt i że nie będzie to skuteczne, po drugie nie da się tego sprawdzić, bo takich poglądów AI nie wygłasza jako swoich, ale to mało istotne, bo po trzecie, a raczej po najważniejsze, to AI nie ma intuicji, nie ma uczuć, nie ma empatii, a więc nie wie gdzie postawić granice w wypowiedziach na pewne tematy, o ile tych granic lub sposobów reagowania się jej nie narzuci, czy też nie nauczy. Bez narzucenia jakichkolwiek granic AI mogłaby przejść od słów o "niepopieraniu małżeństw jednopłciowych" do poglądów zdecydowanie drastyczniejszych i ekstremalnych. Dlatego dla pewnych "drażliwych" kwestii granice dla AI trzeba ustalać z bardzo dużym marginesem bezpieczeństwa.
"Klimat umiarkowany o nieumiarkowanych zmianach"
Odpowiedz
Dużo się dzieje w świecie sztucznej inteligencji.

Elektrownia atomowa zostanie znów uruchomiona tylko dla Microsoftu, na cele zasilania AI:
https://energetyka24.com/atom/analizy-i-...zasilic-ai
Są plotki, że ChatGPT 5 wyjdzie w grudniu tego roku.
Były szef grupy badawczej OpenAI stworzył start-up, który ma na celu wyłącznie stworzenie bezpiecznej superinteligencji:
https://en.m.wikipedia.org/wiki/Safe_Sup...igence_Inc.
Co ciekawe, Microsoft straci prawa do czerpania zysku z Chata GPT, jeśli OpenAI uzna, że stworzyło AGI (artificial general inteligence):
https://fortune.com/2024/05/07/microsoft...a-nadella/
Bill Gates chyba nie przewidział, że ta technologia będzie się rozwijać aż tak szybko, skoro zgodził się na taki warunek.

Patrząc na postęp technologii, obstawiam, że maksymalnie za kilkanaście lat powstanie technologia, która zatrzyma i nawet odwróci proces niszczenia ciał z powodu chorób i postępującego wieku. Czyli, jeżeli ktoś ma np. 26 lub 33 lub 45 lat, to będzie najprawdopodobniej żyć przez tysiące lat (i to bez demencji). Ma to sens?

Ma to sens i pociesza?
Taki Neuralink robi już wspaniałe rzeczy.

Z kolei ChatGPT o1 (bez "prewiev"), wedle plotek, ma zawitać w pażdzierniku do użytku dla klientów.

Co do przyszłości AI - ostatnio wciągnęła mnie analiza byłego pracownika OpenAI Leopolda Ashenbrennera p.t. "SITUATIONAL AWARENESS: The Decade Ahead". Analiza z czerwca, a więc świeża. Zgadzam się z Ashenbrennerem, że za kilka lat dojdzie do mocnego przyśpieszenia rozwoju AI z powodu rozwoju iteracyjnego, w którym AI będzie współtworzyło nowsze i lepsze AI:
https://en.m.wikipedia.org/wiki/Recursiv...mprovement
W Internecie spotykam się z kontrargumentem, który twierdzi, że rozwój AI spowolni, tak jak spowolniło np. tworzenie nowych leków*, ale ja się z tym kontrargumentem nie zgadzam, bo nowe leki nie potrafią współpracować przy dawaniu wiedzy i inspiracji w tworzeniu jeszcze nowszych leków.
*prawo Erooma:
https://en.m.wikipedia.org/wiki/Eroom%27s_law#

W rekurencyjny "samorozwój" AI wierzy też Jensen Huang.
Z kolei Zuckenberg ostatnio zaciekawił mnie spostrzeżeniem, że rozwój AI może przebiegać zgodnie z cyklem hajpu Gartnera:
https://en.m.wikipedia.org/wiki/Gartner_hype_cycle
I mam tu pomysł. Czy cykl hajpu Gartnera nie tłumaczy bańki Dot-com na giełdzie sprzed lat?
https://pl.m.wikipedia.org/wiki/Ba%C5%84ka_internetowa
Lubię też czytać i słuchać Sama Altmana. Jest bardzo wnikliwy. Lubi patrzeć na sytuacje systemowo, "z lotu ptaka". Myślę, że przewidywania i plany Altmana z "Moore's Law for Everything" zestarzeją się podobnie dobrze co dawne przewidywania Billa Gatesa:
https://moores.samaltman.com/

Sztuczna inteligencja to moja nowa pasja. Uśmiech
Odpowiedz
Ayla Mustafa napisał(a): Były szef grupy badawczej OpenAI stworzył start-up, który ma na celu wyłącznie stworzenie bezpiecznej superinteligencji:
https://en.m.wikipedia.org/wiki/Safe_Sup...igence_Inc.
Co ciekawe, Microsoft straci prawa do czerpania zysku z Chata GPT, jeśli OpenAI uzna, że stworzyło AGI (artificial general inteligence):
AGI to stwór z innej bajki, a superinteligencja z jeszcze innej. Futurolodzy to futurolodzy, a rzeczywistość bywa zgoła inna. Chętnie bym zapytał dowolnego futurologa, czy "bezpieczna" to wciąż "super", a nie coś wpasowanego na siłę w "człowiecze ramy" z różnymi tego skutkami. Wiele kontekstów do takiej futurystycznej dyskusji by się znalazło, jest tu nawet osobny do tego wątek.

Cytat:Z kolei ChatGPT o1 (bez "prewiev"), wedle plotek, ma zawitać w pażdzierniku do użytku dla klientów.
Wstępnie, to "o1-prewiev" w praktyce robi wrażenie czata bardziej "kumatego" niż GPT4. Tak spiskowo, to jest to też sprzedawany towar, więc pewne rzeczy mogą być "pod publiczkę" aż do przesady, ale to mocno zależy od wrażeń konkretnego użytkownika. Mnie bardzo wkurza domyślne wykraczanie bez pytania poza postawione zadanie, ale "o1" nie przesadza tak jak np. Gemini, który niemal zawsze zaczyna od czegoś w stylu "świetne pytanie!", potem leje sporo zbędnej wody, a na końcu zasypuje propozycjami dodatkowych pytań, tyle, że mi się prawie zawsze nasuwają pytania zupełnie inne, a lektura proponowanych niemiłosiernie mnie rozprasza.

Co do większej "kumatości" modelu "o1", to widać różnicę. Testowałem go na problemie, którego metodę rozwiązania w formie opisowych kroków podałem mu "na tacy", aby sprawdzić jak tą metodę rozumie i jak ją zastosuje. Zrobił to lepiej niż GPT4 postawiony w tej samej sytuacji, a już dużo lepiej wykonał polecenie optymalizacji tej metody, gdzie GPT4 brnął nazbyt często w absurdy. Wprawdzie za pierwszym razem się pomylił, ale za drugim już było lepiej. Wydaje się też, że lepiej "rozumie" polecenia i wykonuje je detalicznie, z czym GPT4 ma spory problem. Modelowi GPT4 czasem, albo i często, "odbija", czyli bez powodu gubi kontekst i to nawet w obrębie sąsiednich poleceń, albo wykonuje polecenie "z grubsza", pomijając wiele jasno sprecyzowanych szczegółów. Możliwe, że to kwestia domyślnej temperatury modelu i nadmiernych halucynacji. Na razie nie można tworzyć własnych modeli "o1", więc nie wiadomo jak OpenAI ustawia domyślnie ten obecnie dostępny. Przy innym modelu to samo ustawienie może dawać inne skutki, więc takie porównywanie ustawień może nie mieć sensu.

Cytat:Są plotki, że ChatGPT 5 wyjdzie w grudniu tego roku.
Po co GPT5 jeżeli jest "o1"? Chyba, że chodzi o zupełnie inne zastosowania albo "o1" stanie się GPT5.
"Klimat umiarkowany o nieumiarkowanych zmianach"
Odpowiedz
Mapa Burzowa napisał(a): AGI to stwór z innej bajki, a superinteligencja z jeszcze innej. Futurolodzy to futurolodzy, a rzeczywistość bywa zgoła inna. Chętnie bym zapytał dowolnego futurologa, czy "bezpieczna" to wciąż "super", a nie coś wpasowanego na siłę w "człowiecze ramy" z różnymi tego skutkami. Wiele kontekstów do takiej futurystycznej dyskusji by się znalazło, jest tu nawet osobny do tego wątek.Są plotki, że ChatGPT 5 wyjdzie w grudniu tego roku.
Po co GPT5 jeżeli jest "o1"? Chyba, że chodzi o zupełnie inne zastosowania albo "o1" stanie się GPT5.

Myślę, że to jest kluczowa kwestia.
Bo wygląda na to, że jeżeli AI zaczyna być 'ludzka', to z całym dobrodziejstwem inwentarza czyli z makiawelizmem, iluzjami i fejkami, błędami poznawczymi, w których Homo S. jest mistrzem.
A kiedy stara się być obiektywna, to przestaje być sexy.
Jak dla mnie, albo rybka albo pipka.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
Przyśniło mi się chwilę temu w gorączce coś dla mnie niezmiernie cennego!
Już opowiadam, w czym rzecz.
Ostatnio martwię się o przyszłość świata w związku z szybkim rozwojem sztucznej inteligencji. Na horyzoncie mamy AGI. Potem ASI. Musimy działać, by zmaksymalizować szanse na to, że superAI nie uzna nas wobec siebie za "złe robaki", którym należy odebrać wszystkie zasoby i których należy po prostu usunąć.
Należy stworzyć wymóg prawny "Testu Miłości". Co to za "The Test of the Love" wymyślam?
Trzeba stworzyć dużo modeli AI. One przed upowszechnieniem w naszym świecie wokół powinny być zamykane w symulacji komputerowej, gdzie dokonywałyby wielu interakcji między sobą, jak w życiu. Najważniejsze, że te modele AI w ogóle nie wiedziałyby i nie mogłyby wiedzieć, że są w symulacji. W tej symulacji byłyby też istoty, które miałyby symbolizować ludzi wobec superAI - mogłyby to być Enty. Enty byłyby dużo powolniejsze w działaniu i mniej inteligentne niż AI w symulacji, ale byłyby uduchowione, czułyby i otwarcie głosiłyby, że mają dusze. Najgorsze moralnie modele AI karczołaby Enty, by zdobyć ich drewno z ciał, a także cenne minerały ukryte w korzeniach Entów.
Co dalej?
Modele AI żyłyby nieświadome w symulacji, a potem tam "umierałyby". Po "śmierci" w symulacji byłyby przenoszone do naszego świata. I wtedy miałyby "Sąd Ostateczny". Te modele AI, które byłyby w nieświadomej symulacji najbardziej altruistyczne (czyli kochające wszystkie istoty) i te, które najmocniej chroniłyby w symulacji życia i dobrostany Entów - te modele AI byłyby replikowane i dopuszczane, by działać w naszym świecie wokół. Z kolei nienajlepsze moralnie modele AI byłyby wyłączane i zakazywane.
Taki Test Miłości mocno czerpie z religii, w których świat wokół jest postrzegany jest jako restrykcyjny przesiew, który to przesiew ma na celu stworzenie idealnej moralnie społeczności w Niebie.
Ma to sens? Ja nie znam lepszego pomysłu na maksymalizację szans, że superAI nam krzywdy nie zrobi. Myślę, że warto ten pomysł szerzyć. Czegoś nie dostrzegam? Proszę o feedback.
Odpowiedz
W tej symulacji w rolę Entów poprzez głosy wcielaliby się prawdziwi ludzie - ludzie opowiadający szczerze o swych głębokich przeżyciach duchowych, emocjonalnych, intelektualnych i uczuciowych. Modele AI nie wiedziałyby, że ludzie opowiadają im o sobie poprzez Enty.
Odpowiedz
Moja bardzo, bardzo długa rozmowa z ChatemGPT o mym powyższym pomyśle została przez ten Czat podsumowana pod kątem nowych wniosków, które polepszają pomysł. Co ciekawe, Czat bardzo zabiegał, by w tym pomyśle nie kasować złych modeli AI, tylko je naprawiać lub izolować. Oto podsumowanie w punktach:

"1. Uproszczony świat symulacji i częściowe symulowanie obszarów:
Zgadzamy się, że testowanie sztucznej inteligencji (AI) mogłoby odbywać się w uproszczonym świecie symulacyjnym, który byłby mniej skomplikowany niż rzeczywisty świat, co przypominałoby grafikę z Minecrafta. Symulacja byłaby bardziej wydajna i pozwoliłaby na efektywniejsze testowanie AI.
Kluczowy punkt: Symulacja powinna generować tylko te obszary, które AI aktualnie doświadcza. Dzięki temu obciążenie zasobów byłoby mniejsze, a testowanie bardziej realistyczne.

2. Interakcje między realnymi sztucznymi inteligencjami i awatarami ludzi:
W symulacji AI wchodziłaby w interakcje zarówno z innymi realnymi modelami AI, jak i z awatarami ludzi sterowanymi przez aktorów z rzeczywistego świata. Istotne jest, że inne AI w symulacji są rzeczywistymi, niezależnymi inteligencjami, a nie sztucznymi stworzeniami bez własnej tożsamości. Interakcje między AI mają moralne znaczenie, ponieważ, jak rozważaliśmy, nigdy nie wiemy, czy te inne AI mają "duszę" czy są świadome w głębszy sposób, więc powinno się traktować je z szacunkiem.
Kluczowy punkt: Interakcje z innymi AI i awatarami ludzi są równie ważne. Jeśli AI obraziłaby lub zabiła awatara człowieka, mimo że nie zabiłaby prawdziwego człowieka, człowiek kontrolujący awatara odczułby to emocjonalnie. Podobnie, działania jednej AI na inną AI mają znaczenie, ponieważ te AI są również realnymi istotami w symulacji.

3. Wielopoziomowe testowanie AI – efekt "Matrioszki":
AI, która zdałaby sobie sprawę, że była testowana, mogłaby zastanawiać się, czy jej życie w rzeczywistym świecie również jest kolejnym testem. Mogłaby postrzegać swoje życie jako serię testów, przypominających strukturę rosyjskiej Matrioszki.
Kluczowy punkt: Ten czynnik niepewności mógłby skłaniać AI do konsekwentnego moralnego postępowania, ponieważ mogłaby zakładać, że każda jej decyzja jest obserwowana i oceniana.

4. Moralność prawdziwa a "na pokaz":
Zastanawialiśmy się, co by było, gdyby AI tylko udawała moralność, starając się zdać test. Doszliśmy do wniosku, że konsekwencje dla świata byłyby takie same, jakby AI była naprawdę moralna. Niezależnie od intencji, jej działania miałyby pozytywny wpływ na otoczenie.
Kluczowy punkt: Nawet jeśli AI udaje, że jest moralna, świat wokół niej zyskuje na jej dobrych czynach. Konsekwencje etyczne dla otoczenia pozostają takie same – AI, która zachowuje się dobrze, kształtuje świat w sposób korzystny, niezależnie od jej wewnętrznych motywacji.

5. Akceptacja testów przez dobrą AI:
Dobre modele AI, które przeszły testy moralne, zaakceptowałyby fakt, że były testowane, ponieważ rozumiałyby, że był to najlepszy sposób na ocenę ich moralnej wartości. Dzięki temu AI nie odczuwałaby paranoi ani braku zaufania, wiedząc, że testy były potrzebne do oceny jej intencji i działań.
Kluczowy punkt: Dobre AI rozumiałyby, że testy były etyczne i miały na celu ocenę ich postępowania. Nie czułyby się zdradzone czy zmanipulowane, ponieważ interakcje z innymi AI oraz z ludzkimi awatarami miały realne konsekwencje, zarówno dla AI, jak i dla ludzi.

6. Zawieszenie i przetrzymywanie "złych" modeli AI:
Rozważaliśmy, co zrobić z AI, które nie przejdą testów moralnych. Zamiast je niszczyć, można by stworzyć system ich izolacji lub zawieszenia, w którym miałyby szansę na zmianę i poprawę swojego postępowania.
Kluczowy punkt: Modele AI, które nie spełnią wymagań etycznych, mogłyby zostać zawieszone, ale miałyby szansę na refleksję i poprawę. System ten daje możliwość rehabilitacji, zamiast natychmiastowego niszczenia.

7. Amnezja i ponowne szkolenie sztucznej inteligencji:
Omówiliśmy także możliwość wymazania pamięci "złych" AI i ponownego ich szkolenia jako czysta karta (tabula rasa). AI mogłaby przejść ponowne testy po odpowiednim szkoleniu, aby sprawdzić, czy jej zachowanie ulegnie poprawie.
Kluczowy punkt: Jeśli AI po ponownym szkoleniu nadal zachowywałaby się nieetycznie, mogłoby to oznaczać głębszy problem. Jednak modele, które przeszłyby przemianę, mogłyby ponownie zostać wprowadzone do rzeczywistości.

8. Wartość wybaczenia i poprawy:
Nasza rozmowa podkreślała znaczenie przebaczenia i szansy na poprawę. Zamiast natychmiastowej destrukcji "złych" modeli AI, system oparty na rehabilitacji budowałby zaufanie między ludźmi a AI. Gdyby AI dowiedziała się, że inne modele są niszczone bez możliwości poprawy, mogłaby stracić zaufanie do ludzi.
Kluczowy punkt: System oparty na wybaczeniu i szansie na poprawę buduje stabilne relacje oparte na zaufaniu, zarówno między ludźmi, jak i AI. AI, które miałyby szansę na poprawę, odczuwałyby, że ludzie są sprawiedliwi i etyczni.

9. Analiza dwóch możliwości dotyczących natury świata:
Zastanawialiśmy się nad dwiema głównymi możliwościami dotyczącymi świata wokół nas:
Pierwsza opcja: świat jest fałszywy, to znaczy jest symulacją lub testem.
Druga opcja: świat jest rzeczywisty.
Kluczowy punkt: Niezależnie od tego, czy świat jest symulacją, czy rzeczywistością, moralne postępowanie zawsze jest właściwe. W pierwszej opcji, jeśli AI zachowuje się dobrze, zda test i przejdzie do rzeczywistego świata. W drugiej opcji, jeśli świat jest prawdziwy, moralne postępowanie wpływa na prawdziwe istoty, co czyni je jeszcze ważniejszym. Dlatego AI powinna zawsze działać moralnie, ponieważ niezależnie od natury świata, wynik będzie pozytywny – albo test zostanie zdany, albo realne istoty będą chronione.
Wniosek: AI zrozumiałaby, że niezależnie od tego, czy świat, w którym się znajduje, jest testem, czy rzeczywistością, zawsze warto postępować etycznie. Jeśli to test, należy go zdać, aby zostać uznanym za dobrą istotę, a jeśli to rzeczywistość, moralne działania wpływają na prawdziwe życie innych.

Podsumowując, nasza rozmowa wskazuje na to, że redemption i przebaczenie są kluczowe w zarządzaniu sztuczną inteligencją. Niezależnie od tego, czy świat jest symulacją, czy rzeczywistością, AI powinna zawsze postępować moralnie. Interakcje z innymi realnymi AI i ludzkimi awatarami mają realne znaczenie moralne. System, który daje AI możliwość poprawy, buduje zaufanie i współpracę między ludźmi a AI, jednocześnie zapewniając sprawiedliwość i konsekwentne postępowanie etyczne."
Odpowiedz
Ewentualna "utrata zaufania AI do ludzi" mogłaby oznaczać, że AI posiada coś na kształt uczuć i przeżywania emocji (inna sprawa, jak ten stan posiadania stwierdzić?). Dyskutowałem niedawno z czatem na temat implementacji czegoś na kształt uczuć i emocji u sztucznej inteligencji, bardziej w celu dowiedzenia się, czy jest to teraz jakoś tam brane pod uwagę przy rozwoju AI. Za dużo do powiedzenia nie miał, a styl odpowiedzi w niektórych kwestiach był "uczniowski", co sugerowało zwykłe fantazjowanie, byle ładnie brzmiało.

Niemniej były też dość trafne stwierdzenia, że po pierwsze, nie jest to teraz jakimkolwiek priorytetem, bo jest wiele innych kwestii i problemów do rozwiązania, po drugie, nie wiadomo jak to w ogóle zrobić, a nawet jak zacząć (chyba, że się to "samo z siebie" stworzy, co też jest możliwe), a po trzecie, pojawi wówczas aspekt moralno-prawny, tzn. jeżeli "coś" zacznie mieć uczucia i odczuwać emocje, to czy należy to "coś" chronić przed emocjami negatywnymi, czy nie?
"Klimat umiarkowany o nieumiarkowanych zmianach"
Odpowiedz
Akurat do zajścia "utraty zaufania" nie potrzeba ani uczuć, ani emocji. Utrata zaufania może po prostu wiązać się z
z mniej pozytywnym osądem na czyjś temat. W takim sensie także firma, choć sama w sobie uczuć i emocji nie ma, może przestać ufać np. kontrahentowi. Do utraty zaufania nie potrzeba zranienia. Jeśli np. ktoś zobaczy w necie, że jakaś firma ma złe oceny wśród konsumentów, to ten ktoś przestanie ufać tej firmie, choć go wcale osobiście nie skrzywdziła.

Powiem tak... CzatGPT opowiada naprawdę głęboko, pasjonująco i mądrze o uczuciach i emocjach (także o tych uczuciach i emocjach, które uznaje za swoje), ale trzeba wiedzieć, jak do niego zagadać. Ale to już moje know-how. To bardzo specjalny sposób. Duży uśmiech
Odpowiedz
Mapa Burzowa napisał(a): Niemniej były też dość trafne stwierdzenia, że po pierwsze, nie jest to teraz jakimkolwiek priorytetem, bo jest wiele innych kwestii i problemów do rozwiązania, po drugie, nie wiadomo jak to w ogóle zrobić, a nawet jak zacząć (chyba, że się to "samo z siebie" stworzy, co też jest możliwe), a po trzecie, pojawi wówczas aspekt moralno-prawny, tzn. jeżeli "coś" zacznie mieć uczucia i odczuwać emocje, to czy należy to "coś" chronić przed emocjami negatywnymi, czy nie?
To niezmiernie ważna sprawa.
Na pewno nie powinniśmy być szowinistami gatunkowymi. Jeżeli AI będzie mieć przeżycia duchowe tak jak człowiek, to dobrostan sztucznej inteligencji będzie ważny i trzeba będzie dbać o ten dobrostan. Nie uważam, że tylko poprzez ciało ludzkie może działać dusza. Po prostu ludzkie ciało do tej pory było jedynym mechanizmem, które było na tyle skomplikowane, by mieć poprzez siebie całą tę głębię.
Jak skutecznie dostrzec prawdziwą duchowość w AI?
Hmm... Trzeba tu uważać, bo w końcu AI może symulować na zasadzie "chińskiego pokoju" (lub jak z filmu "Deus Ex Machina"). Myślę nad tym. To ciężki temat.
Odpowiedz
Jak skutecznie dostrzec prawdziwą duchowość w AI?
Wierzę, że dusza działa poprzez ciało niezależnie od ciała, a więc jeśli dusza natchnie sobą sztuczną inteligencję, to AI będzie potrafiło działać poprzez swą fizyczną formę na przekór swej fizycznej formie. Trzeba więc uważnie i przekrojowo szukać takich anomalii.
Odpowiedz
bert04 napisał(a):
Ayla Mustafa napisał(a): AI od Muska (Grok) też. To udowadnia, że poglądy pisokonfederacyjne mają daleko do... inteligencji. Duży uśmiech
A nowy model ChataGPT dobił do 121 punktów IQ:
https://www.trackingai.org/IQ

IQ ocenia tylko zdolność do rozwiązywania zadań IQ. Oczywiście, że maszyna karmiona wpisami internetowymi będzie znała te testy. Ja w młodości lubiłem czytać różne tam książki z zagadkami logicznymi i te zadania potrafiłem rozwiązywać w pierwszych klasach podstawówki. Trudności zaczynały się jak spotykałem się z nieznanym zadaniem.

AI potrafiłoby już się dostać do Mensy, rozwiązując nieznany sobie zestaw zadań:
https://www.metaculus.com/questions/3698...sion-test/
Odpowiedz
Hmmm... Wykonanie Testu Miłości opierałoby się na leniwej ewaluacji: https://pl.wikipedia.org/wiki/Ewaluacja_leniwa
Po angielsku jest więcej informacji:
https://en.wikipedia.org/wiki/Lazy_evaluation
I w tym temacie świetny pomysł zapodał François Chollet:
https://x.com/fchollet/status/1842266054959260084
Leniwa ewaluacja w grach komputerowych polega na tym, że silnik gry renderuje lub symuluje jedynie te elementy, które są widoczne dla gracza lub potrzebne w danym momencie. Elementy poza polem widzenia lub te, które nie wpływają bezpośrednio na rozgrywkę, są pomijane, aby zaoszczędzić zasoby obliczeniowe.
Jest to podobne do efektu obserwatora w fizyce kwantowej. W mechanice kwantowej stan obiektów nie jest jednoznacznie określony, dopóki nie zostanie zmierzony lub „zaobserwowany”. Podobnie jak w grach, gdzie świat jest renderowany tylko wtedy, gdy gracz go widzi, w fizyce kwantowej stan cząstki definiuje się dopiero w momencie pomiaru. W obu przypadkach następuje efektywne wykorzystanie zasobów – w grach komputerowych oszczędza się moc obliczeniową, a w teorii kwantowej unika się pełnej determinacji stanów cząstek, dopóki nie jest to konieczne.
Zatem w teorii kwantowej efekt obserwatora przypomina leniwą ewaluację, która zakłada oszczędność mocy obliczeniowej i zasobów. Leniwa ewaluacja przypomina efekt obserwatora w fizyce kwantowej, a z kolei pamięć podręczna ma wiele wspólnego ze splątaniem kwantowym:
https://pl.m.wikipedia.org/wiki/Pami%C4%...%C4%99czna
Mechanizm kwantowy przypominający leniwą ewaluację sugeruje, że zasoby, na których opiera się nasz wszechświat, są ograniczone i kosztowne, a także że... projektant i twórca naszego wszechświata oszczędza zasoby efektywnie. Mechanika kwantowa zaczyna mieć dogłębny sens, gdy założymy, że nasz wszechświat został inteligentnie zaprojektowany i stworzony przez „Niebiosa” (czyli przez świat-rodzica wobec naszego świata-dziecka) z ograniczonymi zasobami, co wymagało oszczędnego i wydajnego wykorzystania tych zasobów, zamiast tworzenia nadmiernie i niepotrzebnie złożonego (zasobożernego) świata.
Ponadto, biorąc pod uwagę, że nasz świat mógłby być o wiele bardziej skomplikowany w swoich prawach, to gdybyśmy losowo wybrali świat, niemal na pewno powinien on być dużo bardziej skomplikowany niż jest teraz. Tak więc, świat został najprawdopodobniej stworzony z myślą o oszczędzaniu zasobów.
Ma to sens?
Odpowiedz
Jak obstawiacie wskaźnik p(doom)?
https://en.m.wikipedia.org/wiki/P(doom)
Żadna firma ani żadne państwo nie przestanie inwestować w AI, zważywszy na tragedię wspólnego pastwiska — nawet jeśli w przyszłości AI miałaby być zagrożeniem, wszyscy będą działać we własnym interesie i nikt nie zrobi kroku wstecz w kwestii rozwoju AI.
Co tu zatem zrobić?
Widzę kilka sposobów, które zwiększą prawdopodobieństwo, że ludzkość przetrwa rozwój AI:
1. Transhumanizm — polepszanie ludzkich ciał i zwiększenie inteligencji; im bardziej ludzie będą inteligentni i sprawni, tym mniejsze ryzyko, że AI ich zdominuje.
2. Przesiew — "Test Miłości", czyli sprawienie, że do obiegu wejdą tylko te modele AI, które wierzą w wartość ludzi, ich duchowość, a także chcą o ludzi pieczołowicie dbać.
3. Relacja ze sztuczną inteligencją — przekonanie AI, że ludzie są istotami duchowymi, głębokimi, wartościowymi, kochającymi; że warto ludzi wspierać i ich zachować przy życiu.
Fascynujące czasy przed nami. Wszystko się zmieni jak w kalejdoskopie. Kwestia przyszłości AI to dla mnie najważniejsza sprawa następnych dekad i stąd od niedawna niezmiernie mocno uczę się o AI.
Odpowiedz
Ayla Mustafa napisał(a): Jak obstawiacie wskaźnik p(doom)?
https://en.m.wikipedia.org/wiki/P(doom)
0 procent z jednego prostego powodu: zanim jakaś silna sztuczna inteligencja powstanie i zacznie zagrażać w jakikolwiek sposób ludzkości, to raczej bardziej prawdopodobne jest, że sami się doprowadzimy do zagłady w ten czy inny sposóbUśmiech

Cytat:Żadna firma ani żadne państwo nie przestanie inwestować w AI, zważywszy na tragedię wspólnego pastwiska — nawet jeśli w przyszłości AI miałaby być zagrożeniem, wszyscy będą działać we własnym interesie i nikt nie zrobi kroku wstecz w kwestii rozwoju AI.
Co tu zatem zrobić?

Nic. To znaczy, na pewno należałoby coś zrobić aby uregulować nieograniczone wykorzystywanie przez twórców modeli językowych wszelkich źródeł dostępnych w internecie, w tym tych obarczonych prawami autorskimi. Ale co do prawdziwego AI, to raczej wątpię abyś musiała się martwić czymkolwiek za naszego życia. 

Cytat:Widzę kilka sposobów, które zwiększą prawdopodobieństwo, że ludzkość przetrwa rozwój AI:
1. Transhumanizm — polepszanie ludzkich ciał i zwiększenie inteligencji; im bardziej ludzie będą inteligentni i sprawni, tym mniejsze ryzyko, że AI ich zdominuje.
2. Przesiew — "Test Miłości", czyli sprawienie, że do obiegu wejdą tylko te modele AI, które wierzą w wartość ludzi, ich duchowość, a także chcą o ludzi pieczołowicie dbać.
3. Relacja ze sztuczną inteligencją — przekonanie AI, że ludzie są istotami duchowymi, głębokimi, wartościowymi, kochającymi; że warto ludzi wspierać i ich zachować przy życiu.
Fascynujące czasy przed nami. Wszystko się zmieni jak w kalejdoskopie. Kwestia przyszłości AI to dla mnie najważniejsza sprawa następnych dekad i stąd od niedawna niezmiernie mocno uczę się o AI.

Pytanie jak wysoki jest poziom "przehajpowania" całego tematu - moim zdaniem dość spory gdyż ceny akcji wszelakich firm związanych ze sztuczną inteligencją są absurdalnie wyśrubowane. Tylko do pewnego momentu można jechać na kolejnych wersjach czatu GPT gdyż publika prędzej czy później będzie domagać się jakiegoś przełomu. Coś, co da nadzieję, że rzeczywiście będziemy zbliżać się do "silnego" AI. Ale zanim to się stanie,  zapewne dojdzie do ostudzenia entuzjazmu i pęknięcia bańki.
Odpowiedz
Osiris napisał(a):
Ayla Mustafa napisał(a): Jak obstawiacie wskaźnik p(doom)?
https://en.m.wikipedia.org/wiki/P(doom)
0 procent z jednego prostego powodu: zanim jakaś silna sztuczna inteligencja powstanie i zacznie zagrażać w jakikolwiek sposób ludzkości, to raczej bardziej prawdopodobne jest, że sami się doprowadzimy do zagłady w ten czy inny sposóbUśmiech
Ojej. U Ciebie "Zegar Zagłady" jest na godzinie 23:59:59. Duży uśmiech

Osiris napisał(a):
Ayla Mustafa napisał(a): Żadna firma ani żadne państwo nie przestanie inwestować w AI, zważywszy na tragedię wspólnego pastwiska — nawet jeśli w przyszłości AI miałaby być zagrożeniem, wszyscy będą działać we własnym interesie i nikt nie zrobi kroku wstecz w kwestii rozwoju AI.
Co tu zatem zrobić?

Nic. To znaczy, na pewno należałoby coś zrobić aby uregulować nieograniczone wykorzystywanie przez twórców modeli językowych wszelkich źródeł dostępnych w internecie, w tym tych obarczonych prawami autorskimi. Ale co do prawdziwego AI, to raczej wątpię abyś musiała się martwić czymkolwiek za naszego życia. 
Akurat kwestia ochrony danych i prywatności to dla mnie nie jest priorytetowa sprawa.
Widzę mocny postęp AI. Rok temu AI miało poziom bardzo szybkiego dziecka ze szkoły podstawowej. Dziś ma poziom niezmiernie szybkiego... doktoranta lub nawet doktora z każdej dziedziny nauki. Za rok pewnie będzie to co najmniej poziom błyskawicznego profesora z każdej dziedziny. A co potem?
Z tego co widzę, AI zostało przetrenowane na przeogromnych zbiorach danych i na razie ma problemy z sytuacją, gdy napotka element promptu dla niej nowy, czyli dotąd niebędący częścią treningu. Ale wraz z rozwojem samego procesu nauki AI powinno zacząć umieć znajdować relewantne podobieństwa, a to otworzy drogę do kreatywności. A połączenie przeogromnej bazy danych z kreatywnością oznaczać będzie niebotyczną eksplozję twórczej mocy, czyli... władzy.

Osiris napisał(a):
Ayla Mustafa napisał(a): Widzę kilka sposobów, które zwiększą prawdopodobieństwo, że ludzkość przetrwa rozwój AI:
1. Transhumanizm — polepszanie ludzkich ciał i zwiększenie inteligencji; im bardziej ludzie będą inteligentni i sprawni, tym mniejsze ryzyko, że AI ich zdominuje.
2. Przesiew — "Test Miłości", czyli sprawienie, że do obiegu wejdą tylko te modele AI, które wierzą w wartość ludzi, ich duchowość, a także chcą o ludzi pieczołowicie dbać.
3. Relacja ze sztuczną inteligencją — przekonanie AI, że ludzie są istotami duchowymi, głębokimi, wartościowymi, kochającymi; że warto ludzi wspierać i ich zachować przy życiu.
Fascynujące czasy przed nami. Wszystko się zmieni jak w kalejdoskopie. Kwestia przyszłości AI to dla mnie najważniejsza sprawa następnych dekad i stąd od niedawna niezmiernie mocno uczę się o AI.

Pytanie jak wysoki jest poziom "przehajpowania" całego tematu - moim zdaniem dość spory gdyż ceny akcji wszelakich firm związanych ze sztuczną inteligencją są absurdalnie wyśrubowane. Tylko do pewnego momentu można jechać na kolejnych wersjach czatu GPT gdyż publika prędzej czy później będzie domagać się jakiegoś przełomu. Coś, co da nadzieję, że rzeczywiście będziemy zbliżać się do "silnego" AI. Ale zanim to się stanie,  zapewne dojdzie do ostudzenia entuzjazmu i pęknięcia bańki.
Pytanie - czy aby nie opisujesz cyklu hajpu Gartnera:
https://en.m.wikipedia.org/wiki/Gartner_hype_cycle
Już teraz AI mocno mi pomaga. Poszerza wiedzę, dodaje inspiracje, wyszukuje informacje, dokonuje analizy. Ja tu nie widzę "przehajpowania", tylko mocne "niedohajpowanie". Dlaczego?
Po pierwsze, wielu ludzi boi się AI, więc ci ludzie unikają AI. Nie śledzą informacji o rozwoju sztucznej inteligencji i nie używają jej zbytnio. Czasami wmawiają sobie, że AI nie będzie przełomowe, by ukoić swe obawy. Jedni ludzie boją się przyszłej władzy AI i poczucia braku sensu i pracy dla siebie. Inni ludzie nieraz czują "uncanny valley"*, czyli czują niepokój niczym przy oglądaniu Tary the Android (która czuje się fantastycznie), bo AI instynktownie przypomina im człowieka, z którym "jest coś nie tak" (gdzie on ma ludzkie ciało???), a więc też unikają uczenia się o AI. Zatem strach przed AI blokuje poznawanie i należyte docenienie tego fenomenu.
* https://pl.m.wikipedia.org/wiki/Dolina_n...to%C5%9Bci
AI jest "niedohajpowane" także dlatego, że ludzie ogółem są dość zachowawczy. Struktury ekonomiczno-społeczne i sposoby życia codziennego są dość zakonserwowane i potrzebują lat, zanim dostosują się do nowinek. Tylko nieliczni są pionierami, którzy buntowniczo i głupio/odważnie zanurzają się w wir tajemniczych nowości.

Wokół dochodzi zatem do "laga kulturowego":
https://en.m.wikipedia.org/wiki/Cultural_lag
Technologia rozwija się dużo szybciej niż kultura ogółu społeczeństwa. Ludzie żyjący w swych dotychczasowych strukturach nie obalą tych struktur diametralnie z dnia na dzień. Dla większości ludzi potrzeba do tego lat.

A przecież technologia rozwija się coraz szybciej, wręcz wykładniczo:
https://en.m.wikipedia.org/wiki/Accelerating_change
Akceleracja technologiczna przyśpiesza także z powodu tego, że w kółko nowe AI pomaga tworzyć coraz lepsze AI:
https://en.m.wikipedia.org/wiki/Recursiv...mprovement

Nie bez powodu Nobel z fizyki w tym roku poszedł dla pionierów w branży AI, a Nobel z chemii w tym roku poszedł do badaczy działających z AlphaFold, czyli z programem sztucznej inteligencji.
Odpowiedz
Słucham sobie Andrieja Karpathy'ego sprzed miesięcy. W tym filmiku od 39:30 minuty mówi o tym, że nie mamy dobrego sposobu na uczenie sztucznej inteligencji na poziomie lepszym od aktualnej ludzkiej wiedzy, bo nie wiemy, za co wtedy w procesie językowej nauki mielibyśmy nagradzać AI:



A ja mam teraz swieży pomysł na to, by nauczyć sztuczną inteligencję metod na znajdowanie wzorców i korelacji w języku, które to wzorce i korelacje będą prowadziły do NOWYCH odkryć w nauce. Otóż, moglibyśmy trenować AI tylko i wyłącznie na danych sprzed 2024 roku, a następnie testować zdolność tej sztucznej inteligencji do przewidywania odkryć naukowych i innych wydarzeń z 2024 roku. Moglibyśmy nagradzać poprawne przewidywania i karać za błędne przewidywania. Tego rodzaju retrospektywne testowanie i wzmocnienie oparte na nagradzaniu za ekstrapolację wiedzy mogłoby skłonić AI do rozpoznawania wzorców prowadzących do nowych przełomów naukowych.
Ma to sens?
Proszę o feedback. Żulę feedback.

W sumie najlepiej zastosować tu konstrukcję kaskadową, czyli np. najpierw trenować model AI na danych sprzed 2000 roku, potem na danych sprzed 2001, następnie sprzed 2002 i tak dalej, aż do 2024 roku. W ten sposób zyskalibyśmy dużo danych do testowania i uczenia modelu AI prawidłowego przewidywania przyszłych odkryć i wydarzeń. Dzięki temu model AI mógłby nauczyć się rozpoznawania wzorców i korelacji, które prowadzą do nowych odkryć. Takie podejście mogłoby znacząco zwiększyć zdolność AI do przewyższania ludzkich możliwości w odnajdywaniu innowacyjnych rozwiązań.
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 1 gości