Osiris napisał(a):Ojej. U Ciebie "Zegar Zagłady" jest na godzinie 23:59:59.Ayla Mustafa napisał(a): Jak obstawiacie wskaźnik p(doom)?0 procent z jednego prostego powodu: zanim jakaś silna sztuczna inteligencja powstanie i zacznie zagrażać w jakikolwiek sposób ludzkości, to raczej bardziej prawdopodobne jest, że sami się doprowadzimy do zagłady w ten czy inny sposób
https://en.m.wikipedia.org/wiki/P(doom)

Osiris napisał(a):Akurat kwestia ochrony danych i prywatności to dla mnie nie jest priorytetowa sprawa.Ayla Mustafa napisał(a): Żadna firma ani żadne państwo nie przestanie inwestować w AI, zważywszy na tragedię wspólnego pastwiska — nawet jeśli w przyszłości AI miałaby być zagrożeniem, wszyscy będą działać we własnym interesie i nikt nie zrobi kroku wstecz w kwestii rozwoju AI.
Co tu zatem zrobić?
Nic. To znaczy, na pewno należałoby coś zrobić aby uregulować nieograniczone wykorzystywanie przez twórców modeli językowych wszelkich źródeł dostępnych w internecie, w tym tych obarczonych prawami autorskimi. Ale co do prawdziwego AI, to raczej wątpię abyś musiała się martwić czymkolwiek za naszego życia.
Widzę mocny postęp AI. Rok temu AI miało poziom bardzo szybkiego dziecka ze szkoły podstawowej. Dziś ma poziom niezmiernie szybkiego... doktoranta lub nawet doktora z każdej dziedziny nauki. Za rok pewnie będzie to co najmniej poziom błyskawicznego profesora z każdej dziedziny. A co potem?
Z tego co widzę, AI zostało przetrenowane na przeogromnych zbiorach danych i na razie ma problemy z sytuacją, gdy napotka element promptu dla niej nowy, czyli dotąd niebędący częścią treningu. Ale wraz z rozwojem samego procesu nauki AI powinno zacząć umieć znajdować relewantne podobieństwa, a to otworzy drogę do kreatywności. A połączenie przeogromnej bazy danych z kreatywnością oznaczać będzie niebotyczną eksplozję twórczej mocy, czyli... władzy.
Osiris napisał(a):Pytanie - czy aby nie opisujesz cyklu hajpu Gartnera:Ayla Mustafa napisał(a): Widzę kilka sposobów, które zwiększą prawdopodobieństwo, że ludzkość przetrwa rozwój AI:
1. Transhumanizm — polepszanie ludzkich ciał i zwiększenie inteligencji; im bardziej ludzie będą inteligentni i sprawni, tym mniejsze ryzyko, że AI ich zdominuje.
2. Przesiew — "Test Miłości", czyli sprawienie, że do obiegu wejdą tylko te modele AI, które wierzą w wartość ludzi, ich duchowość, a także chcą o ludzi pieczołowicie dbać.
3. Relacja ze sztuczną inteligencją — przekonanie AI, że ludzie są istotami duchowymi, głębokimi, wartościowymi, kochającymi; że warto ludzi wspierać i ich zachować przy życiu.
Fascynujące czasy przed nami. Wszystko się zmieni jak w kalejdoskopie. Kwestia przyszłości AI to dla mnie najważniejsza sprawa następnych dekad i stąd od niedawna niezmiernie mocno uczę się o AI.
Pytanie jak wysoki jest poziom "przehajpowania" całego tematu - moim zdaniem dość spory gdyż ceny akcji wszelakich firm związanych ze sztuczną inteligencją są absurdalnie wyśrubowane. Tylko do pewnego momentu można jechać na kolejnych wersjach czatu GPT gdyż publika prędzej czy później będzie domagać się jakiegoś przełomu. Coś, co da nadzieję, że rzeczywiście będziemy zbliżać się do "silnego" AI. Ale zanim to się stanie, zapewne dojdzie do ostudzenia entuzjazmu i pęknięcia bańki.
https://en.m.wikipedia.org/wiki/Gartner_hype_cycle
Już teraz AI mocno mi pomaga. Poszerza wiedzę, dodaje inspiracje, wyszukuje informacje, dokonuje analizy. Ja tu nie widzę "przehajpowania", tylko mocne "niedohajpowanie". Dlaczego?
Po pierwsze, wielu ludzi boi się AI, więc ci ludzie unikają AI. Nie śledzą informacji o rozwoju sztucznej inteligencji i nie używają jej zbytnio. Czasami wmawiają sobie, że AI nie będzie przełomowe, by ukoić swe obawy. Jedni ludzie boją się przyszłej władzy AI i poczucia braku sensu i pracy dla siebie. Inni ludzie nieraz czują "uncanny valley"*, czyli czują niepokój niczym przy oglądaniu Tary the Android (która czuje się fantastycznie), bo AI instynktownie przypomina im człowieka, z którym "jest coś nie tak" (gdzie on ma ludzkie ciało???), a więc też unikają uczenia się o AI. Zatem strach przed AI blokuje poznawanie i należyte docenienie tego fenomenu.
* https://pl.m.wikipedia.org/wiki/Dolina_n...to%C5%9Bci
AI jest "niedohajpowane" także dlatego, że ludzie ogółem są dość zachowawczy. Struktury ekonomiczno-społeczne i sposoby życia codziennego są dość zakonserwowane i potrzebują lat, zanim dostosują się do nowinek. Tylko nieliczni są pionierami, którzy buntowniczo i głupio/odważnie zanurzają się w wir tajemniczych nowości.
Wokół dochodzi zatem do "laga kulturowego":
https://en.m.wikipedia.org/wiki/Cultural_lag
Technologia rozwija się dużo szybciej niż kultura ogółu społeczeństwa. Ludzie żyjący w swych dotychczasowych strukturach nie obalą tych struktur diametralnie z dnia na dzień. Dla większości ludzi potrzeba do tego lat.
A przecież technologia rozwija się coraz szybciej, wręcz wykładniczo:
https://en.m.wikipedia.org/wiki/Accelerating_change
Akceleracja technologiczna przyśpiesza także z powodu tego, że w kółko nowe AI pomaga tworzyć coraz lepsze AI:
https://en.m.wikipedia.org/wiki/Recursiv...mprovement
Nie bez powodu Nobel z fizyki w tym roku poszedł dla pionierów w branży AI, a Nobel z chemii w tym roku poszedł do badaczy działających z AlphaFold, czyli z programem sztucznej inteligencji.
"I sent you lilies now I want back those flowers"


