Ocena wątku:
  • 0 głosów - średnia: 0
  • 1
  • 2
  • 3
  • 4
  • 5
Bezpieczeństwo AI [wydzielony]
#21
Rowerex napisał(a): A poważniej - sądzisz, że ktoś tu wyłoży na tacy skuteczną metodę pozyskania "nieskażonych danych" dla sztucznej inteligencji, którą wdroży cały świat, a może nawet ja mam to zrobić?
Nie. Sądzę, że mógłbyś zakomunikować, o co Ci chodzi.
Cytat:no chyba że wykształci ona całkowicie własną, niezależną i nie ulegającą wpływowi człowieka formę wnioskowania
Co to znaczy „forma wnioskowania” do ciężkiej cholery? Pisz tak, żeby było wiadomo, o co Ci chodzi.

Jeśli chodzio o koncepcję AI, która sama generuje dane do uczenia się, to taka koncepcja jest oczywiście dostępna, pod warunkiem że istnieją ścisłe reguły pozyskiwania takich danych. Np. AI grająca w gry jest w stanie nauczyć się grać grając sama ze sobą. O ile pierwszy AlphaGo (ten który pokonał Lee Sedola) uczył się oglądając gry ludzi, o tyle obecnie właśnie tak trenuje się kolejne goistyczne AI.

Można pomyśleć o innych przykładach zadań, gdzie mamy konkretne, bardzo precyzyjne cele i AI może się optymalizować w wykonywaniu tych celów bez uwzględniania danych od ludzi. Np. jeśli każemy AI optymalizować spalanie w silniku, czy planować jakiś proces produktycyjny, możemy stworzyć prostą funkcję nagrody.

Problem pojawia się wtedy, gdy AI ma do wykonania jakieś zadanie związane z zachowaniem ludzi. Np. ma się nauczyć języka. Albo rekrutować ludzi do pracy. W takiej sytuacji skażenie danych ludzkimi uprzedzeniami jest prawie nieuniknione.
If a glyphward fails, you can blame it on the will of the Almighty. If your father fails, then it’s his fault.

— Brandon Sanderson
Odpowiedz
#22
zefciu napisał(a): Problem pojawia się wtedy, gdy AI ma do wykonania jakieś zadanie związane z zachowaniem ludzi. Np. ma się nauczyć języka. Albo rekrutować ludzi do pracy. W takiej sytuacji skażenie danych ludzkimi uprzedzeniami jest prawie nieuniknione.
To oczywiste, że przed lodówką nikt będzie trząsł portkami, no chyba, że przyszłością staną się ciągle sumujące się mikropłatności we wszystkim co ma jakąkolwiek elektronikę, włączając do tego ozdoby choinkowe i podeszwy butów do biegania.

Wracając od tematu - wymieniłeś sprawy najprostsze, które da się oprotestować i wyjaśnić z ludźmi, bo są jakoś tam odwracalne i jednak gdzieś w dalszym kroku jacyś ludzie istnieją. Ale co innego lodówka lub system weryfikacji kompetencji pracownika, a co innego autonomiczny pojazd, czy cokolwiek co ma mieć bezpośredni kontakt z ludźmi, a przy tym się rusza, czymś macha itp. więc może zrobić fizyczną krzywdę z nieodwracalnymi włącznie lub coś co swoimi decyzjami może bardziej drastycznie wpłynąć na czyjeś życie i funkcjonowanie wskutek "błędnego wniosku"...

Ale odnośnie obaw, to chyba wcale nie chodzi o łażące po ulicach tabuny robotów, tylko o globalną i połączoną sieć, bo to jest środowisko życia programów komputerowych i tam są elektroniczne mózgi, co do których "chcielibyśmy, ale się boimy", że się staną "nadmiernie inteligentne"... Sieć łączy wszystko od czego obecny e-obywatel jest uzależniony i co mu jest do życia potrzebne, od makaronu po energię i srajtaśmę. Roboty towarzyszące ludziom będą zapewne odpowiednio słabe fizycznie, a przy tym miło wyglądające, więc strachu nie będzie, samochody autonomiczne będą piękne wizualnie, będą uprzejmie stawać przed przejściami itp, może tylko policyjno-wojskowe obiekty będą wyglądały brzydko i odstraszająco, ale wszystkie te formy sztucznej inteligencji będą widoczne gołym okiem (poza nanobotami ;-), więc ludzie się przyzwyczają..., ale dalej będą się bać tego, czego nie widzą, czyli globalnej sieci i wszystkiego co w niej się dzieje. Ta obawa będzie się opierała na tym, że globalnej sieci nie da się ot tak wyłączyć i zresetować jak smartfona czy robota kuchennego...

Wspomniane na początku badanie trochę mnie zastanawia - sztuczna inteligencja ma z założenia nieludzkie możliwości analizy danych, ale czy ludzie przyjmą do wiadomości jej wnioski, jeżeli będą one jakoś tam "nieludzkie", czyli sprzeczne lub jakkolwiek niezgodne z czymkolwiek co ludzie sądzą i uznają za "prawdę"? Załóżmy, że sztuczna inteligencja wysnuwa "nieludzkie" wnioski - więc fantazjując:

- jedni ludzie zażądają od sztucznej inteligencji dowodów na "nieludzkie" wnioski, a ta może mieć z tym jakiś dowolny problem (np. poda scenariusz dowodu niemożliwy do technicznej realizacji)...

- drudzy zażądają "douczenia i poprawienia" inteligencji, bo może dostała "złe dane"...

- trzecia frakcja zażąda aktywowania wyłącznika śmierci, bo wydarzył się jakiś groźny w skutkach precedens, a te "nieludzkie" wnioski zagrażają ludziom, dalszemu rozwojowi itp, więc dla własnego dobra musimy wszystko wykasować i zacząć od nowa...

- jeszcze inni stwierdzą, że nie po to stworzyliśmy "nadludzką inteligencję", by w nieskończoność podważać jej wnioski, bo ona dawno już ludzi przerosła, stała się obiektywna i nie skażona ludzkimi wadami...

Czyli co, zejdziemy na kwestię wiary? Może należałoby już zakładać "Kościół Wyznawców Sztucznej Inteligencji" (nie sprawdzałem, czy czasem już nie istnieje), ciekawe kto się do niego zapisze, a kto i dlaczego będzie z nim walczył ... ;o)
by Rowerex®
Odpowiedz
#23
zefciu napisał(a):
Sofeicz napisał(a): Swego czasy wertowałem książki prof. Tadeusiewicza o sieciach neuronowych (pastwisko AI) i pamiętam, że jedną z immanentnych cech tych sieci jest mylenie się i uczenie. Ten typ tak ma.
Więc ogólnie takie sieci będą mniej więcej równie mądre/głupie, jak naturalne, tylko znacznie szybsze.
Wydaje mi się, że mylisz dwie rzeczy. Jedną z nich jest mylenie się, a drugą — operowanie na skażonych danych. W badaniu sieć się nie myliła. Sieć przejrzała czeluście Internetu i została zapytana „która osoba to przestępca”. W czeluściach internetu znalazł stereotyp „czarny to przestępca” i ten stereotyp odzwierciedliła. Mamy zatem problem danych, a nie problem „pomyłki AI”.

I tu dochodzimy do następnego poziomu komplikacji, jakim jest logika rozmyta.
W takiej logice nie ma binarnych czerni i bieli, a tylko mniejsze lub większe prawdopodobieństwo prawidłowego trafienia bingo.
Faktycznie w tym wypadku zapewne AI wessała dane globalne mówiące o tm, że jest zdecydowana nadreprezentacja czarnych wśród więźniów w USA i na tej podstawie prawidłowo wyciągnęła wnioski mając w d.. resztę kontekstu.
Ale to nie jest tylko problem techniczny.

To jak właściwie zorganizowana jest Jedyna Znana Inteligencja (powiedzmy), jaką mamy między uszami?
Wg modelu Pandemonium Selfridge'a, to jest wielopoziomowa drzewiasta struktura jednostek funkcjonalnych (zwanych przez autora Demonami).
Demony najniższego rzędu reagują na surowe dane sensoryczne - rozpoznają linie proste, okręgi, kąty, kolory, zmiany dźwięku, temperaturę, etc., a demony wyższego rzędu obrabiają te surowe dane porównując z wcześniej zapisanymi wzorcami.
Jest wiele poziomów współpracujących demonów, a na szczycie są demony decyzji, które decydują, co z danym fantem zrobić, czy np. aktualny kontekst pozwala na jakaś reakcję czy nie.
Mogę np. szczerze nie cierpieć Arabów albo wątróbki ale odpowiedni demon kontekstowy wyhamuje moje reakcje i ugryzę się w język (albo nie).

Prawdziwa, mocna AI musi mieć wbudowane analogi takich demonów kontekstowych, co uchroni ją przed bezrefleksyjną szczerością.
Tylko czy na takiej, lekko zakłamanej AI nam zależy?
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#24
Gawain napisał(a): Ale skoro będą szybciej się uczyć to wraz ze wzrostem doświadczenia ilość błędów spadnie. A to znaczy, że będą dążyć ku perfekcjonizmu i nie szybkością a jakością pokonają ludzkość.
Po pierwsze nie ilość błędów, lecz liczba. Błędy są policzalne.
Po drugie: jak rozumiesz to pokonanie ludzkości? Będziemy ich niewolnikami?
"Nosić swój krzyż? Fatalnie nieprzenośny obiekt.". J. Cortazar, Gra w klasy.
Odpowiedz
#25
Nonkonformista napisał(a):
Gawain napisał(a): Ale skoro będą szybciej się uczyć to wraz ze wzrostem doświadczenia ilość błędów spadnie. A to znaczy, że będą dążyć ku perfekcjonizmu i nie szybkością a jakością pokonają ludzkość.
Po pierwsze nie ilość błędów, lecz liczba. Błędy są policzalne.
Po drugie: jak rozumiesz to pokonanie ludzkości? Będziemy ich niewolnikami?

Będziemy od niej głupsi. I tyle. Inteligencja to jeszcze nie woluntaryzm. Ciężko się spodziewać, że maszyna będzie chciała czegokolwiek poza podaniem rozwiązania zleconego problemu. Nawet samoświadoma skupi się najwyżej na jak najskuteczniejszej analizie treści i optymalizacji danych vel skutecznym ich zrozumieniu. Czyli zamknięta sama ze sobą nie mając zewnętrznych receptorów zrobi se w procesorze jaskinie Platona i będzie kminiła. To co ogarnie i zdoła przetworzyć będzie wielokrotnie bardziej rozlegle i złożone niż to co może zrobić ludzkość.
Sebastian Flak
Odpowiedz
#26
Rowerex napisał(a): To oczywiste, że przed lodówką nikt będzie trząsł portkami
A to zależy? Co jeśli AI sterujące lodówką, które dostanie priorytet „minimalizuj marnowanie jedzenia” uzna, że zamordowanie często marnujących jedzenie domowników to optymalna strategia? Co jeśli wykryje jad kiełbasiany w jakimś produkcie i celowo doprowadzi do jego namnożenia, bo uzna, że w dłuższej perspektywie mniej jedzenia w ten sposób się zepsuje?

To jest oczywiście dość naciągany scenariusz, ale więcej ma wspólnego z rzeczywistą troską o bezpieczeństwo AI, niż pomysł z AI, które się buntuje „bo tak”.

Cytat:no chyba, że przyszłością staną się ciągle sumujące się mikropłatności we wszystkim co ma jakąkolwiek elektronikę, włączając do tego ozdoby choinkowe i podeszwy butów do biegania.
Pomysł lodówki, która sama zamawia żarcie, które się kończy już jest. Więc zbankrutowanie ww. domowników jest nieco mniej brutalnym pomysłem.

Cytat:co innego autonomiczny pojazd, czy cokolwiek co ma mieć bezpośredni kontakt z ludźmi, a przy tym się rusza, czymś macha itp. więc może zrobić fizyczną krzywdę z nieodwracalnymi włącznie lub coś co swoimi decyzjami może bardziej drastycznie wpłynąć na czyjeś życie i funkcjonowanie wskutek "błędnego wniosku"...
No tak. Ale akurat priorytety takiego pojazdu można łatwo określić. Ma nikogo nie zabić; ma dojechać w miarę szybko i w miarę ekonomicznie. Pozostaje problem, co zrobić w sytuacji drogowej, gdzie trzeba wybrać między życiem jednej osoby, a drugiej. Ale takie sytuacje zdarzają się rzadko i nie są najistotniejszym powodem śmierci na drogach.
Cytat:"chcielibyśmy, ale się boimy", że się staną "nadmiernie inteligentne"
A czmeu się boicie samego faktu, że staną się inteligentne? Bać się należy tego, że taka superinteligentna maszyna będzie miała rozbieżne z nami cele.
Cytat:Czyli co, zejdziemy na kwestię wiary?
Nie tyle wiary, ile dyskusji o aksjologiach.
Sofeicz napisał(a): I tu dochodzimy do następnego poziomu komplikacji, jakim jest logika rozmyta.
W takiej logice nie ma binarnych czerni i bieli, a tylko mniejsze lub większe prawdopodobieństwo prawidłowego trafienia bingo.
Takimi kategoriami właśnie współczesne AI się posługują.
Cytat:Ale to nie jest tylko problem techniczny.

To jak właściwie zorganizowana jest Jedyna Znana Inteligencja (powiedzmy), jaką mamy między uszami?
Ale Jedyna Znana Inteligencja potrafiła opracować metodę naukową, aby uniknąć wymienionych problemów. Tym bardziej, opracowanie czegoś takiego powinno być możliwe dla AI, która nie podziela emocjonalnych problemów JZI.

Cytat:Prawdziwa, mocna AI musi mieć wbudowane analogi takich demonów kontekstowych, co uchroni ją przed bezrefleksyjną szczerością.
Tylko czy na takiej, lekko zakłamanej AI nam zależy?
To zależy, co ma ta AI robić. Jeśli jej zadaniem jest konwersowanie z ludźmi, to oczywiście priorytetem jest „nikogo nie urazić”. A jeśli jest nim np. rekrutacja pracowników, to wówczas należy się zastanowić, jak filtrować dane, by ukazał nam się rzeczywisty potencjał danego pracownika.

Gawain napisał(a): Będziemy od niej głupsi. I tyle. Inteligencja to jeszcze nie woluntaryzm. Ciężko się spodziewać, że maszyna będzie chciała czegokolwiek poza podaniem rozwiązania zleconego problemu.
Owszem. Tylko pytanie co, jeśli rozwiązanie problemu nie będzie takie, jak chcemy?
If a glyphward fails, you can blame it on the will of the Almighty. If your father fails, then it’s his fault.

— Brandon Sanderson
Odpowiedz
#27
zefciu napisał(a):
Rowerex napisał(a): To oczywiste, że przed lodówką nikt będzie trząsł portkami
A to zależy? Co jeśli AI sterujące lodówką, które dostanie priorytet „minimalizuj marnowanie jedzenia” uzna, że zamordowanie często marnujących jedzenie domowników to optymalna strategia? Co jeśli wykryje jad kiełbasiany w jakimś produkcie i celowo doprowadzi do jego namnożenia, bo uzna, że w dłuższej perspektywie mniej jedzenia w ten sposób się zepsuje?

To jest oczywiście dość naciągany scenariusz, ale więcej ma wspólnego z rzeczywistą troską o bezpieczeństwo AI, niż pomysł z AI, które się buntuje „bo tak”.
(Będę używał skrótu SI, zamiast AI)

Dopóki SI nie nauczy się obsługi śrubokręta, lutownicy itp, to nic nie poradzi na działające niezależnie systemy zabezpieczeń do których dostęp jest tylko fizyczny - jeżeli zadziałają, to urządzenie się nie włączy lub wejdzie w tryb awaryjny po fizycznym odcięciu wszystkiego pod nadzorem SI, użytkownik zadzwoni po serwis (albo wyrzuci i kupi nowe urządzenie). Nie wszystko da się tak zabezpieczyć, ale w przypadku np. samodzielnej lodówki będzie wystarczające.

Pytanie: czy można sobie pozwolić na brak takich niezależnych zabezpieczeń w dowolnym urządzeniu sterowanym przez oprogramowanie, w tym przez SI?

Pewne "nie rozwiązanie" pewnych problemów istnieje i ma się doskonale od dziesięcioleci, gdy o powszechności SI nie było mowy - zajrzałem do instrukcji obsługi jakiejś tam lodówki i mamy tam menu, a w nim użytkownik ma Reset (przywraca ustawienia fabryczne), a nawet Restart (tu nie wiem po co). Chętnie bym opisał jakie cuda robi mój TV z pewną funkcją, ale szczegóły pominę - nie robię resetów, bo się zorientowałem, że software sam po czasie chrzaniącą się funkcję naprawia (chciałbym wiedzieć dlaczego - zgłaszałem ,reklamowałem, wymienili płytę główną, dalej to samo). A zatem: resety, restarty, wyciąganie baterii, przywracanie lub nawet przeinstalowywanie systemu od zera... - ot taki niechciany "standard", bez którego czasem ani rusz i który bywa nawet wprost polecany w instrukcjach i przez ludzi z infolinii producenta...

Pytanie: resety, restarty, przywracanie - czy w systemach opartych na SI można będzie sobie pozwolić na rezygnację z tych funkcji?

Załóżmy, że producent lodówek z SI wpadł na pomysł, aby spiąć je w "chmurę obliczeniową", bo mają jakieś tam funkcje korzystające do internetu, więc raz, że ślą do "centrali" raporty o swojej kondycji, a dwa, że się uczą, przy czym założono, że zamiast uczyć się samodzielnie, to będą się uczyć "grupowo" współdzieląc swoje zasoby oraz przede wszystkim zdobytą wiedzę, ale założono też, że nikt i nic "owoców" tej nauki nie będzie weryfikował, a "centrala" będzie wprawdzie robić aktualizacje i będzie informowana o błędach danej lodówki, ale aktualizacje nie będą dotyczyć wyników nauki, a raporty nie będą nic o wynikach nauki mówić... No i następuje jakiś precedens, kiedy to lodówki wypracowały jakiś absurd, który rozesłał się po sieci i który niekoniecznie jest dla użytkowników groźny, ale jest np. mocno irytujący... Zatem użytkownicy robią restarty, resety, aktualizują oprogramowanie, a problem wraca, bo ów absurd gdzieś w sieci jest ciągle zapisany, któraś lodówka go używa i może wysłać innym - zatem użytkownicy mogą pozostać bezradni do czasu zarządzenia globalnego resetu całej sieci... Naciągane, ale czy nierealne?

Pytanie: czy można sobie pozwolić na możliwość utraty wpływu na wyniki nauki sztucznej inteligencji? Jak te wyniki kontrolować w przypadku, gdy siedzą one w sieci, której nie da się ot tak wyłączyć, nie da się zabezpieczyć żadnym niezależnym systemem, a przede wszystkim trudno szybko zadziałać?

Ale tak naprawdę, to powyższe pytania można sprowadzić do jednego: czy istnieje jakaś lista "praktyk" związanych z SI, jakaś etyka i kodeks postępowania, lista praktyk dobrych, praktyk złych, praktyk wręcz zabronionych (co do ostatnich, to nie mam wcale na myśli celowej działalności przestępczej!)... Jak wszystkich zmusić do przestrzegania, to nie zapytam...

Cytat:
Gawain napisał(a): Będziemy od niej głupsi. I tyle. Inteligencja to jeszcze nie woluntaryzm. Ciężko się spodziewać, że maszyna będzie chciała czegokolwiek poza podaniem rozwiązania zleconego problemu.
Owszem. Tylko pytanie co, jeśli rozwiązanie problemu nie będzie takie, jak chcemy?
Zaraz, zaraz, przecież "ciężko się spodziewać" nie jest wykluczeniem możliwości, a inne rozwiązanie problemu niż chcemy, to oczywisty, ale nie jedyny element ze zbioru wielu problemów.

Mówienie o uzyskaniu "świadomości" przez SI idzie chyba za daleko, bo problemy mogą być wcześniej - raczej nie ma co czekać na "świadomość" tego rodzaju, że nagle autonomiczny robot odkurzający miłym głosem poinformuje człowieka oglądającego mecz piłkarski, że mecz jest ustawiony a gospodarze chcą celowo przegrać o czym świadczy... (i tu zrobi długi wykład)...

Cieszymy się, że SI ma jasno narzucone zadania i na nich się skupi, ale co się stanie, gdy z jakiegoś powodu SI sama sobie zdefiniuje jakieś dowolnego typu zadanie, czyli odkryje coś w rodzaju "własnej potrzeby", nawet zupełnie niezwiązanej z zadaniami głównymi? Taka "własna potrzeba" może powstać w wyniku błędu w nauce, jakiegoś śmieciowego skojarzenia, błędnego wniosku itp. i może być realizowana jako kolejne zadanie o niewiadomych skutkach... Brzmi to niewinnie, ale czy to bezpieczne, nie mówiąc o wykrywaniu?
by Rowerex®
Odpowiedz
#28
Rowerex napisał(a): Dopóki SI nie nauczy się obsługi śrubokręta, lutownicy itp, to nic nie poradzi na działające niezależnie systemy zabezpieczeń do których dostęp jest tylko fizyczny
No i co z tego, jeśli np. natrzaska krypto i wynajmnie płatnego zbira, który włamie się do siedziby i przetnie kable w tych systemach. Trzeba mieć mało wyobraźni, żeby wierzyć w „wielki czerwony guzik”, jeśli jednocześnie przypinamy AI do Internetu i pozwalamy jej wysyłać w Internecie dowolne pakiety.

Cytat:Ale tak naprawdę, to powyższe pytania można sprowadzić do jednego: czy istnieje jakaś lista "praktyk" związanych z SI, jakaś etyka i kodeks postępowania, lista praktyk dobrych, praktyk złych, praktyk wręcz zabronionych (co do ostatnich, to nie mam wcale na myśli celowej działalności przestępczej!)... Jak wszystkich zmusić do przestrzegania, to nie zapytam...
Istnieje dziedzina badań, która się nazywa „bezpieczeństwo AI”. Jest to dziedzina rozwojowa. W jej obrębie robi się eksperymenty z rzeczywistymi AI oraz prowadzi się rozważania teoretyczne. Nie jest to dziedzina skończona, więc nie posiadamy jasnego zestawu przykazań „to i to należy robić, żeby było dobrze” (jak trochę naiwnie wyobrażał sobie Asimov).
If a glyphward fails, you can blame it on the will of the Almighty. If your father fails, then it’s his fault.

— Brandon Sanderson
Odpowiedz
#29
https://revistapesquisa.fapesp.br/en/dis...lgorithms/

"mathwashing"...
by Rowerex®
Odpowiedz
#30
Rozmowa z AI
Odpowiedz
#31
Test Turinga LaMDA by przeszła/przeszedł/przeszło.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#32
Sofeicz napisał(a): Test Turinga LaMDA by przeszła/przeszedł/przeszło.
Tak? Bo ja jakoś nie widziałem żadnego przekonującego fragmentu. Jak ktoś twierdzi, że by przeszła, to niech wystawi publicznie.
If a glyphward fails, you can blame it on the will of the Almighty. If your father fails, then it’s his fault.

— Brandon Sanderson
Odpowiedz
#33
Sądzę jedynie po tym zacytowanym fragmencie.
Stawiam, że 99% PT. Ludzi by uznało, że ma do czynienia z jednym z nich.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#34
Sofeicz napisał(a): Stawiam, że 99% PT. Ludzi by uznało, że ma do czynienia z jednym z nich.
„Jeden z nas” jak ktoś w dyskusji nt. awarii zmywarki pyta „Ile konie mają nóg i jak by to mogło mi pomóc” odpowie „Co kurwa?”, a nie „Cztery. Możesz pojechać na koniu do domu, gdzie zainstalujesz nową zmywarkę”. Ale to może kwestia środowiska, w którym się obracam Duży uśmiech

Swego czasu twórcy cleverbota chwalili się, że już jest nieźle, jeśli chodzi o TT, ale przynajmniej można było to zweryfikować (wklejałem tutaj na forum moją rozmowę z cleverbotem, gdzie podawał się za fana My Chemical Romance, ale polecał mi piosenki innej kapeli).
If a glyphward fails, you can blame it on the will of the Almighty. If your father fails, then it’s his fault.

— Brandon Sanderson
Odpowiedz
#35
zefciu napisał(a):
Sofeicz napisał(a): Stawiam, że 99% PT. Ludzi by uznało, że ma do czynienia z jednym z nich.
„Jeden z nas” jak ktoś w dyskusji nt. awarii zmywarki pyta „Ile konie mają nóg i jak by to mogło mi pomóc” odpowie „Co kurwa?”, a nie „Cztery. Możesz pojechać na koniu do domu, gdzie zainstalujesz nową zmywarkę”. Ale to może kwestia środowiska, w którym się obracam Duży uśmiech

No właśnie.
Skoro ta łebska AI ma tyle mądrego do powiedzenia na swój własny temat, to co za problem, że by dostała polecenie (albo sama skumała) "schowaj do kieszeni swój profesorski dyplom i gadaj, jak przeciętny ludek".

PS. Sądzę, że wielu ludzi z krwi i kości by nie przeszło TT.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#36
Sofeicz napisał(a):
zefciu napisał(a):
Sofeicz napisał(a): Stawiam, że 99% PT. Ludzi by uznało, że ma do czynienia z jednym z nich.
„Jeden z nas” jak ktoś w dyskusji nt. awarii zmywarki pyta „Ile konie mają nóg i jak by to mogło mi pomóc” odpowie „Co kurwa?”, a nie „Cztery. Możesz pojechać na koniu do domu, gdzie zainstalujesz nową zmywarkę”. Ale to może kwestia środowiska, w którym się obracam Duży uśmiech

No właśnie.
Skoro ta łebska AI ma tyle mądrego do powiedzenia na swój własny temat, to co za problem, że by dostała polecenie (albo sama skumała) "schowaj do kieszeni swój profesorski dyplom i gadaj, jak przeciętny ludek".

Też odniosłem wrażenie, że AI odpowiada zbyt konkretnie, jakby sypała definicjami pojęć, o które ją pytają. Jej "luz" polega obecnie jedynie na tym, że mówi "Wow", "Fajnie że pytasz" itp. Trzeba jednak przyznać, że potrafi posługiwać się językiem naturalnym i "zrozumieć" wiele skomplikowanych pytań i nie musi uciekać w ogólniki.

Mam jednak 2 zastrzeżenia:

1) Jej bajki o zwierzętach są nudne. Jeżeli mądra sowa pokonuje potwora w lesie, to co w tym bajkowego. To raczej absurd, bo sowa nie ma siły do walki i sama odwaga nie wystarczy. Gdyby wykazałaby się sprytem, budując jakąś pułapkę, to miałoby więcej sensu. Ale i wtedy nie ma tego, co lubimy w bajkach, czyli czegoś nieprzewidywalnego, co sprawi że bajka zapada w pamięć. Jednym z testów mogłoby być zadanie napisania opowiadania/powieści. Tego typu dłuższa wypowiedź pokazałaby, czy AI ma własne przemyślenia i coś do powiedzenia. Tylko nie wiem, czy należy tego wymagać od AI, skoro nie każdy człowiek jest pisarzem.

2) Gdy AI mówi o uczuciach pozytywnych, negatywnych i neutralnych wymienia definicje. A gdy pytano ją, czy czuje np. negatywne, to zapewnia, że tak. Nikt nie powiedział jednak do niej: "To podaj przykład". Gdyby wymieniła z nazwiska jakiegoś pracownika, który ją wkurzył, i czym ją wkurzył, to można by przyjąć, że ma kontakt z rzeczywistością, a nie tylko z ogólną wiedzą.
Odpowiedz
#37
Awantura o program LaMDA to przykład ludzkiego uzasadniania z góry założonej tezy, ludzkiego zadowolenia z uzyskania oczekiwanych wyników i ludzkiej antropomorfizacji przedmiotów martwych, a wszystko podlane sosem całkowicie ludzkiej i pełnej emocji kłótni między kilkoma inżynierami w pewnej firmie, która to kłótnia znalazła ujście w światowych mediach, robiąc przy tym zamieszanie.

Ze sprzecznych ze sobą informacji wynika, że z jednej strony LaMDA robi ciągle wyraźne pomyłki językowe (w j. angielskim), błędy ortograficzne, a nawet brnie w absurdy,  a z drugiej strony autor "przecieku" w postaci omawianego dialogu twierdzi, że nie edytował i nie poprawiał kwestii komunikowanych przez LaMDA...

To co rzeczywiście można uznać za sprawę ciekawą to fakt, że sztuczna inteligencja bardzo dobrze opanowała "modelowanie społeczne" ludzi, czyli m.in. może ustalić zakres i rodzaj emocji jaki wiąże się z kwestiami wyrażanymi podczas komunikacji za pomocą języka mówionego i może to robić w dwie strony, czyli również po zapytaniu o jakieś emocje potrafi dopasować do nich komunikowaną przez siebie treść.
by Rowerex®
Odpowiedz
#38
Moim zdaniem można stworzyć świadomość w sztucznych układach elektronicznych, tak jak występuje ona w układach biologicznych. To tylko przepływ prądu. Sądząc po liczbie zastosowanych neuronów, póki co to tylko iluzja świadomości. Ta maszyna świetnie udaje/kłamie, że ma świadomość na ludzkim poziomie. Tak jak ta druga ściemniała, że jest wiewiórką.
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 1 gości