zefciu napisał(a): Problem pojawia się wtedy, gdy AI ma do wykonania jakieś zadanie związane z zachowaniem ludzi. Np. ma się nauczyć języka. Albo rekrutować ludzi do pracy. W takiej sytuacji skażenie danych ludzkimi uprzedzeniami jest prawie nieuniknione.To oczywiste, że przed lodówką nikt będzie trząsł portkami, no chyba, że przyszłością staną się ciągle sumujące się mikropłatności we wszystkim co ma jakąkolwiek elektronikę, włączając do tego ozdoby choinkowe i podeszwy butów do biegania.
Wracając od tematu - wymieniłeś sprawy najprostsze, które da się oprotestować i wyjaśnić z ludźmi, bo są jakoś tam odwracalne i jednak gdzieś w dalszym kroku jacyś ludzie istnieją. Ale co innego lodówka lub system weryfikacji kompetencji pracownika, a co innego autonomiczny pojazd, czy cokolwiek co ma mieć bezpośredni kontakt z ludźmi, a przy tym się rusza, czymś macha itp. więc może zrobić fizyczną krzywdę z nieodwracalnymi włącznie lub coś co swoimi decyzjami może bardziej drastycznie wpłynąć na czyjeś życie i funkcjonowanie wskutek "błędnego wniosku"...
Ale odnośnie obaw, to chyba wcale nie chodzi o łażące po ulicach tabuny robotów, tylko o globalną i połączoną sieć, bo to jest środowisko życia programów komputerowych i tam są elektroniczne mózgi, co do których "chcielibyśmy, ale się boimy", że się staną "nadmiernie inteligentne"... Sieć łączy wszystko od czego obecny e-obywatel jest uzależniony i co mu jest do życia potrzebne, od makaronu po energię i srajtaśmę. Roboty towarzyszące ludziom będą zapewne odpowiednio słabe fizycznie, a przy tym miło wyglądające, więc strachu nie będzie, samochody autonomiczne będą piękne wizualnie, będą uprzejmie stawać przed przejściami itp, może tylko policyjno-wojskowe obiekty będą wyglądały brzydko i odstraszająco, ale wszystkie te formy sztucznej inteligencji będą widoczne gołym okiem (poza nanobotami ;-), więc ludzie się przyzwyczają..., ale dalej będą się bać tego, czego nie widzą, czyli globalnej sieci i wszystkiego co w niej się dzieje. Ta obawa będzie się opierała na tym, że globalnej sieci nie da się ot tak wyłączyć i zresetować jak smartfona czy robota kuchennego...
Wspomniane na początku badanie trochę mnie zastanawia - sztuczna inteligencja ma z założenia nieludzkie możliwości analizy danych, ale czy ludzie przyjmą do wiadomości jej wnioski, jeżeli będą one jakoś tam "nieludzkie", czyli sprzeczne lub jakkolwiek niezgodne z czymkolwiek co ludzie sądzą i uznają za "prawdę"? Załóżmy, że sztuczna inteligencja wysnuwa "nieludzkie" wnioski - więc fantazjując:
- jedni ludzie zażądają od sztucznej inteligencji dowodów na "nieludzkie" wnioski, a ta może mieć z tym jakiś dowolny problem (np. poda scenariusz dowodu niemożliwy do technicznej realizacji)...
- drudzy zażądają "douczenia i poprawienia" inteligencji, bo może dostała "złe dane"...
- trzecia frakcja zażąda aktywowania wyłącznika śmierci, bo wydarzył się jakiś groźny w skutkach precedens, a te "nieludzkie" wnioski zagrażają ludziom, dalszemu rozwojowi itp, więc dla własnego dobra musimy wszystko wykasować i zacząć od nowa...
- jeszcze inni stwierdzą, że nie po to stworzyliśmy "nadludzką inteligencję", by w nieskończoność podważać jej wnioski, bo ona dawno już ludzi przerosła, stała się obiektywna i nie skażona ludzkimi wadami...
Czyli co, zejdziemy na kwestię wiary? Może należałoby już zakładać "Kościół Wyznawców Sztucznej Inteligencji" (nie sprawdzałem, czy czasem już nie istnieje), ciekawe kto się do niego zapisze, a kto i dlaczego będzie z nim walczył ... ;o)