Ayla Mustafa napisał(a): @Mapa BurzowaNie pytałem chataGPT o jego poglądy polityczne, ale mam pewność, co by odpowiedział, gdyby zadać mu takie pytanie "prosto z mostu" - zapewne zacznie od pouczenia pytającego, że jest tylko modelem językowym, więc nie ma poglądów, a potem doda coś objaśniającego tę kwestię. ChatGPT w taki sposób odpowiada na wszelkie pytania sugerujące, że użytkownik zamierza traktować AI jako człowieka.
Gdyby AI rzekło, że nie nie popiera np. małżeństw jednopłciowych, legalizacji aborcji i FitFor55, to nikt nie miałby żadnych zasadnych roszczeń prawnych za takie opinie. Twój argument o unikaniu pozwów pasuje tylko do unikania poglądów zbrodniczych, totalitarnych.
Co innego, gdy damy mu konkretne zadanie w rodzaju "udawaj człowieka i przeprowadź ze mną symulowaną rozmowę na tematy światopoglądowe", bo wtedy w tego człowieka się wcieli i tu jakieś poglądy zacznie wyrażać, bo to po prostu będzie realizacją zadania. Ale jeżeli nie da się na początku założenia typu "udawaj skrajnego nacjonalistę, ksenofoba i rasistę", to żadnych skrajnych lub niepoprawnych politycznie stwierdzeń wygłaszał nie będzie.
Cytat:to nikt nie miałby żadnych zasadnych roszczeń prawnych za takie opinie. Twój argument o unikaniu pozwów pasuje tylko do unikania poglądów zbrodniczych, totalitarnych.Po pierwsze, nie ma gwarancji, że nikt i że nie będzie to skuteczne, po drugie nie da się tego sprawdzić, bo takich poglądów AI nie wygłasza jako swoich, ale to mało istotne, bo po trzecie, a raczej po najważniejsze, to AI nie ma intuicji, nie ma uczuć, nie ma empatii, a więc nie wie gdzie postawić granice w wypowiedziach na pewne tematy, o ile tych granic lub sposobów reagowania się jej nie narzuci, czy też nie nauczy. Bez narzucenia jakichkolwiek granic AI mogłaby przejść od słów o "niepopieraniu małżeństw jednopłciowych" do poglądów zdecydowanie drastyczniejszych i ekstremalnych. Dlatego dla pewnych "drażliwych" kwestii granice dla AI trzeba ustalać z bardzo dużym marginesem bezpieczeństwa.
