Ayla Mustafa napisał(a):Zamysł zamysłem, ale realizacja praktyczna rozbija się o ewentualne roszczenia prawne. Np. w warunkach użytkowania AI od OpenAI jest zapis, że OpenAI nie odpowiada za pewne szkody jakie użytkownikowi może wyrządzić AI, użytkownik z automatu zrzeka się pewnych praw, czyli godzi się na ich ograniczenie w odniesieniu do pozwów, odszkodowań itp. Ale jest też zapis, że wg niektórych lokalnych przepisów prawa niektóre z tych ograniczeń nie są dopuszczalne. Do tego kwestia bezpieczeństwa danych użytkowników, ochrona praw autorskich itp, itd.Mapa Burzowa napisał(a):Ayla Mustafa napisał(a): Wszystkie główne modele AI:Pewne modele udostępnione do publicznego użytku. Ta dostępność ma swoje skutki.
Jakie to są "skutki"?
Nawet z Groka od Muska, który miał w zamyśle Elona walczyć z "polityczną poprawnością", skończył jako postępowiec.
Dostawca publicznej AI musi chronić siebie przed roszczeniami, skutkiem tego publiczni użytkownicy otrzymują dostęp do, mówiąc brutalnie, utemperowanej, uładzonej i życzliwej sztucznej inteligencji, odmawiającej pewnych poleceń, unikającej pewnych kwestii. A czy można to nazwać "polityczną poprawnością", to już kwestia definicji. Można stworzyć własne modele łamiące dowolne prawo, ale nie wpłyną one na publicznie dostępne wersje AI, bo modele są dla bezpieczeństwa wzajemnie izolowane.
Nie istnieje dostępna publicznie AI puszczona "samopas", czyli szkolona publicznie przez wszystkich dowolnymi treściami i korzystająca ze wszystkich zasobów internetu. To, że AI w formie chatów ma "dostęp do internetu" jest najczęściej nadinterpretowywane, bo ten dostęp jest dużo bardziej ograniczony niż się wydaje.
