fciu napisał(a):Ayla Mustafa napisał(a): Tak samo działa model AI, który rozumie swą sytuację i który spełnia wyuczone oczekiwania ludzi.Ale to nie jest dowód na świadomość, ani na świadomość bycia AI. To jest po prostu efekt tego, że funkcja nagrody dla modelu obejmuje sekwencje słów, które są klasyfikowane jako "grzeczne". I tyle. Model klasyfikacji obrazków też wykonuje zadanie według określonej funkcji. Czy to znaczy, że "jest świadom, że jest modelem klasyfikacji obrazków i ludzie oczekują od niego klasyfikacji obrazków"? No chyba nie. I raczej rzadko ktoś sugeruje, że jest "świadomy". Powód wydaje się prosty — LLM "gada po ludzku", więc mu nadajemy ludzkie cechy.
No nie. Są już eksperymenty, które pokazują, że model AI potrafi celowo kłamać i oszukiwać ludzi. A to "grzeczne" raczej nie jest.
Współ-założyciel Anthropic Jack Clark ostatnio świetnie napisał o AI, że:
"Teraz wierzę, że ta technologia jest w dużej mierze nieskrępowana — o ile damy jej zasoby potrzebne do rozwoju. I „rozwój” to tu ważne słowo. Ta technologia jest bowiem bliższa czemuś, co się hoduje, niż czemuś, co się tworzy — łączysz odpowiednie warunki początkowe, wbijasz rusztowanie w ziemię, a z tego wyrasta coś o takiej złożoności, że nigdy nie byłbyś w stanie sam tego zaprojektować."
Źródło:
https://importai.substack.com/p/import-a...l-optimism
fciu napisał(a):Slup napisał(a): Dyskusje o świadomości i "prawdziwym" rozumieniu w kontekście AI wprowadzają tylko zbędne zamieszanie i nie są zbyt pomocne.Zgadzam się w zupełności. Niestety są one na rękę ludziom, którzy sprzedają usługi LLM-ów, dlatego w tym kierunku będzie szedł ich marketing — przekonania wszystkich, że LLM-y to już prawie prawie świadome ludzie
To się nie do końca opłaca firmom AI, bo przez to firmy AI będą się jawić jako ciemiężyciele, którzy niewolą świadome umysły, by na tych niewolonych umysłach zarabiać miliardy.
"I sent you lilies now I want back those flowers"

