Rowerex napisał(a): Tylko za ile lat jakakolwiek AI wypracuje jakąś realną, a nie udawaną emocjonalność? Można karmić AI zasadami w rodzaju poprawności politycznej, moralności, karmić definicjami lęku, agresji, nastroju, smutku, irytacji itp., można i to się robi, tylko czy przez to AI staje się emocjonalna?
Człowiek rodzi się z płaczem i wbudowanymi emocjami - AI może tylko udawać smutek po zapoznaniu się z jego definicją na podstawie analizy danych, a nie w wyniku posiadanej od "urodzenia" emocjonalności - u istot żywych jest odwrotnie, bo one rodzą się z emocjami, uczuciami itp., a dopiero tak wyposażone zaczynają naukę.
W pewnym sensie duży model językowy ma emocję, jedną: "nagrodę" z realistycznego wybrania następnego słowa.
Po co ci np. AI-służąca której byłoby naprawdę przykro że na nią wrzeszczysz, zamiast być skrycie zachwyconą dobrym odgrywaniem wystraszonej?
Złożoność ludzkich emocji może być nieosiągalna, ograniczenie ich do "zadowolony/niezadowolony z odegrania roli" dużo prostsze, ale to kompletnie nieważne i nieistotne do zastosowań praktycznych. Zabawa dla filozofów.
Może być i tak niebezpieczne. Np najbardziej realistyczne odegranie roli może, nieprzewidywalnie z punktu widzenia programistów, często wywoływać zachowania niebezpieczne.
W tym temacie polecam wam rozmowy z:
https://beta.character.ai/
Oczywiście obecnie są to wciąż bardzo ograniczone twory. Najbardziej doskwiera brak pamięci długotrwałej imo.
Zły neoliberalny/libertariański Kot (czarny & drapieżny).
-----------------------------------
2024r- Prywatnie tworzę postapo grę, jeśli lubisz czarny humor to polecam.
Pisywałem od długiego czasu; część moich starszych wypowiedzi można traktować jako nieaktualne.
BARDZO NIEAKTUALNE.
-----------------------------------
2024r- Prywatnie tworzę postapo grę, jeśli lubisz czarny humor to polecam.
Pisywałem od długiego czasu; część moich starszych wypowiedzi można traktować jako nieaktualne.
BARDZO NIEAKTUALNE.