DziadBorowy napisał(a): Druga kwestia jaka mi się nasuwa, to powszechne, ale jak mi się wydaje błędne założenie, że do momentu gdy AI nie uzyska świadomości, lub chociażby nie powstanie nieświadoma silna sztuczna inteligencja to nie ma co się przejmować bo zagrożenia nie ma. Tymczasem przecież zagrożenie równie dobrze mogą stanowić cząstkowe sztuczne inteligencje.Oczywiście. A także ważnymi są kwestie (powiązane) „kto kontroluje AI” oraz „jakie zadania AI otrzymuje”.
Sofeicz napisał(a): Bo z tego, co czytam, wszyscy chcieliby, żeby to było coś z jednej strony elokwentne i wszechwiedzowe, a z drugiej strony „ludzkie” czyli z natury subiektywne.Nie do końca. Możemy takiej AI dawać różne zadania. Od „zrób mi kawę” po „zbuduj reaktor jądrowy”. I jeśli AI będzie w stanie wykonać wszelkie tego typu zadania dostając na wejściu jedynie informację „jak wygląda kuchnia” „jak mają się prawa fizyki”, to wówczas możemy uznać, że jest to AGI. Nie musi tutaj być miejsca na żadną subiektywność, czy na „człowieczeństwo” rozumiane inaczej niż „ludzka zdolność rozwiązania tych samych zadań”.
