Slup napisał(a): Nie wszystkie nietrywialne problemy dotyczące maszyny pracującej wsadowo są nierozstrzygalne. Nierozstrzygalne są tylko te, które mają charakter semantyczny w ściśle matematycznym znaczeniu – twierdzenie Rice'a uznaje dwa programy za równoważne, jeśli obliczają te samą "czystą funkcję". Np. jeśli dane się dwa programy (wsadowe) i oba uruchomione na danej maszynie obliczają tę samą funkcję, ale jeden przy okazji tych obliczeń manipuluje rejestrami maszyny połączonymi z serwerami wojskowymi i po wykonanych obliczeniach, ale przed zwróceniem wyniku, przywraca je do stanu sprzed tych manipulacji, to z punktu widzenia rozważanej tu semantyki programy są jednakowe. Nie zmienia tego fakt, że manipulacje jednego z programów mogą doprowadzić do wybuchu wojny światowej.No nie. Taka próba modelowania realnego komputera podłączonego do sieci przy pomocy MT nie ma sensu. Bowiem MT jest modelem zamkniętym, który niczym zewnętrznym nie manipuluje. Jeśli zatem chcesz stworzyć sensowny model, to będzie to MT, która:
1. Ma pewien stan początkowy
2. Jest uruchamiana
3. Po wykonaniu operacji HALT, na taśmie są zapisane jakieś pakiety sieciowe, który wysyłamy
4. Odbieramy pakiety z sieci
5. Zapisujemy je na taśmie maszyny
6. GOTO 2
W ten sposób twierdzenie Rice'a pokazuje, że każdy pakiet, jaki generuje maszyna może być nierozstrzygalny i może teoretycznie prowadzić do zagłady ludzkości.
Ale to oczywiście nie jest jedyny powód, dla którego potencjalną AGI musimy uznać za nieprzewidywalną.
Pierwszy jest praktyczny — już teraz genAI, któremu do AGI pewnie wiele brakuje jest nieprzewidywalne i w praktyce badane jest na sposób empiryczny. Nikt nie umie praktycznie przewidzieć, co napisze LLM, albo co namaluje model dyfuzyjny.
Drugi wynika z samej definicji AGI. AGI to przecież taka AI, która wykonuje wszystkie zadania ludzkie przynajmniej tak dobrze jak człowiek. Więc jeśli ktoś jest w stanie przewidzieć, jak zachowa się AGI, to jest przynajmniej geniuszem, który posiadł wszystkie zdolności dane ludziom. Biorąc zaś pod uwagę, że już teraz AI w pewnych dziedzinach człowieka przewyższa, to potencjalna AGI też będzie. No a jeśli umiem przewidzieć jak zachowa się AlphaGo Zero, to znaczy, że umiem grać w Go tak jak AlphaGo Zero.

