Osiris napisał(a): W skrócie - nie odniosłeś się do głównego argumentu: AI może wykonywać zadanie równie dobrze lub lepiej od człowiek ale nie potrzebuje do tego żadnego zrozumienia, co robi.
Zapewne. Problemem jest trudność zdefiniowania pojęcia 'rozumienia', a raczej 'metarozumienia' jako jakiegoś błogosławionego stanu oświecenia.
Cytat:W moim przekonaniu wiara w to, że dostaniemy podobny rezultat (czyli coś przypominającego ludzką inteligencję) używając innych materiałów, innego sposobu przekazywania danych i zupełnie innej sensoryki jest mżonką.
Chyba przyjmujemy inne definicje inteligencji i stąd wynika całe nieporozumienie.
Ale liczy się efekt. Jeżeli coś jest identyczne z oryginałem, to nim jest. Tak jak zapach ekstraktu dymu wędzalniczego jest nie do odróżnienia od oryginalnego dymu.
Mnie to wystarczy.
Cytat:Ale mózg przecież nie funkcjonuje w oparciu o logikę Boole'a. W ogóle nie wiadomo, czy nasz umysł działa w oparciu o jakąkolwiek logikę matematyczną. Skąd w zwiazku z tym wniosek, że algorytm sztucznej inteligencji wykorzystujący ten sposób "myślenia" osiągnie taki stopień rozwoju pozwalajacy stwierdzić: tak, ta istota jest inteligentna? Być może rozwiniemy AI, które przekroczy nas w każdej możliwej funkcjonalności ale nie będziemy w stanie jej (i ona nas) zrozumieć, gdyż będzie brakowało tego czynnika, którego nawet nie jesteśmy w stanie porządnie zdefiniować u siebie (świadomości).
Ale przecież nawet nasz 'gadzi mózg' funkcjonuje w pewnych sprzężeniach, które pozwalają wyodrębniać obiekty, przypisywać je do określonych zbiorów i działać na nich.
Pozwala to odróżnić pokarm od trucizny, wroga od przyjaciela, ocenić zagrożenie etc.
Gdyby to rozłożyć na czynniki pierwsze, to Mister Boole by się w tym odnalazł.
Inaczej cała kosztowna inwestycja ewolucyjna w posiadanie tak energożernego organu byłaby bez sensu.
A nas Łódź urzekła szara - łódzki kurz i dym.