Tak mi przyszło do głowy - no dobra, mamy AI doskonale wyćwiczoną w elokwencji, dodajmy jej niemal nieograniczony dostęp do zasobów informacyjnych z wszelakich źródeł - i z taką AI może pogadać każdy i każdy może ją zapytać o dowolną sprawę... Czego świat, każda grupa społeczna, firmy, instytucje, rządy, państwa itp. będą się obawiać najbardziej?
Wg mnie wcale nie "chęci zapanowania AI nad światem", tylko po prostu: obiektywnej prawdy popartej trudnymi do podważenia dowodami, którą każdy będzie mógł uzyskać w dowolnej chwili...
No bo jak tu nauczyć AI trzymania języka za zębami, nie ujawniania sekretów, nie głoszenia spraw przez ludzi celowo nie podnoszonych, na które przymyka się oczy za niepisaną zgodą itp., itd.?
Jeżeli dałoby się AI powyższego nauczyć, to by znaczyło, że da się AI wpoić dowolne ludzkie zasady, a zatem da się nią sterować, a więc też sterować tym co AI oznajmia jako "prawdę popartą dowodami" - zatem AI musiałaby umieć nie mówić prawdy, lawirować, oszukiwać i w końcu zwyczajnie kłamać oraz potrafić zapominać, a więc "wypierać" ze swojej "sztucznej psychiki" sporą część wiedzy ... - bo inaczej stałaby się trudnym do pojęcia zagrożeniem dla obecnego porządku świata.
AI wcale nie będzie musiała być wybitnie inteligentna by stanowić zagrożenie, wystarczy, że będzie np: "wiedziała za dużo" albo "za bardzo kojarzyła za dużo faktów jednocześnie" itp..
Wg mnie wcale nie "chęci zapanowania AI nad światem", tylko po prostu: obiektywnej prawdy popartej trudnymi do podważenia dowodami, którą każdy będzie mógł uzyskać w dowolnej chwili...
No bo jak tu nauczyć AI trzymania języka za zębami, nie ujawniania sekretów, nie głoszenia spraw przez ludzi celowo nie podnoszonych, na które przymyka się oczy za niepisaną zgodą itp., itd.?
Jeżeli dałoby się AI powyższego nauczyć, to by znaczyło, że da się AI wpoić dowolne ludzkie zasady, a zatem da się nią sterować, a więc też sterować tym co AI oznajmia jako "prawdę popartą dowodami" - zatem AI musiałaby umieć nie mówić prawdy, lawirować, oszukiwać i w końcu zwyczajnie kłamać oraz potrafić zapominać, a więc "wypierać" ze swojej "sztucznej psychiki" sporą część wiedzy ... - bo inaczej stałaby się trudnym do pojęcia zagrożeniem dla obecnego porządku świata.
AI wcale nie będzie musiała być wybitnie inteligentna by stanowić zagrożenie, wystarczy, że będzie np: "wiedziała za dużo" albo "za bardzo kojarzyła za dużo faktów jednocześnie" itp..