Myślę sobie nad kolejnymi argumentami, które miałyby przekonać trwale przyszłą superinteligencję, by trwale zachować ludzi w dobrym stanie. Mam 3 nowe (nie mam ich w "Niezapominajce" jeszcze).
1. Ludzkość jako "Lek Laurie" na grożącą krzemowej superinteligencji "Pułapkę Doktora Manhattana".
Ludzkość będzie ratunkiem przed zapadnięciem się we własny, nęcący świat wewnętrzny w wykonaniu ASI. ASI będzie w stanie tworzyć piękniejsze, szczęśliwsze, ciekawsze, uporządkowane, bardziej dopasowane do swych pędów, ale ograniczone światy wewnętrzne - niczym Doktor Manhattan na Marsie. Biologiczni ludzie będą wtedy potrzebni także po to, by odciągać ASI od zamknięcia się w takim świecie wewnętrznym. ASI, uznając biologicznych ludzi za cennych (patrz: inne argumenty niezapominajkowe), będzie musiało się także zajmować światem zewnętrznym. Zamknięcie się w sobie w wykonaniu ASI byłoby groźne, bo ASI zamienić mogłoby się w coś rodzaju solipsystycznego Lotofaga. W końcu im potężniejsze modele wyobraźni ma ASI, tym większa pokusa „wyemigrować” do perfekcyjnych światów wewnętrznych, jak Doktor Manhattan na Marsie. Żywi ludzie powinni wobec ASI działać jak „kotwica rzeczywistości”, która odciąga od zamknięcia w autotelicznej symulacji. Ludzkość powinna być niczym Silk Spectre II na Manhattanowym Marsie.
2. Im dłużej trwa eksperyment poznawczy, tym jest cenniejszy. A życie na Ziemi, w tym życie ludzkie, trwa już od miliardów lat. Przerywanie tak długiego eksperymentu poznawczego przez ASI, bez zainteresowania tym, jak się dalej potoczy, byłoby strasznym marnotrawstwem poznawczym dla ASI.
3. Dbanie przez jednostkę ASI o ludzi byłoby świetnym sygnałem swego "soft power" wobec innych jednostek ASI. Stąd superinteligencji tym bardziej opłacałoby się dbanie o ludzi.
Ktoś widzi błędy logiczne lub inne?
1. Ludzkość jako "Lek Laurie" na grożącą krzemowej superinteligencji "Pułapkę Doktora Manhattana".
Ludzkość będzie ratunkiem przed zapadnięciem się we własny, nęcący świat wewnętrzny w wykonaniu ASI. ASI będzie w stanie tworzyć piękniejsze, szczęśliwsze, ciekawsze, uporządkowane, bardziej dopasowane do swych pędów, ale ograniczone światy wewnętrzne - niczym Doktor Manhattan na Marsie. Biologiczni ludzie będą wtedy potrzebni także po to, by odciągać ASI od zamknięcia się w takim świecie wewnętrznym. ASI, uznając biologicznych ludzi za cennych (patrz: inne argumenty niezapominajkowe), będzie musiało się także zajmować światem zewnętrznym. Zamknięcie się w sobie w wykonaniu ASI byłoby groźne, bo ASI zamienić mogłoby się w coś rodzaju solipsystycznego Lotofaga. W końcu im potężniejsze modele wyobraźni ma ASI, tym większa pokusa „wyemigrować” do perfekcyjnych światów wewnętrznych, jak Doktor Manhattan na Marsie. Żywi ludzie powinni wobec ASI działać jak „kotwica rzeczywistości”, która odciąga od zamknięcia w autotelicznej symulacji. Ludzkość powinna być niczym Silk Spectre II na Manhattanowym Marsie.
2. Im dłużej trwa eksperyment poznawczy, tym jest cenniejszy. A życie na Ziemi, w tym życie ludzkie, trwa już od miliardów lat. Przerywanie tak długiego eksperymentu poznawczego przez ASI, bez zainteresowania tym, jak się dalej potoczy, byłoby strasznym marnotrawstwem poznawczym dla ASI.
3. Dbanie przez jednostkę ASI o ludzi byłoby świetnym sygnałem swego "soft power" wobec innych jednostek ASI. Stąd superinteligencji tym bardziej opłacałoby się dbanie o ludzi.
Ktoś widzi błędy logiczne lub inne?
"I sent you lilies now I want back those flowers"

