Przegląd prasy, rok 2056 - dział Ciekawostki:
Dwa pojazdy autonomiczne wyposażono w dwie różne sztuczne inteligencje i dano im zadanie przejechania min. 5000 km w ciągu kilku miesięcy i odwiedzenia 10 ustalonych miejsc w kolejności wybranej przez nie same. Wyniki okazały się zaskakujące:
- AI-1 przejechała wyznaczoną odległość, osiągnęła cele, ale zaliczyła stłuczkę, złapała dwa mandaty karne, przejechała kota, psa i cztery jeże, 5 razy wymusiła pierwszeństwo, 12 razy naruszyła inne przepisy o ruchu drogowym,
- AI-2 zatrzymała się po 50km i wygłosiła oświadczenie, że "ze względu na to, że infrastruktura drogowa jest zbudowana i oznakowana niezgodnie z przepisami prawa (w załączeniu pełna lista z uzasadnieniem), to odmawia dalszej jazdy, ponieważ jazda bez łamania prawa nie jest możliwa."
W celu dokonania oceny obu sztucznych inteligencji powołano dwie grupy sędziów: jedną składającą się z ludzi, drugą składającą się ze sztucznych inteligencji:
- ludzka grupa sędziów uznała, że AI-1 osiągnęła najwyższy poziom rozwoju, natomiast AI-2 nie nadaje się do dalszego rozwijania,
- tymczasem ocena grupy sędziów składającej się ze sztucznych inteligencji był odwrotna, a dodatkowo grupa ta ośmieliła się podważyć ludzkie pojęcie logiki i inteligencji.
;-)
Przeczytałem jakiś materiał marketingowy na temat samochodów autonomicznych (czy też półautonomicznych o bardzo dużym stopniu wyręczania kierowcy) i zastanowiła mnie bezkrytyczna wiara w to, że AI będzie "skutecznie zapobiegać ludzkim błędom" - no ale chwila, kto będzie definiował listę błędów do naprawiania i kto zapewni, że AI nie wygeneruje błędów własnych?
Żart napisany wyżej kolorem ma na celu pokazanie, że nie uda się uniknąć antropomorfizacji AI albo ogólnie "uzwierzęcenia" AI, ponieważ i tak wszystko zmierza ku temu, by AI radziła sobie z analizą otoczenia podobnie jak znane nam organizmy żywe w tym człowiek, a jeżeli miałaby sobie radzić lepiej, to to "lepiej" będzie ciągle bazowało na wzorcach wziętych z życia biologicznego na planecie Ziemia.
Jeżeli zaś AI stworzy własne zasady, które będą dla człowieka dziwne i nietypowe, bo niespotykane na tej planecie, to człowiek będzie miał z taką AI problem, bo nie będzie w stanie ocenić jej poziom rozwoju, skoro nie będzie żadnego odpowiednika i nie będzie z czym porównywać.
Dwa pojazdy autonomiczne wyposażono w dwie różne sztuczne inteligencje i dano im zadanie przejechania min. 5000 km w ciągu kilku miesięcy i odwiedzenia 10 ustalonych miejsc w kolejności wybranej przez nie same. Wyniki okazały się zaskakujące:
- AI-1 przejechała wyznaczoną odległość, osiągnęła cele, ale zaliczyła stłuczkę, złapała dwa mandaty karne, przejechała kota, psa i cztery jeże, 5 razy wymusiła pierwszeństwo, 12 razy naruszyła inne przepisy o ruchu drogowym,
- AI-2 zatrzymała się po 50km i wygłosiła oświadczenie, że "ze względu na to, że infrastruktura drogowa jest zbudowana i oznakowana niezgodnie z przepisami prawa (w załączeniu pełna lista z uzasadnieniem), to odmawia dalszej jazdy, ponieważ jazda bez łamania prawa nie jest możliwa."
W celu dokonania oceny obu sztucznych inteligencji powołano dwie grupy sędziów: jedną składającą się z ludzi, drugą składającą się ze sztucznych inteligencji:
- ludzka grupa sędziów uznała, że AI-1 osiągnęła najwyższy poziom rozwoju, natomiast AI-2 nie nadaje się do dalszego rozwijania,
- tymczasem ocena grupy sędziów składającej się ze sztucznych inteligencji był odwrotna, a dodatkowo grupa ta ośmieliła się podważyć ludzkie pojęcie logiki i inteligencji.
;-)
Przeczytałem jakiś materiał marketingowy na temat samochodów autonomicznych (czy też półautonomicznych o bardzo dużym stopniu wyręczania kierowcy) i zastanowiła mnie bezkrytyczna wiara w to, że AI będzie "skutecznie zapobiegać ludzkim błędom" - no ale chwila, kto będzie definiował listę błędów do naprawiania i kto zapewni, że AI nie wygeneruje błędów własnych?
Żart napisany wyżej kolorem ma na celu pokazanie, że nie uda się uniknąć antropomorfizacji AI albo ogólnie "uzwierzęcenia" AI, ponieważ i tak wszystko zmierza ku temu, by AI radziła sobie z analizą otoczenia podobnie jak znane nam organizmy żywe w tym człowiek, a jeżeli miałaby sobie radzić lepiej, to to "lepiej" będzie ciągle bazowało na wzorcach wziętych z życia biologicznego na planecie Ziemia.
Jeżeli zaś AI stworzy własne zasady, które będą dla człowieka dziwne i nietypowe, bo niespotykane na tej planecie, to człowiek będzie miał z taką AI problem, bo nie będzie w stanie ocenić jej poziom rozwoju, skoro nie będzie żadnego odpowiednika i nie będzie z czym porównywać.


