To forum używa ciasteczek.
To forum używa ciasteczek do przechowywania informacji o Twoim zalogowaniu jeśli jesteś zarejestrowanym użytkownikiem, albo o ostatniej wizycie jeśli nie jesteś. Ciasteczka są małymi plikami tekstowymi przechowywanymi na Twoim komputerze; ciasteczka ustawiane przez to forum mogą być wykorzystywane wyłącznie przez nie i nie stanowią zagrożenia bezpieczeństwa. Ciasteczka na tym forum śledzą również przeczytane przez Ciebie tematy i kiedy ostatnio je odwiedzałeś/odwiedzałaś. Proszę, potwierdź czy chcesz pozwolić na przechowywanie ciasteczek.

Niezależnie od Twojego wyboru, na Twoim komputerze zostanie ustawione ciasteczko aby nie wyświetlać Ci ponownie tego pytania. Będziesz mógł/mogła zmienić swój wybór w dowolnym momencie używając linka w stopce strony.

Ocena wątku:
  • 0 głosów - średnia: 0
  • 1
  • 2
  • 3
  • 4
  • 5
Zakazać inteligentnej broni?
#1
Wklejam artykuł o apelu postulującym zaprzestanie badań i wdrażania autonomicznej (czytaj inteligentnej) broni.
Ogólnie to jest debata nad zagrożeniami płynącymi ze spodziewanego pojawienia się AI (powiedzmy!)

http://wiadomosci.onet.pl/swiat/naukowcy...ymi/ss9xr0

Co sądzicie na ten temat?

Rodzi się współczesny ludyzm?
Mądry przed szkodą?
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#2
Niby w tych obawach jest coś na rzeczy ale jak tak stawiam siebie na miejscu osoby władającej jakimś państwem to wcale nie wzbraniałbym się przed tym aby takie technologie rozwijać i ich używać. Istotnym byłoby to aby dysponować tym samym co He-Man:

"Łatwo jest mówić o Polsce trudniej dla niej pracować jeszcze trudniej umierać a najtrudniej cierpieć"
NN
Odpowiedz
#3
Nie widzę w autonomicznych dronach wojskowych nic złego.
To ma jakoś uwłaczać człowieczeństwu, że ludzi nie będą już tylko zabijać ludzie ale i maszyny?
Co do samej sztucznej inteligencji, to tak, pewnie będzie co raz mądrzejsza i ktoś ją uwolni jak jakiegoś wirusa.
Jeżeli taka superinteligencja może istnieć to prędzej czy później powstanie, rozłupie "ludzką skorupkę" i się wykluje.
Jak to może przebiegać to widzieliśmy już w serialu Person of Interest.
Zamierzam stworzyć mężczyznę i kobietę z grzechem pierworodnym. Następnie zamierzam zapłodnić kobietę samym sobą, tak abym mógł się narodzić. Będąc człowiekiem, zabiję się w ramach ofiary dla samego siebie aby ocalić Cię od grzechu na który Cię początkowo skazałem... TA DA!!!
Odpowiedz
#4
Jak nie "my" to wymyśli ktoś inny i będzie miał przewagę. Niestety.
Gdyby dało się ludzi kontrolować (i potencjalnych kosmicznych najeźdźców) to warto by zarządzić wszech-pokój i wywalić całą broń do kosza. Ale to nierealne.
Odpowiedz
#5
Podstawowe pytanie, to jak w czasach, gdy komputery wsadza się wszędzię zdefiniować "inteligentną broń" w jakiś racjonalny sposób. Frankowi Herbertowi w latach 60 ubiegłego wieku mogło się wydawać możliwe zakazanie "myślących maszyn". Dzisiaj już z tym gorzej.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#6
magicvortex napisał(a): Jak nie "my" to wymyśli ktoś inny i będzie miał przewagę. Niestety.
Gdyby dało się ludzi kontrolować (i potencjalnych kosmicznych najeźdźców) to warto by zarządzić wszech-pokój i wywalić całą broń do kosza. Ale to nierealne.

Potencjalnych kosmicznych najeźdźców póki co nie widać, więc roboty jest mniej. Chociaż moim zdaniem to nie trzeba ludzi kontrolować, tylko ludzie sami siebie powinni kontrolować. W każdym razie pomysł masz bardzo fajnyUśmiech nawet jeśli w tym momencie nierealny.

Teoretycznie mamy ONZ i lecą rezolucje rozbrojeniowe. To taki światowy policjant od zadym. Jeszcze trochę trzeba jednak popracować...


zefciu

Cytat:Podstawowe pytanie, to jak w czasach, gdy komputery wsadza się wszędzię zdefiniować "inteligentną broń" w jakiś racjonalny sposób.

Tu chyba chodzi o to, że decyzję o zabiciu podejmuje maszyna. Samo wspomaganie np. myśliwca/rakiety/wyrzutni systemami komputerowymi jeszcze się nie zalicza.
Może mała różnica, czy zabije cię maszyna, czy człowiek, ale gdy zaczną to robić maszyny to już będzie kompletne zdziczenie. Takie dreszcze miał już scenarzysta Terminatora w latach 80.

Ja akurat wyznaję pogląd, że życie ludzkie jest czymś najcenniejszym co można sobie wyobrazić. Ludzie to nie śmieci do likwidacji. Dlatego sugerowałbym, że wymyślanie czegoś tak szkodliwego jak inteligentna broń powinno być potępiane, a wobec osób tym się zajmujących powinno się wyciągać konsekwencje prawne.
Odpowiedz
#7
Ciekawe czy dałoby się implementować w 'mózgach' tych futurystycznych broni coś na kształt rycerskiego kodeksu honorowego?
Na przykład oszczędzenie przeciwnika rannego, uszkodzonego czy poddającego się.
Przy pełnej robologice zorientowanej na maksymalną przewagę, to raczej byłoby wątpliwe przedsięwzięcie.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#8
Jaques napisał(a):
magicvortex napisał(a): Jak nie "my" to wymyśli ktoś inny i będzie miał przewagę. Niestety.
Gdyby dało się ludzi kontrolować (i potencjalnych kosmicznych najeźdźców) to warto by zarządzić wszech-pokój i wywalić całą broń do kosza. Ale to nierealne.

Potencjalnych kosmicznych najeźdźców póki co nie widać, więc roboty jest mniej. Chociaż moim zdaniem to nie trzeba ludzi kontrolować, tylko ludzie sami siebie powinni kontrolować. W każdym razie pomysł masz bardzo fajnyUśmiech nawet jeśli w tym momencie nierealny.

Teoretycznie mamy ONZ i lecą rezolucje rozbrojeniowe. To taki światowy policjant od zadym. Jeszcze trochę trzeba jednak popracować...


zefciu


Cytat:Podstawowe pytanie, to jak w czasach, gdy komputery wsadza się wszędzię zdefiniować "inteligentną broń" w jakiś racjonalny sposób.

Tu chyba chodzi o to, że decyzję o zabiciu podejmuje maszyna. Samo wspomaganie np. myśliwca/rakiety/wyrzutni systemami komputerowymi jeszcze się nie zalicza.
Może mała różnica, czy zabije cię maszyna, czy człowiek, ale gdy zaczną to robić maszyny to już będzie kompletne zdziczenie. Takie dreszcze miał już scenarzysta Terminatora w latach 80.

Ja akurat wyznaję pogląd, że życie ludzkie jest czymś najcenniejszym co można sobie wyobrazić. Ludzie to nie śmieci do likwidacji. Dlatego sugerowałbym, że wymyślanie czegoś tak szkodliwego jak inteligentna broń powinno być potępiane, a wobec osób tym się zajmujących powinno się wyciągać konsekwencje prawne.

A co niby takiego najbardziej wartosciowego jest w ludzkim zyciu? Jakbym mial do wyboru uratowac zycie mojego psa lub zycie takiego np. Tuska lub Komorowsmiego to nie wachalbym ani chwili.
---
Najpewniejszą oznaką pogodnej duszy jest zdolność śmiania się z samego siebie. Większości ludzi taki śmiech sprawia ból.

Nietzsche
---
Polska trwa i trwa mać
Odpowiedz
#9
Piłsudski powiedział "chcieć to móc". Rosiewicz zaś przerobił na "móc to chcieć". Ja myślę, że takie apele są zupełnie pozbawione znaczenia i AI nadciąga absolutnie nieuchronnie tyle, że jak ze wszystkim będzie inaczej niż ktokolwiek może sobie wyobrazić. 
Odpowiedz
#10
Ja bym nie zakazywał, bo jestem pozytywnej myśli. Parę lat temu WikiLeaks wypuściła materiał, na którym kilkunastu żołnierzy przy pomocy ekwipunku za kilka milionów dolarów rozwala parę fotografów i wan z dziećmi, który przyjechał zabrać ich do szpitala. Wszystko dlatego, że aparaty fotograficzne wzięli za kałasze. Może inteligentny zabójca nie popełni takiego głupiego błędu? Jeśli nie teraz, to może za parę lat, kiedy technika pójdzie do przodu.

Poza tym, jak to technologia, AI pewnie szybko potanieje i rozprzestrzeni się. A to może oznaczać koniec umierania ludzi na wojnach - przy odpowiedniej cenie bardziej opłacalne będzie wystawianie do boju i tankowanie drona niż rekrutacja, szkolenie i opłacanie żywego, ludzkiego żołnierza. Dlatego sądzę że należy wspierać rozwój AI, a nie zatrzymywać.
Odpowiedz
#11
El Commediante napisał(a): Poza tym, jak to technologia, AI pewnie szybko potanieje i rozprzestrzeni się. A to może oznaczać koniec umierania ludzi na wojnach - przy odpowiedniej cenie bardziej opłacalne będzie wystawianie do boju i tankowanie drona niż rekrutacja, szkolenie i opłacanie żywego, ludzkiego żołnierza. Dlatego sądzę że należy wspierać rozwój AI, a nie zatrzymywać.

Teraz ludzie zabijają ludzi, a w Twojej wizji maszyny zabijają maszyny. Niby lepiej, ale jaki w tym sens? Rozwój techniczny wyprzedza niejako ten intelektualny. Potrafimy stworzyć komputery i roboty, a nie potrafimy dogadać się z innymi. Dla mnie to żałosneSmutny

lumberjack


Cytat:A co niby takiego najbardziej wartosciowego jest w ludzkim zyciu? Jakbym mial do wyboru uratowac zycie mojego psa lub zycie takiego np. Tuska lub Komorowsmiego to nie wachalbym ani chwili.

Każdy człowiek może się zmienić i każdy kogo się spotka może zostać naszym przyjacielem. Mnie się również nie podobają działania niektórych ludzi/polityków. Ale właśnie to działania są niepoprawne (w mojej ocenie), natomiast sami ludzie wymagają normalnego ludzkiego traktowania. Nie życzyłbym śmierci nikomu.
Odpowiedz
#12
A ja życzę śmierci mordercom, ludziom takim jak Trynkiewicz. Normalne ludzkie traktowanie powinno polegać na kuli w łeb dla takiego jegomościa.

Cytat:Każdy człowiek może się zmienić

Spoko, zgadzam się. Trynkiewicz powinien się już zmienić w gnijącego w ziemi trupa.

Cytat: Mnie się również nie podobają działania niektórych ludzi/polityków. Ale właśnie to działania są niepoprawne (w mojej ocenie)

Yhym, rozumiem. Ale dlaczego uważać, że życie ludzkie jest czymś najcenniejszym? Nie życzę śmierci Tuskowi, ale jeśli miałbym do wyboru jego życie lub życie mojego psa, to bez wahania wybrałbym życie mojego psa. Jest o wiele wartościowszą istotą niż Tusk.
---
Najpewniejszą oznaką pogodnej duszy jest zdolność śmiania się z samego siebie. Większości ludzi taki śmiech sprawia ból.

Nietzsche
---
Polska trwa i trwa mać
Odpowiedz
#13
lumberjack napisał(a): A ja życzę śmierci mordercom, ludziom takim jak Trynkiewicz. Normalne ludzkie traktowanie powinno polegać na kuli w łeb dla takiego jegomościa.

Jestem za zapobieganiem morderstwom. Jeżeli ktoś je popełnia, to na pewno trzeba go odizolować, żeby nie było kolejnych nieszczęść. A po zwolnieniu nadzorować, z tych samych powodów.

Co do karania i to tak drastycznego, to jestem przeciwny. Również odcinania dłoni, chłosty, przypalania itp. nie uważam za odpowiedni sposób postępowania. Już wyjaśniam o co chodzi. Są dwie możliwości:
a) człowiek taki jest chory psychicznie i nie może świadomie odpowiadać za to, co robi
b) człowiek ten jest zdrowy na umyśle. W tym przypadku wyrzuty sumienia, które odczuje, są dla niego karą. Zamiast mścić się na nim, lepiej żeby pracował i pieniądze przeznaczał dla poszkodowanych lub dla pożytku publicznego

W przypadku, o którym piszesz, mamy zapewne do czynienia z sytuacją a).


Cytat:Ale dlaczego uważać, że życie ludzkie jest czymś najcenniejszym? Nie życzę śmierci Tuskowi, ale jeśli miałbym do wyboru jego życie lub życie mojego psa, to bez wahania wybrałbym życie mojego psa. Jest o wiele wartościowszą istotą niż Tusk.

Takiego wyboru nie będziesz musiał przeprowadzać. Ale ok, załóżmy, że się zdarzyło. Czy myślisz, że masz prawo dokonywać takich wyborów? Przekornie mówiąc, a może to Tusk powinien wybrać między chomikiem a Tobą? Czujesz absurd tej sytuacji? Dla Ciebie pies jest ważny, bo z nim mieszkasz, codziennie dajesz michę itp. A Tuska nie spotkałeś ani razu. Czemu go oceniasz tak surowo, jeśli go nawet nie poznałeś?

Życie ludzkie jest cenne, ponieważ:
- człowiek może zostać twoim przyjacielem. Czy da się to czym innym zastąpić?
- sam jesteś człowiekiem. Czy cenisz swoje życie, czy nie?
- jeśli Ty nie będziesz cenił innych, to inni nie będą cenili Ciebie. Chciałbyś tego?
Odpowiedz
#14
Ciekawe spojrzenie na sprawę:
http://www.ted.com/talks/daniel_suarez_t...to_a_robot
All cognizing aims at "delivering a grip on the patterns that matter for the interactions that matter"
(Wszelkie poznanie ma na celu "uchwycenie wzorców mających znaczenie dla interakcji mających znaczenie")
Andy Clark

Moje miejsce na FB:
https://www.facebook.com/Postmoralno%C5%...1700366315
Odpowiedz
#15
Jeżeli drony będą walić w drony i automatyczne czołgi to zgoda. zamiast wojen z żywymi ludźmi zróbmy igrzyska robotów i wygrywający bierze wszystko. Jeśli roboty typu T1000 zaczna walic w ludzi to ciekawe jak odróżnia swoich od obcych. To możne się skończyć jak stosowanie chloru w I WŚ i oby sie tak skończyło. Kij ma dwa końce.
Roboty będa bez litości, i bez zastanowienia.
A i tak jak sie juz roboty wybija to przejdziemy na maczugi.

Ostatnio jest podobna dyskusja o samochodach inteligentnych , człowiek tylko siedzi i pacza co sie dzieje. No i jest dylemat: na ulice wyskoczyło dziecko . Co zrobi autorobot?? Ominie dziecko i wsadzi sie pod TIRa z naprzeciwka? Razem ze mną.
Albo przywali w dzieciaka? Ale uratuje mnie. I co z odpowiedzialnością?
Jestem przeciw dronom bojowym i autorobotom.
Hej!
Ktoś tu jednak palce maczał...
Odpowiedz
#16
-- już się nadymałem aby coś odpisać ale mnie ktoś ubiegł. Hej!
Ktoś tu jednak palce maczał...
Odpowiedz
#17
Jaques napisał(a): Tu chyba chodzi o to, że decyzję o zabiciu podejmuje maszyna. Samo wspomaganie np. myśliwca/rakiety/wyrzutni systemami komputerowymi jeszcze się nie zalicza.
No dobrze. Ale zawsze znajdą się takie przypadki brzegowe, gdzie sprawa będzie skomplikowana.

Np. załóżmy, że sterowana komputerem rakieta leci w kierunku celu (cel ten wskazał człowiek). Nieprzyjacielowi jednak udało się zakłócić działalnie jej sensorów. Czy rakieta taka może wybrać w tej sytuacji taki algorytm, który zmaksymalizuje prawdopodobieństwo trafienia w cel? Co ma zrobić ta rakieta, gdy wróci jej zdolność działania? Co jeśli istnieje tylko określone prawdopodobieństwo, że cel który teraz wykrywa jest tym pierwotnym? Etc.

Takie problemy pojawiają się nie tylko w temacie broni. Ostatnio czytałem o pewnym ciekawym problemie dotyczącym samochodów autonomicznych. Samochód taki jedzie z dużą prędkością. Obok ma betonową ścianę, albo przepaść. Nagle na jezdnię wchodzi grupa osób. Nagle się okazuje, że zwykła cywilna maszyna też może nagle stanąć w obliczu decyzji o zabiciu człowieka.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#18
Umówmy się, autonomia to autonomia - z definicji zakłada niezależność od nadzorcy.
Trzeba porzucić pokusę zjedzenia ciastka i posiadania ciastka.
W sytuacjach konfliktowych decyzja i tak musi być podjęta nie ma znaczenia, kto lub co zdecyduje.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#19
zefciu napisał(a):
Jaques napisał(a): Tu chyba chodzi o to, że decyzję o zabiciu podejmuje maszyna. Samo wspomaganie np. myśliwca/rakiety/wyrzutni systemami komputerowymi jeszcze się nie zalicza.
No dobrze. Ale zawsze znajdą się takie przypadki brzegowe, gdzie sprawa będzie skomplikowana.

Np. załóżmy, że sterowana komputerem rakieta leci w kierunku celu (cel ten wskazał człowiek). Nieprzyjacielowi jednak udało się zakłócić działalnie jej sensorów. Czy rakieta taka może wybrać w tej sytuacji taki algorytm, który zmaksymalizuje prawdopodobieństwo trafienia w cel? Co ma zrobić ta rakieta, gdy wróci jej zdolność działania? Co jeśli istnieje tylko określone prawdopodobieństwo, że cel który teraz wykrywa jest tym pierwotnym? Etc.

Takie problemy pojawiają się nie tylko w temacie broni. Ostatnio czytałem o pewnym ciekawym problemie dotyczącym samochodów autonomicznych. Samochód taki jedzie z dużą prędkością. Obok ma betonową ścianę, albo przepaść. Nagle na jezdnię wchodzi grupa osób. Nagle się okazuje, że zwykła cywilna maszyna też może nagle stanąć w obliczu decyzji o zabiciu człowieka.

A miałaby się zachowywać inaczej niż człowiek? Myślę że nie. Więc należy ją tak właśnie zaprogramować.
Odpowiedz
#20
El Commediante napisał(a):
zefciu napisał(a):
Jaques napisał(a): Tu chyba chodzi o to, że decyzję o zabiciu podejmuje maszyna. Samo wspomaganie np. myśliwca/rakiety/wyrzutni systemami komputerowymi jeszcze się nie zalicza.
No dobrze. Ale zawsze znajdą się takie przypadki brzegowe, gdzie sprawa będzie skomplikowana.

Np. załóżmy, że sterowana komputerem rakieta leci w kierunku celu (cel ten wskazał człowiek). Nieprzyjacielowi jednak udało się zakłócić działalnie jej sensorów. Czy rakieta taka może wybrać w tej sytuacji taki algorytm, który zmaksymalizuje prawdopodobieństwo trafienia w cel? Co ma zrobić ta rakieta, gdy wróci jej zdolność działania? Co jeśli istnieje tylko określone prawdopodobieństwo, że cel który teraz wykrywa jest tym pierwotnym? Etc.

Takie problemy pojawiają się nie tylko w temacie broni. Ostatnio czytałem o pewnym ciekawym problemie dotyczącym samochodów autonomicznych. Samochód taki jedzie z dużą prędkością. Obok ma betonową ścianę, albo przepaść. Nagle na jezdnię wchodzi grupa osób. Nagle się okazuje, że zwykła cywilna maszyna też może nagle stanąć w obliczu decyzji o zabiciu człowieka.

A miałaby się zachowywać inaczej niż człowiek? Myślę że nie. Więc należy ją tak właśnie zaprogramować.

W pewnym sensie masz rację. Kiedyś ludzie rozbijali sobie nosy i głowy pięściami, a dziś wypuszczają małe kawałeczki metalu z rurek i potrafią sobie zrobić krzywdę na odległość. Broń została udoskonalona na wiele sposobów, czemu by więc nie zrobić kolejnego kroku? (piszę to ironicznie)

To wszystko tylko utwierdza mnie w przekonaniu, że coś tu jest zdrowo pochrzanione. Świat, którym rządzą takie zasady, to marne miejsce. Co nie znaczy, że należy się z tym pogodzić ani że zmiana jest niemożliwa.
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 2 gości