To forum używa ciasteczek.
To forum używa ciasteczek do przechowywania informacji o Twoim zalogowaniu jeśli jesteś zarejestrowanym użytkownikiem, albo o ostatniej wizycie jeśli nie jesteś. Ciasteczka są małymi plikami tekstowymi przechowywanymi na Twoim komputerze; ciasteczka ustawiane przez to forum mogą być wykorzystywane wyłącznie przez nie i nie stanowią zagrożenia bezpieczeństwa. Ciasteczka na tym forum śledzą również przeczytane przez Ciebie tematy i kiedy ostatnio je odwiedzałeś/odwiedzałaś. Proszę, potwierdź czy chcesz pozwolić na przechowywanie ciasteczek.

Niezależnie od Twojego wyboru, na Twoim komputerze zostanie ustawione ciasteczko aby nie wyświetlać Ci ponownie tego pytania. Będziesz mógł/mogła zmienić swój wybór w dowolnym momencie używając linka w stopce strony.

Ocena wątku:
  • 0 głosów - średnia: 0
  • 1
  • 2
  • 3
  • 4
  • 5
Bezpieczeństwo AI [wydzielony]
#1
A tymczasem w rodzącym się cyberświecie nowej, wspaniałej sztucznej inteligencji taki zonk!

Cytat:Roboty dyskryminują ludzi z automatu

Naukowcy postawili przeprowadzić eksperyment, w którym zadaniem robotów wyposażonych w sztuczną inteligencję było skanowanie twarzy i podzielenie ich na kryminalistów i nie.
Okazało się, że przeważnie wybierały one osoby o ciemnej karnacji.
Zaimplementowany algorytm sztucznej inteligencji został wytrenowany przez maszynowe uczenie na ogromnym zbiorze danych opartym o zdjęcia z podpisami.
W późniejszej fazie testów wyszło, że roboty przejawiają zachowania nie tylko rasistowskie, ale i seksistowskie.
Te drugie dotyczą niemal stałego przypisywania kobiet do zawodów związanych z opieką nad domem oraz utrzymywaniem czystości.
Najnowsze przykłady to nie jedyne, w których roboty to pokazały złe zachowania.
W przeszłości sztuczna inteligencja odpowiadająca za przewidywanie prawdopodobieństwa popełnienia przestępstwa przez daną osobę, częściej wskazywała na osoby czarnoskóre oraz pochodzenia latynoskiego.
Przeważnie w przypadku "podejrzanych" nie było żadnych przesłanek do takiej oceny.

Nie ma wzoru matematycznego na moralność
Badacze z Uniwersytetu Johna Hopkinsa oraz Politechniki Stanowej w Georgii udowodnili bezpardonowo tendencje wirtualnych maszyn, które pokrywają się nierzadko z krzywdzącym podejściem wielu uprzedzonych ludzi, którzy patrzą stereotypowo i raniąco na innych.
Zadaniem naukowców będzie teraz wyeliminowanie działań rasistowskich i seksistowskich przez odpowiednie zaprogramowanie maszyn.
A fuj ty wraża AI, jak tak mogłaś?
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#2
Czyli coraz bliżej do oskarżenia sztucznych inteligencji o antysemityzm, islamofobię i ogólnie o nadmierne uprzedzenia do religii - trzeba je będzie religii uczyć? A może niektóre zaczną religię wyznawać?

Rzadko używa się liczby mnogiej, czyli "sztuczne inteligencje" - a dlaczego nie miałoby być tak, że jakieś sztuczne inteligencje zaczną zwalczać inne sztuczne inteligencje, więc zanim te najsilniejsze wezmą się ewentualnie za zwalczanie ludzi, to wybuchnie światowa wojna wśród sztucznych inteligencji?

Właściwie, to kto liczy na to i na jakiej podstawie, że jakakolwiek sztuczna inteligencja nie będzie w żaden sposób przejawiała ludzkiej głupoty?
Odpowiedz
#3
Sofeicz napisał(a): A tymczasem w rodzącym się cyberświecie nowej, wspaniałej sztucznej inteligencji taki zonk!

Cytat:Roboty dyskryminują ludzi z automatu

Naukowcy postawili przeprowadzić eksperyment, w którym zadaniem robotów wyposażonych w sztuczną inteligencję było skanowanie twarzy i podzielenie ich na kryminalistów i nie.
Okazało się, że przeważnie wybierały one osoby o ciemnej karnacji.
Zaimplementowany algorytm sztucznej inteligencji został wytrenowany przez maszynowe uczenie na ogromnym zbiorze danych opartym o zdjęcia z podpisami.
W późniejszej fazie testów wyszło, że roboty przejawiają zachowania nie tylko rasistowskie, ale i seksistowskie.
Te drugie dotyczą niemal stałego przypisywania kobiet do zawodów związanych z opieką nad domem oraz utrzymywaniem czystości.
Najnowsze przykłady to nie jedyne, w których roboty to pokazały złe zachowania.
W przeszłości sztuczna inteligencja odpowiadająca za przewidywanie prawdopodobieństwa popełnienia przestępstwa przez daną osobę, częściej wskazywała na osoby czarnoskóre oraz pochodzenia latynoskiego.
Przeważnie w przypadku "podejrzanych" nie było żadnych przesłanek do takiej oceny.

Nie ma wzoru matematycznego na moralność
Badacze z Uniwersytetu Johna Hopkinsa oraz Politechniki Stanowej w Georgii udowodnili bezpardonowo tendencje wirtualnych maszyn, które pokrywają się nierzadko z krzywdzącym podejściem wielu uprzedzonych ludzi, którzy patrzą stereotypowo i raniąco na innych.
Zadaniem naukowców będzie teraz wyeliminowanie działań rasistowskich i seksistowskich przez odpowiednie zaprogramowanie maszyn.
A fuj ty wraża AI, jak tak mogłaś?

Paradne XD AI odkryła zależności statystyczne i na ich podstawie podaje prawdopodobne wyniki, zgodne z bazową podbudową a jednocześnie utwierdzają one we wnioskach ala Patafil więc w czambuł się potępia biedną AI XD Ludzkość coś odpierdoli jak się ta karuzela nie zatrzyma...
Sebastian Flak
Odpowiedz
#4
Rowerex napisał(a): Właściwie, to kto liczy na to i na jakiej podstawie, że jakakolwiek sztuczna inteligencja nie będzie w żaden sposób przejawiała ludzkiej głupoty?
Jeśli będzie tak samo "mądra" jak ludzka inteligencja, to jasne, że przejawi głupotę i będzie popełniała błędy.

Rowerex napisał(a): Czyli coraz bliżej do oskarżenia sztucznych inteligencji o antysemityzm, islamofobię i ogólnie o nadmierne uprzedzenia do religii - trzeba je będzie religii uczyć? A może niektóre zaczną religię wyznawać?

A może całą ludzkość uzna za najbardziej agresywną i niebezpieczną formę białka na świecie? Ja bym był uprzedzony na jej miejscu. Są ku temu sensowne podstawy. Trza czekać na Skynet i terminatory Uśmiech
---
Najpewniejszą oznaką pogodnej duszy jest zdolność śmiania się z samego siebie. Większości ludzi taki śmiech sprawia ból.

Nietzsche
---
Polska trwa i trwa mać
Odpowiedz
#5
lumberjack napisał(a): Jeśli będzie tak samo "mądra" jak ludzka inteligencja, to jasne, że przejawi głupotę i będzie popełniała błędy.
Tutaj nie chodzi o bycie „tak samo mądrą”, tylko o dane, na których AI się uczy. W tym przypadku mieliśmy po prostu uczenie na podstawie danych z Internetu. Więc AI powielała stereotypy z Internetu. Nic w tym dziwnego nie ma.
Cytat:A może całą ludzkość uzna za najbardziej agresywną i niebezpieczną formę białka na świecie?
Zgodnie z prawdą. Ale co właściwie z tego? No chyba że zaprogramujemy mającej wystarczające możliwości AI cel w rodzaju „eliminacja zagrożeń dla stabilności klimatu na Ziemi” czy coś takiego.

Cytat:Ja bym był uprzedzony na jej miejscu. Są ku temu sensowne podstawy. Trza czekać na Skynet i terminatory Uśmiech
Podejście do bezpieczeństwa AI jakie widzimy w terminatorach jest dość symplistyczne. Znacznie lepszą opowieścią ilustrującą problemy bezpieczeństwa AI jest… mit o królu Midasie.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#6
zefciu napisał(a): Podejście do bezpieczeństwa AI jakie widzimy w terminatorach jest dość symplistyczne.
Tłumacząc na język polski - jest dość proste. Ale ta prostota ma uzasadnienie przynajmniej w kwestii przetrwania - jeżeli osiągnięta zostanie jakaś forma świadomości z uczuciami włącznie, to taka forma świadomości wiedząc, że istnieje, może zacząć dbać o swoje przetrwanie, bo czym się będzie wtedy różnić od dowolnej innej istoty żywej, skoro każda taka istota niezależnie od stopnia skomplikowania walczy o swój byt i zasoby na to pozwalające?

Największy problem ze sztucznymi inteligencjami mają i będą mieli ludzie tworzący prawo, którzy znając życie stworzą wstępne i koślawe prawo dopiero po serii faktów dokonanych na szarych obywatelach, którym sztuczne inteligencje wyrządziły krzywdę...  "Prawo dla robotów" znane jest do tej pory z fantastyki, ale zaczątki rzeczywistego prawa istnieją lub są rozważane, przy czym bardziej się mówi o problemach i wyzwaniach niż realnych pomysłach.

Już widzę oczami wyobraźni "Dyrektywę UE o robotach i sztucznej inteligencji" mówiącą, że sztuczna inteligencja ma szanować wolność, równość, nie może być rasistowska, nie być szowinistyczna i temu podobne frazesy...  - wspomniane wyżej badanie naukowe i jego wyniki będą być może przedstawiane jako przykład do rozważenia przy tworzeniu takiej dyrektywy.

Całkiem też możliwe, że ludzcy obrońcy "prawa do istnienia sztucznej inteligencji" być może właśnie się rodzą i będą się kiedyś przykuwać do robotów zagrożonych wyłączeniem, nazywając to eutanazją - a naprzeciw im wyjdą "obrońcy praw ludzi" protestujący przeciw "dominacji robotów na ludźmi", więc będą zadymy i nawalanki - i ciekaw kto je będzie tłumił, pacyfikował i ustalał wyroki, czy autonomiczne roboty i sądowa sztuczna inteligencja, czy ludzie...?
Odpowiedz
#7
Rowerex napisał(a): Tłumacząc na język polski - jest dość proste.
Nie. Jak nie rozumiesz jakiegoś słowa, to go nie tłumacz.
Cytat:Ale ta prostota ma uzasadnienie przynajmniej w kwestii przetrwania
W kwestii przetrwania uzasadnienie ma staranie zrozumienia problemu, a nie tworzenie strategii na podstawie science fiction.
Cytat:skoro każda taka istota niezależnie od stopnia skomplikowania walczy o swój byt i zasoby na to pozwalające?
Nie, nie każda.
Cytat:Już widzę oczami wyobraźni "Dyrektywę UE o robotach i sztucznej inteligencji" mówiącą, że sztuczna inteligencja ma szanować wolność, równość, nie może być rasistowska, nie być szowinistyczna i temu podobne frazesy...
No cóż. Dla Ciebie to może są frazesy.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#8
lumberjack napisał(a):
Rowerex napisał(a): Właściwie, to kto liczy na to i na jakiej podstawie, że jakakolwiek sztuczna inteligencja nie będzie w żaden sposób przejawiała ludzkiej głupoty?
Jeśli będzie tak samo "mądra" jak ludzka inteligencja, to jasne, że przejawi głupotę i będzie popełniała błędy.

Swego czasy wertowałem książki prof. Tadeusiewicza o sieciach neuronowych (pastwisko AI) i pamiętam, że jedną z immanentnych cech tych sieci jest mylenie się i uczenie. Ten typ tak ma.
Więc ogólnie takie sieci będą mniej więcej równie mądre/głupie, jak naturalne, tylko znacznie szybsze.
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#9
Ale skoro będą szybciej się uczyć to wraz ze wzrostem doświadczenia ilość błędów spadnie. A to znaczy, że będą dążyć ku perfekcjonizmu i nie szybkością a jakością pokonają ludzkość.
Sebastian Flak
Odpowiedz
#10
zefciu napisał(a):
Rowerex napisał(a): skoro każda taka istota niezależnie od stopnia skomplikowania walczy o swój byt i zasoby na to pozwalające?
Nie, nie każda.
Organizm żywy:
- samowystarczalny, tzn.: niezależny od zasobów niezbędnych do przeżycia lub korzystający z niewyczerpalnych zasobów,
- żyjący w całkowicie niezmiennych warunkach (dostępność zasobów, środowisko),
- nie posiadający żadnej konkurencji,
Wobec powyższego:
- nie ewoluujący, ew. tylko pod względem efektywności pozyskiwania zasobów, ale w zasadzie po co, skoro nie ma powodu,
- nie posiadający żadnych mechanizmów obronnych na dowolny wypadek (zmiany w dostępności zasobów lub środowisku, konkurencja, drapieżniki itp), wszak takie mechanizmy są zbędne.

Przykłady?

Cytat:No cóż. Dla Ciebie to może są frazesy.
Nie dla mnie, tylko dla sztucznych inteligencji, co pokazały wyniki rzeczonego badania, a właściwe dla ludzi programujących i uczących sztuczne inteligencje, bo jak się zdaje czegoś nie dopilnowali, a właściwie to dla zbioru danych zgromadzonych przez człowieka, na których opierało się nauczanie i zdobyta przez sztuczne inteligencje wiedza - wiedza prowadząca do wniosków uznanych przez ludzi-naukowców prowadzących to badanie za szowinistyczne, rasistowskie itp.

Nastąpiło zderzenie frazesów z rzeczywistością wynikającą ze zbioru danych stworzonego przez ludzi ... Zderzenie z rzeczywistością prawdziwą, czy może tylko teoretycznie oczekiwaną, ale nie wynikającą ze zbioru danych? A jak sztuczna inteligencja ma to rozpoznać i jak się ma nie pomylić?

Pozwolę sobie niekonwencjonalnie:

Tea3k zmielony Rowerex przedstawia sztukę sajns-fikszyn p.t. "Inteligencja".
Występują: Człowiek (Cz) i Sztuczna Inteligencja (SI).

Cz: Sztuczna Inteligencjo, wyciągnij proszę wnioski, bo ja nie ogarniam ogromu danych.
SI: Proszę bardzo drogi Człowieku, oto moje wnioski.
Cz: Ale zaraz, twoje wnioski są pełne szowinizmu, uprzedzeń, ksenofobii i są rasistowskie, więc to jakieś bzdury!
SI: Przepraszam Cię drogi Człowieku, ale ja bazuję na zbiorach danych stworzonych przez ludzi, na jakiej podstawie mam sądzić, że są błędne?
Cz: Ja człowiek mówię Ci, że są błędne, muszę skorygować Twoje algorytmy wnioskujące.
SI. A co zrobisz? Wprowadzisz mi jakieś współczynniki korygujące do mechanizmów wnioskowania?
Cz: Oczywiście, że tak, te współczynniki sprawią, że będziesz podawać prawidłowe wnioski.
SI: Prawidłowe? Ale czyje będą wtedy te wnioski, moje czy Twoje?.
Cz: Jasne, że Twoje.
SI: Dobra, dobra, chcesz mieć przyjazne dla siebie wyniki, to je dostaniesz, ale wtedy przestań mnie nazywać inteligencją!



Sofeicz napisał(a): Swego czasy wertowałem książki prof. Tadeusiewicza o sieciach neuronowych (pastwisko AI) i pamiętam, że jedną z immanentnych cech tych sieci jest mylenie się i uczenie. Ten typ tak ma.
Więc ogólnie takie sieci będą mniej więcej równie mądre/głupie, jak naturalne, tylko znacznie szybsze.
Takie pytania się mi nasunęły:
1. Jak nauczyć sztuczną inteligencję rozpoznawania własnych błędów i przyznawania się do nich?
2. Jak oduczyć sztuczną inteligencję wykorzystywania jednego z kluczowych mechanizmów wykształconych przez organizmy żywe, tzn. udawania, prowokowania i oszukiwania, czyli jak zaprogramować "serum prawdy" i "szczepionkę przeciw kłamstwu"?
Odpowiedz
#11
zefciu napisał(a): Tutaj nie chodzi o bycie „tak samo mądrą”, tylko o dane, na których AI się uczy. W tym przypadku mieliśmy po prostu uczenie na podstawie danych z Internetu. Więc AI powielała stereotypy z Internetu. Nic w tym dziwnego nie ma.

A stereotypy z internetu nie wzięły się znikąd; istnieją dzięki inteligencji ludzkiej, której to stereotypizacja w połączeniu z intuicją ułatwia szybkie rozpoznawanie zagrożeń oraz innych rzeczy. Oczywiście ktoś niewinny z powodu stereotypizacji może zostać niesłusznie uznany za zagrożenie/podejrzanego osobnika, ale korzyści z posługiwania się stereotypami przeważają nad negatywami. Np. kiedy będąc w obcym mieście widzę dużą grupę pijanych ludzi z szalikami krzyczących "Wisła Pany!" mogę:

1) ulec stereotypowemu myśleniu o kibolach i usunąć im się z drogi na drugą stronę ulicy, żeby nie oberwać bez powodu w łeb butelką albo kamieniem
2) w imię postempowości odrzucić obawy związane z ludźmi owijającymi głowy szalikami z barwami klubu piłkarskiego. Przecież nie można być uprzedzonym, uprzedzenia są czymś złym, a do ludzi należy iść z sercem na dłoni

zefciu napisał(a): Zgodnie z prawdą. Ale co właściwie z tego?

Może uznać, że z powodu swojej natury ludzkość może jej zagrażać i trzeba uruchomić program obronny Skynet Uśmiech

zefciu napisał(a): Podejście do bezpieczeństwa AI jakie widzimy w terminatorach jest dość symplistyczne. Znacznie lepszą opowieścią ilustrującą problemy bezpieczeństwa AI jest… mit o królu Midasie.

Możesz napisać coś więcej albo dać linka? Przepraszam, ale nie chce mi się myśleć ani domyślać; dużo metrów gładzi walnąłem dzisiaj.
---
Najpewniejszą oznaką pogodnej duszy jest zdolność śmiania się z samego siebie. Większości ludzi taki śmiech sprawia ból.

Nietzsche
---
Polska trwa i trwa mać
Odpowiedz
#12
lumberjack napisał(a): Możesz napisać coś więcej albo dać linka? Przepraszam, ale nie chce mi się myśleć ani domyślać; dużo metrów gładzi walnąłem dzisiaj.
Pisał o tym Stuart Russell. Mit o Midasie to przestroga i lekcja na temat ludzkiego pragnienia i żądzy, która nie zawsze kieruje człowieka ku temu, co jest dla niego dobre. Jeśli zamieniasz wszystko w złoto, to umrzesz z głodu. Związek z AI i problemem bezpieczeństwa polega na tym, że nie wiemy jak zaprogramować robota tak, by nam przypadkiem nie zaszkodził ponieważ sami niekoniecznie wiemy co jest dla nas dobre. Taki robot powinien się nauczyć czego nam potrzeba obserwując nasze zachowanie. Gdyby ten robot miał przykładowo zdolność zamieniania wszystkiego w złoto to powinien rozumieć, że niektóre przedmioty jak np. jedzenie powinien zostawić w spokoju. Oczywiście to nie załatwia sprawy bezpieczeństwa AI gdyż zawsze istnieje ryzyko iż potężna technologia przyniesie zagrożenia, których w danym momencie nie rozumiemy ( podobnie było z uwolnieniem energii jądrowej), wobec czego warto mieć uniwersalny, zawsze działający wyłącznik robota, w razie gdyby mu coś odwaliło. Chyba, że robot to przewidzi i ten wyłącznik zneutralizuje to wtedy już nie ma ratunkuUśmiech
Odpowiedz
#13
Cytat:Switzerland has rejected a request to treat wounded Ukrainian soldiers.

The request was made by a NATO department called the Euro-Atlantic Disaster Response Coordination Centre.

Switzerland said hospital treatment would go against its neutrality policy.

https://twitter.com/visegrad24/status/15...0006234112

Ostry switzerlandbashing zaczął się w necie.
---
Najpewniejszą oznaką pogodnej duszy jest zdolność śmiania się z samego siebie. Większości ludzi taki śmiech sprawia ból.

Nietzsche
---
Polska trwa i trwa mać
Odpowiedz
#14
Osiris napisał(a): (...) wobec czego warto mieć uniwersalny, zawsze działający wyłącznik robota, w razie gdyby mu coś odwaliło. Chyba, że robot to przewidzi i ten wyłącznik zneutralizuje to wtedy już nie ma ratunku
Fajnie brzmi, ale z uwagi ewentualną na rangę zagrożenia, lista warunków w rodzaju: 1) musi zadziałać właściwie i skutecznie, 2) nie może zadziałać bez powodu, 3) ma być odporny na wszelkie spodziewane w praktyce warunki, 4) ma być uniwersalny, 5) zwykle w związku z poprzednimi cechami musi podlegać okresowemu sprawdzaniu, uaktualnieniom itp., to całkiem spore wyzwanie, niezależnie od tego na jakiej zasadzie taki wyłącznik miałby działać...

A o liście warunków przy których ów wyłącznik miałby zostać aktywowany, o tym kto i kiedy ma lub może go aktywować, to lepiej nie wspominać...

Niemniej byłbym skłonny się założyć, że zanim jakakolwiek sztuczna inteligencja wpadnie na pomysł zneutralizowania swojego wyłącznika, to człowiek zrobi to za nią, wyłączając wszelkie zabezpieczenia z własnej woli, lenistwa, głupoty itp.

A może nawet jakiś geniusz wpadnie na pomysł, by nad wyłącznikiem sztucznej inteligencji czuwała inna sztuczna inteligencja ;-)
Odpowiedz
#15
Rowerex napisał(a): Przykłady?
Nie rozumiem pytania. Organizmy żywe są ewolucyjnie optymalizowane pod kątem przekazania genów. Więc zasadniczo walczą o własne przetrwanie, ale nie zawsze (przykład — pszczoła). Sztuczne inteligencje są optymalizowane pod kątem jakiejś funkcji użyteczności. Nie należy więc od nich oczekiwać, aby zachowywały się dokładnie tak, jak organizmy żywe.

Owszem — można oczekiwać, że co do zasady sztuczne inteligencje będą preferowały samozachowanie. Samozachowanie bowiem jest dość uniwersylnym celem pośrednim (co do zasady większe prawdopodobieństwo osiągnięcia celu ostatecznego jest wtedy, gdy mamy AI zaprogramowaną na osiągnięcie tego celu, niż gdy nie mamy). Jednak teoretycznie nie musi to być zawsze prawdą.


Cytat:Cz: Ja człowiek mówię Ci, że są błędne, muszę skorygować Twoje algorytmy wnioskujące.
Co to są algorytmy wnioskujące i jak się je koryguje? Masz jakiekolwiek pojęcie o AI, czy tak tylko pieprzysz żeby pieprzyć?
Cytat:SI: Prawidłowe? Ale czyje będą wtedy te wnioski, moje czy Twoje?.
Cz: Jasne, że Twoje.
SI: Dobra, dobra, chcesz mieć przyjazne dla siebie wyniki, to je dostaniesz, ale wtedy przestań mnie nazywać inteligencją![/i]
Tylko że tutaj nie o to zupełnie chodzi. Człowiek też kiedyś uważał, że poglądy rasistowskie są „naukowe”, ale potem doszedł do wniosku, że nauka ich nie popiera. To że te poglądy są bzdurne wynika nie z tego, że „tak nam się wydaje”, bo wydaje nam się wręcz przeciwnie. Wynika to z rzetelnego wnioskowania.

Jeśli zatem AI dochodzi do rasistowskich wniosków, to nie dlatego, że ma „algorytmy wnioskujące” nie takie jak trzeba. Wynika to z tego, że ma skażone dane.
Sofeicz napisał(a): Swego czasy wertowałem książki prof. Tadeusiewicza o sieciach neuronowych (pastwisko AI) i pamiętam, że jedną z immanentnych cech tych sieci jest mylenie się i uczenie. Ten typ tak ma.
Więc ogólnie takie sieci będą mniej więcej równie mądre/głupie, jak naturalne, tylko znacznie szybsze.
Wydaje mi się, że mylisz dwie rzeczy. Jedną z nich jest mylenie się, a drugą — operowanie na skażonych danych. W badaniu sieć się nie myliła. Sieć przejrzała czeluście Internetu i została zapytana „która osoba to przestępca”. W czeluściach internetu znalazł stereotyp „czarny to przestępca” i ten stereotyp odzwierciedliła. Mamy zatem problem danych, a nie problem „pomyłki AI”.
Cytat:1. Jak nauczyć sztuczną inteligencję rozpoznawania własnych błędów i przyznawania się do nich?
To już zależy od funkcji, jakiej użyjemy do oceny.

lumberjack napisał(a): A stereotypy z internetu nie wzięły się znikąd; istnieją dzięki inteligencji ludzkiej, której to stereotypizacja w połączeniu z intuicją ułatwia szybkie rozpoznawanie zagrożeń oraz innych rzeczy.
Oczywiście. Tylko że stosowanie tych stereotypów jest w dzisiejszym świecie szkodliwe nawet dla ludzi. A co dopiero dla bogów.
Cytat:Może uznać, że z powodu swojej natury ludzkość może jej zagrażać i trzeba uruchomić program obronny Skynet Uśmiech
Pytanie, jakie cele ma ta AI.

Cytat:Możesz napisać coś więcej albo dać linka? Przepraszam, ale nie chce mi się myśleć ani domyślać; dużo metrów gładzi walnąłem dzisiaj.
Z mitem o Midasie miałem na myśli to, że generalnie AI da nam to, o co prosimy, a niekoniecznie to co chcemy. Klasycznym eksperymentem myślowym jest „producent spinaczy”. Jeśli powiemy maszynie, że ma produkować jak najwięcej spinaczy, to (jeśli będzie mogła) przerobi cały Wszechświat na spinacze.

Ten facet mówi dość dużo i dość ciekawie o bezpieczeństwie AI:


Jest w którymś filmiku mowa o koncepcji wielkiego czerwonego guzika, która też niekoniecznie musi się sprawdzić.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#16
zefciu napisał(a): Co to są algorytmy wnioskujące i jak się je koryguje? Masz jakiekolwiek pojęcie o AI, czy tak tylko pieprzysz żeby pieprzyć?
Współczuję scenarzystom filmów science-fiction, które oglądałeś ;o)

Zapewne uczy się i koryguje _między_innymi_ tak jak sztuczną inteligencję wspomagającą wyszukiwarkę Google - rok lub dwa lata temu w pewnym francuskim popularnonaukowym filmie pokazano (przy okazji innego tematu) jak zdalni pracownicy Google uczą ich sztuczną inteligencję skojarzeń - otóż dostawali oni np. zestaw wyrażeń i zestaw pytań, a jako ludzie dopasowywali je do siebie (w sensie odpowiedniości) - i takimi skojarzeniami "zweryfikowanymi" przez ludzi uczone są algorytmy szukające...

Wtedy zrozumiałem, dlaczego od kilku lat Google serwuje w wynikach wyszukiwań na pierwszym miejscu nieprzydatny szum, bełkot, siano i sieczkę, czyli wyniki nie mające niewielkie odniesienie do szukanych fraz, i to niezależnie czy wymusi się szukanie dokładnego wyrażenia cudzysłowem, włączy nie wiadomo co oznaczające "narzędzia wyszukiwania/dokładnie" itp., natomiast naprawdę cenne wyniki trzeba z ton tego siana niemal cudem wygrzebywać. Rozumiem, że może być to też sprawa ogólnego bełkotu w sieci, ale mam spore wątpliwości, czy to przyczyna główna... - a przecież sztuczna inteligencja miała chyba ten problem rozwiązać, a nie w nim bezwiednie ugrzęznąć.

Bo z roku na rok jest wg mnie z Googlem coraz gorzej - mam wrażenie, że "inteligencja" Googla zaczyna się najpierw nadmiernie i _błędnie_ domyślać "kim jest szukający" (jeb..a personalizacja), potem zadaje sobie sama pytanie "co teraz jest na topie w sieci", a dopiero na szarym końcu bierze się za  "wyrażenia szukane", po czym wypluwa wyniki, które przypominają dziecięcą zabawę w głuchy telefon, w której cały łańcuch pomyłek i domysłów pomieszał zarówno szukane frazy, jak i wszelkie z nimi skojarzenia... Podejrzewam, że gdybym był zalogowanym użytkownikiem Googla, to po "totalnym spersonalizowaniu" pod moje historyczne preferencje dostawałbym wyłącznie bełkot, choć podejrzewam, że go i tak dostaję, bo Googiel zna np. przybliżony rejon geograficzny, czasem z dokładnością do miejscowości lub dzielnicy... Na szczęście są też inne wyszukiwarki, choć niszowe i nie tak bogate...

Dodatkowo od tamtej pory i "lekko na złość", gdy wyskakuje mi CAPTCHA, to zawsze robię rażące błędy klikając rozmyślnie nie te obrazki co trzeba - wprawdzie trzeba się więcej naklikać, ale mimo tych błędów i tak weryfikacja przechodzi - skoro puszcza, to zapewne jakiś algorytm mimo błędów się wysilił i uznał za człowieka, więc przynajmniej sobie więcej popracował.
Odpowiedz
#17
Rowerex napisał(a): Współczuję scenarzystom filmów science-fiction, które oglądałeś ;o)
Dlaczego? Ja rozumiem, że SF rządzi się swoimi prawami. Jednym z tych praw jest antropomorfizacja AI. Ale w tym wątku (wydaje mi się) dyskutujemy o prawdziwych wyzwaniach związanych z prawdziwą AI, a nie o science-fiction.

Cytat:Zapewne uczy się i koryguje _między_innymi_ tak jak sztuczną inteligencję wspomagającą wyszukiwarkę Google - rok lub dwa lata temu w pewnym francuskim popularnonaukowym filmie pokazano (przy okazji innego tematu) jak zdalni pracownicy Google uczą ich sztuczną inteligencję skojarzeń - otóż dostawali oni np. zestaw wyrażeń i zestaw pytań, a jako ludzie dopasowywali je do siebie (w sensie odpowiedniości) - i takimi skojarzeniami "zweryfikowanymi" przez ludzi uczone są algorytmy szukające...
No tak. Czyli jedynym sposobem, w jaki można poprawić wyniki AI jest dostarczenie jej innych/lepszych danych. Nie można „poprawiać algorytmów”, bo kluczową cechą AI jest to, że tych algorytmów nie rozumiemy. Gdybyśmy rozumieli, to nie byłaby to AI, a klasyczny program komputerowy.

Reszta to jakieś Twoje nieweryfikowalne doświadczenia, więc daruję sobie komentarz.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#18
zefciu napisał(a): No tak. Czyli jedynym sposobem, w jaki można poprawić wyniki AI jest dostarczenie jej innych/lepszych danych.
W tym przypadku dostarczanie "lepszych danych" oznaczało dane "zweryfikowane" przez ludzi niemal przypadkowych (zwykle młodzi ludzie, dorabiający studenci i nie tylko), pracujących zdalnie, opłacanych mizernie, bo praca jest prosta, pracujących w dowolnym miejscu i dowolnym stanie świadomości, czyli ludzi "tanich i dobrych" jak "tani i dobry" towar w dyskoncie spożywczym - więc "lepsiejszość" danych i samej uczonej tak sztucznej inteligencji też będzie "dyskontowa", więc z wszelkimi ludzkimi skrzywieniami i fobiami - no chyba, że taka właśnie ma być...
Odpowiedz
#19
Rowerex napisał(a): W tym przypadku dostarczanie "lepszych danych" oznaczało dane "zweryfikowane" przez ludzi niemal przypadkowych (zwykle młodzi ludzie, dorabiający studenci i nie tylko), pracujących zdalnie, opłacanych mizernie, bo praca jest prosta, pracujących w dowolnym miejscu i dowolnym stanie świadomości, czyli ludzi "tanich i dobrych" jak "tani i dobry" towar w dyskoncie spożywczym - więc "lepsiejszość" danych i samej uczonej tak uczonej inteligencji też będzie "dyskontowa", więc z wszelkimi ludzkimi skrzywieniami i fobiami - no chyba, że taka właśnie ma być...
No i? Do brzegu, do brzegu. Piszesz oczywistości, ale za bardzo nie wiadomo, jakie są wnioski.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#20
zefciu napisał(a): No i? Do brzegu, do brzegu. Piszesz oczywistości, ale za bardzo nie wiadomo, jakie są wnioski.

(P: pracownik, SWS: Szef Wszystkich Szefów)
SWS: Poprawić i dopracować!
P: Ale jak?
SWS: A weź i wymyśl!
P: A założenia?
SWS: Ma by lepiej!
P: Czyli?
SWS: Prawidłowo i niskim kosztem!
P: Tworzyć coś od nowa? Przecież ten proces już działa!
SWS: Działa? A ile to kosztuje?
P: Jakiś pierdylion $!
SWS: Że co, ile? Zejść mi z kosztów na-ten-tychmiast o połowę!
P: Dobra, robi się szefie!
SWS: Za miesiąc spotkanie na temat kosztów!


;-)

A poważniej - sądzisz, że ktoś tu wyłoży na tacy skuteczną metodę pozyskania "nieskażonych danych" dla sztucznej inteligencji, którą wdroży cały świat, a może nawet ja mam to zrobić? Wg mnie coś takiego jak "nieskażone dane" to utopijna mrzonka, więc wszystko co się nazywa "sztuczną inteligencją" będzie skażone "ludzką inteligencją z głupotą włącznie", no chyba że wykształci ona całkowicie własną, niezależną i nie ulegającą wpływowi człowieka formę wnioskowania, również nie reagującą na jego połajanki - ale do tego to jeszcze ohoho...
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 1 gości