18.08.2024, 13:59
(Ten post był ostatnio modyfikowany: 18.08.2024, 14:00 przez białogłowa.)
Liczba postów: 1,658
Liczba wątków: 4
Dołączył: 04.2014
Płeć: nie wybrano
Czy Waszym zdaniem w niedalekiej przyszłości nagrania video mogą przestać być dowodami w sądach?
"There are of course methods by which technicians can attempt to scrutinise these video and audio exhibits to ascertain their authenticity. For example, current common practices include analysing the metadata of the files to gain insights into their origins and subsequent tampering. This would reveal for example the times at which the files may have been modified. However, if the entire video was generated by AI from scratch, the metadata would show one date of creation, and the tampering would likely remain disguised. There are other ways to uncover deepfakes, ranging from context analysis (faked portions look out of context from their surroundings), light, shadow and pixel analysis, as well as deepfake detection tools. However, all of these methods rely on identifying minute inconsistencies and anomalies. These imperfections can be smoothed out by AI in certain situations to completely avoid detection."
https://crucible.law/insights/deepfake-e...e-and-hear
Nietrudno sobie wyobrazić, że jest kwestią czasu, kiedy AI "przechytrzy" ludzkie oko i stworzy materiał bez niespójności, które byłby w stanie wykryć technik.
Nie do końca w temacie, ale nie widzę odpowiedniego wątku.
Liczba postów: 2,801
Liczba wątków: 13
Dołączył: 05.2018
Reputacja:
255
białogłowa napisał(a): Nietrudno sobie wyobrazić, że jest kwestią czasu, kiedy AI "przechytrzy" ludzkie oko i stworzy materiał bez niespójności, które byłby w stanie wykryć technik. Akurat dla mnie trudno sobie wyobrazić aby AI w ogóle stworzyło samo cokolwiek, bez sterującego i wydającego mu polecenia człowieka. Za każdym wytworem AI zawsze przecież ktoś stoi a skoro tak jest, to i w potencjalnej sprawie sądowej ktoś będzie odpowiadał przed wymiarem sprawiedliwości. To oznacza dodatkowe ryzyko dla twórcy fejkowego filmu. Kto zaryzykuje potencjalne oskarżenie o krzywoprzysięstwo (pomijając już koszty stworzenia video) gdy film będzie sprawdzany przez najlepszych ekspertów bez gwarancji, że oszustwo nie zostanie wykryte? A nawet jeśli uda się oszukać wszystkich, to dlaczego sąd miałby z góry uznać ten materiał za przesądzający o winie jeśli okaże się, że okarżony ma dobre alibi lub inne dowody wskazujące, że był gdzie indziej?
Jedną rzeczą są deepfejki znanych aktórów a co innego manipulacja wiążąca się z prawdziwym ryzykiem pójścia do więzienia. Poza tym, technologia wykrywania fejków też będzie iść do przodu i wcale nie jest powiedzianae, że AI stworzy kiedykolwiek coś takiego, czego nie będzie się dało zdemaskować.
18.08.2024, 18:42
(Ten post był ostatnio modyfikowany: 18.08.2024, 18:44 przez Użytkownik 12434.)
Liczba postów: 20
Liczba wątków: 0
Dołączył: 03.2024
Rozwija się AI do generowania treści, ale jednocześnie trwa rozwój technologii pozwalających na weryfikację autentyczności materiałów cyfrowych oraz trwają prace na odpowiednim prawodawstwem, tak że sądy będą miały narzędzia pozwalające zweryfikować ewentualnego kandydata na dowód w sprawie, zatem byle materiał cyfrowy bez wiarogodnych metadanych nie zostanie dopuszczony jako dowód, natomiast podrobienie metadanych może być w przyszłości trudniejsze niż wykopywanie bitcoinów, a blockchain znany z bitocoina jest jedną z rozważanych technologii zabezpieczających cyfrowe treści audio-wideo.
Materiały analogowe to inna bajka, być może ich jako dowodów już nie będzie niemal z automatu.
Liczba postów: 1,658
Liczba wątków: 4
Dołączył: 04.2014
Płeć: nie wybrano
Osiris, nie rozważam scenarusza sci - fi, tylko niebezpieczeństwo wykorzystania przez człowieka generatora video do utworzenia dowodu obciążającego.
pijana kura, teraz tak jest, że analizuje się plik pod kątem późniejszych manipulacji w metadanych, ale co gdyby AI wygenerowała taki filmik od podstaw?
18.08.2024, 19:48
(Ten post był ostatnio modyfikowany: 18.08.2024, 19:50 przez Użytkownik 12434.)
Liczba postów: 20
Liczba wątków: 0
Dołączył: 03.2024
AI wygenerować filmik od podstaw może, ale w metadanych to AI będzie autorem materiału, a nie np. wideorejestrator. AI może generować treść, ale metadane powinien generować system całkowicie niezależny od AI, zwłaszcza gdy chodzi o informacje dotyczące pierwotnego autorstwa (np. w rozumieniu sprzętu i oprogramowania) stworzonego materiału.
19.08.2024, 17:42
(Ten post był ostatnio modyfikowany: 19.08.2024, 17:51 przez Fanuel.)
Liczba postów: 12,229
Liczba wątków: 89
Dołączył: 03.2013
Reputacja:
916
Płeć: mężczyzna
białogłowa napisał(a): Czy Waszym zdaniem w niedalekiej przyszłości nagrania video mogą przestać być dowodami w sądach?
"There are of course methods by which technicians can attempt to scrutinise these video and audio exhibits to ascertain their authenticity. For example, current common practices include analysing the metadata of the files to gain insights into their origins and subsequent tampering. This would reveal for example the times at which the files may have been modified. However, if the entire video was generated by AI from scratch, the metadata would show one date of creation, and the tampering would likely remain disguised. There are other ways to uncover deepfakes, ranging from context analysis (faked portions look out of context from their surroundings), light, shadow and pixel analysis, as well as deepfake detection tools. However, all of these methods rely on identifying minute inconsistencies and anomalies. These imperfections can be smoothed out by AI in certain situations to completely avoid detection."
https://crucible.law/insights/deepfake-e...e-and-hear
Nietrudno sobie wyobrazić, że jest kwestią czasu, kiedy AI "przechytrzy" ludzkie oko i stworzy materiał bez niespójności, które byłby w stanie wykryć technik.
Nie do końca w temacie, ale nie widzę odpowiedniego wątku.
Przecież to już się dzieje, ale całkiem na innym polu niż się wydaje. Problemów jest kilka i to poważnych. Po pierwsze fejkowe materiały wizualne optycznie będą świetne, więc czeka nas "czas ilustrowanych narracji". Zanim dojdzie do sądów to będzie masa prokurowanych "dowodów" i pozwy będą koło tego latać. Po drugie stwarzając narrację wskazującą i podrabiając upubliczniane pseudodowody będzie dochodziło do prób udowodnienia win. Kto stworzy lepszą narrację ten wygra w sądzie. Taka zajawka to sprawa Heard vs. Depp. Metadane to żaden problem, bo AI będzie się bawić w chirurga operującego na włożonych danych a nie w malarza pejzaży. Jeżeli ma być oskarżenie grubego kalibru to konkretna scena, inscenizowana lub nie, dostanie retusz i nałożenie odpowiednich warstw w odpowiednich momentach lub też będzie uzupełniać treść. Zależy też o jak dalekiej przyszłości mówimy. Za ładnych parę lat wyobrażalne jest, że potężny agent AI będzie mógł pracować na samym kodzie binarnym, teraz pracuje na klockach w określonym "języku". W takiej sytuacji nie da się odróżnić zmienionej kopii od oryginału. Zwłaszcza że modele rejestratorów będą zestandaryzowane i do stworzenia kopii opartej o metadane będzie potrzeba jedynie znać numer modelu. Niewyobrażalne jest też zapisywanie wszystkiego na blockchainie. Sam zapisałem kilka grafik, w tym historii, nie dość że to kosztowne to jeszcze czasochłonne i wymaga pracy. Ponadto już się podnoszą głosy, że kwanciaki poradzą sobie z większością blockchainów. To jest system dobry do utrwalania dowodów a nie zbierania mas danych. Nadchodzą czasy postprawdy, narracji i prawdy ekranu. Moim zdaniem fakt możliwości konstruowania dowolnej narracji sprawi, że łatwiej będzie wziąć świadka na wypasiony, futurystyczny wykrywacz kłamstw niż analizować dane z apki, która pozwala generować deepfejki. Po prostu utkniemy w zalewie gówna generowanego przez narratorów. Albo wszyscy będą pozywać wszystkich albo skończy się jak w bajce o Jasiu, który wieśniaków straszył wilkami. Przyszłość rysuje się parszywie. Mnie to wygląda na świat znieczulicy, bo lepiej nic nie robić i mieć spokój niż badać czy deepfejki spowodowały komuś krzywdę, albo co gorsza, że to autentyki. Teraz, w okresie przejściowym będzie głośno o takich sprawach, ale w przyszłości ignorancja będzie i klątwą i zbawieniem. W końcu każdy z nas robił głupie rzeczy zanim było można je sfotografować, kiedyś będzie można po prostu powiedzieć że to fejk o ile w górach danych ktoś to znajdzie...
Pytania z serii czemu ktoś miałby dowodów nie podrabiać zupełnie mnie nie przekonuje. Po co miałby robić deepfejki? Po co miałby kłamać? Po co miałby w ogóle być nieuczciwy? Pytanie bez sensu. Jeżeli można coś zyskać albo chociaż nie stracić, to już jest motyw do tworzenia fejków.
Sebastian Flak
19.08.2024, 19:14
(Ten post był ostatnio modyfikowany: 19.08.2024, 19:18 przez białogłowa.)
Liczba postów: 1,658
Liczba wątków: 4
Dołączył: 04.2014
Płeć: nie wybrano
Fanuel napisał(a):Za ładnych parę lat wyobrażalne jest, że potężny agent AI będzie mógł pracować na samym kodzie binarnym, teraz pracuje na klockach w określonym "języku". W takiej sytuacji nie da się odróżnić zmienionej kopii od oryginału. Zwłaszcza że modele rejestratorów będą zestandaryzowane i do stworzenia kopii opartej o metadane będzie potrzeba jedynie znać numer modelu. Ja się nie znam, ale brzmi to sensownie. Pijana kura, a co Ty powiesz na to?
I jeszcze mi umknęło, dlaczego miałoby nie być materiałów analogowych? Wydaje się, że raczej na odwrót. O ile sprokurowanie "analogowego" zdjęcia za pomocą AI może być dość łatwą sprawą (wydaje mi się, ze zwykły photoshop wystarczy), to jak miałoby wyglądać ujednolicenie, czy uzgodnienie zdjęcia z kliszą?
Na razie sądy odrzucają nagrania wyślizgane przez AI, ulepszone wg. deklaracji po to, by poprawić ich jakość, czytelność. Inna sprawa, że w tych sprawach, o których czytałam, ingerencja AI była z góry zgłaszana. Na chłopski rozum wygląda mi to tak, że detekcja zmanipulowanych, albo od podstaw wygenerowanych video musi być cały czas krok do przodu, w przeciwnym razie doczekamy się szybko odrzucenia video jako dowodu w sprawach sądowych.
Cytat:łatwiej będzie wziąć świadka na wypasiony, futurystyczny wykrywacz kłamstw niż analizować dane z apki, która pozwala generować deepfejki
Czyli przychylałbyś się do opinii, że może nadejść czas, że świadectwo naocznych świadków będzie w mocy, a film video z mety odrzucony, jako nieweryfikowalny?
Liczba postów: 16,951
Liczba wątków: 413
Dołączył: 10.2006
Reputacja:
1,070
Płeć: mężczyzna
Fanuel napisał(a): W takiej sytuacji nie da się odróżnić zmienionej kopii od oryginału. Zwłaszcza że modele rejestratorów będą zestandaryzowane i do stworzenia kopii opartej o metadane będzie potrzeba jedynie znać numer modelu. No nie. W scenariuszu pijanej kury mamy klucze, które każdy rejestrator ma zaszyte i nie ujawnia ich na zewnątrz. Oczywiście wymaga to zaufania do producenta rejestratora.
Cytat:Niewyobrażalne jest też zapisywanie wszystkiego na blockchainie.
Ale po co blockchain i co tutaj da blockchain? Wystarczy, że rejestrator podpisze swoim kluczem.
Cytat:Ponadto już się podnoszą głosy, że kwanciaki poradzą sobie z większością blockchainów.
Ewentualne złamanie algorytmów enkrypcji przez komputery kwantowe to jest problem znacznie większy niż możliwość wypchnięcia tego czy innego deep-fake’a.
Cytat:Nadchodzą czasy postprawdy, narracji i prawdy ekranu.
Śmieszą mnie takie frazy. Żyjemy w czasach, gdy przeciętny człowiek ma największą w historii możliwość weryfikowania tego co słyszy. I technologia mu w tym pomaga. Straszenie technologią, której jeszcze nie ma brzmi dziwacznie w tej sytuacji.
Cytat:Po prostu utkniemy w zalewie gówna generowanego przez narratorów.
Czyli najgorszy scenariusz to po prostu powrót do tego, co społeczności ludzkie doświadczały przez większość swojej historii.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.
— Brandon Sanderson
Liczba postów: 20
Liczba wątków: 0
Dołączył: 03.2024
Istnieje też wyjście znane z filmowych produkcji, czyli w najprostszym wydaniu "zaufanemu" rejestratorowi podstawiamy coś, co odtwarza spreparowany przez AI obraz lub dźwięk, ale tu też są problemy, np. data nagrania, którą można by spreparować, tyle że kiedyś raczej każdy sprzęt nagrywający będzie potrafił zidentyfikować po dowolnej sieci bezprzewodowej miejsce w którym się znajduje, datę, godzinę itp., i to bez możliwości ingerencji przez użytkownika. "Zdalna diagnostyka" już teraz staje się standardem, łącznie z wszelkimi "smart" domami, gdzie wszystko jest jakoś tam sterowane i pracuje w lokalnej oraz też w globalnej sieci: ogrzewanie, okna, odkurzacz, pralka...
Można pójść jeszcze dalej i identyfikować inne sprzęty w otoczeniu danego rejestratora, np. w dość orwellowskim przypadku kamera może gdzieś sobie zapisywać w danych diagnostycznych, może nawet w "chmurze", informacje, że o danej godzinie była obok konkretnej lodówki, konkretnego telewizora, konkretnego smartfona, a może i maszynki do mięsa, bo wszystko naokoło pracowałoby w jakiejś bezprzewodowej sieci i mogłoby się wzajemnie wykrywać, czyli takie "szpiegowanie" do n-tej potęgi. Zatem do analizy przydatności materiału audio-wideo jako dowodu konieczna byłaby analiza sprzętu na którym nagranie wykonano, co i obecnie ma zastosowanie.
Nie po to montuje się coraz powszechniej monitoring, żeby z powodu możliwości AI spisywać go na straty, więc to zawsze będzie pewien wyścig technologiczny między "przestępcą" i "policjantem".
Liczba postów: 12,229
Liczba wątków: 89
Dołączył: 03.2013
Reputacja:
916
Płeć: mężczyzna
białogłowa napisał(a): Fanuel napisał(a):Za ładnych parę lat wyobrażalne jest, że potężny agent AI będzie mógł pracować na samym kodzie binarnym, teraz pracuje na klockach w określonym "języku". W takiej sytuacji nie da się odróżnić zmienionej kopii od oryginału. Zwłaszcza że modele rejestratorów będą zestandaryzowane i do stworzenia kopii opartej o metadane będzie potrzeba jedynie znać numer modelu. Ja się nie znam, ale brzmi to sensownie. Pijana kura, a co Ty powiesz na to?
I jeszcze mi umknęło, dlaczego miałoby nie być materiałów analogowych? Wydaje się, że raczej na odwrót. O ile sprokurowanie "analogowego" zdjęcia za pomocą AI może być dość łatwą sprawą (wydaje mi się, ze zwykły photoshop wystarczy), to jak miałoby wyglądać ujednolicenie, czy uzgodnienie zdjęcia z kliszą?
Fizyczny system zapisu obok cyfrowego jest nieekonomiczny i wielokrotnie bardziej podatny na zabiegi fałszujące. Wystarczy, że kopia fizyczna albo cyfrowa zostanie uszkodzona. No i co wtedy? W przypadku zachowania fizycznej formy zapis niby jest bardziej rzetelny bo fałszerstwo łatwo wykryć. Jednakże jeżeli fałsz będzie na systemie rejestracji obrazu, to zapis fizyczny uwierzytelni fałsz.
Cytat:Na razie sądy odrzucają nagrania wyślizgane przez AI, ulepszone wg. deklaracji po to, by poprawić ich jakość, czytelność. Inna sprawa, że w tych sprawach, o których czytałam, ingerencja AI była z góry zgłaszana. Na chłopski rozum wygląda mi to tak, że detekcja zmanipulowanych, albo od podstaw wygenerowanych video musi być cały czas krok do przodu, w przeciwnym razie doczekamy się szybko odrzucenia video jako dowodu w sprawach sądowych.
Bo na razie łatwo wykryć, że coś jest nie tak. Im bardziej płynne będą zmiany tym bardziej video będzie podważane. Przypomnę że raczej rzadko będą się trafiać jednoznaczne, świetnej jakości i wyrazistości zapisy w 8k. Raczej będzie casus zdjęć yeti czy ufo albo puzzli.
Cytat:Czyli przychylałbyś się do opinii, że może nadejść czas, że świadectwo naocznych świadków będzie w mocy, a film video z mety odrzucony, jako nieweryfikowalny?
No tak. Człowiek nie jest narzędziem cyfrowym, wykrywanie kłamstw ma swoje słabe strony, nawet w trybie turbo, ale babranie się w cyfrowej mazi jest trudniejsze.
Sebastian Flak
Liczba postów: 16,951
Liczba wątków: 413
Dołączył: 10.2006
Reputacja:
1,070
Płeć: mężczyzna
Fanuel napisał(a): Bo na razie łatwo wykryć, że coś jest nie tak. Im bardziej płynne będą zmiany tym bardziej video będzie podważane. Przypomnę że raczej rzadko będą się trafiać jednoznaczne, świetnej jakości i wyrazistości zapisy w 8k. Raczej będzie casus zdjęć yeti czy ufo albo puzzli. Też dlatego trzeba będzie odrzucić poleganie na „wygląda wiarygodnie”, a przerzucić się na dowody „matematyczne” oparte na enkrypcji. Nie będzie to oczywiście łatwe, ale nie jest to argument, żeby po prostu przyjąć, że „trudno, mamy postprawdę i nic z tym nie możemy zrobić”. Taki niedasizm zdaje mi się na rękę tym, którzy mają ochotę z tej postprawdy korzystać.
Cytat:No tak. Człowiek nie jest narzędziem cyfrowym, wykrywanie kłamstw ma swoje słabe strony
Nie ma czegoś takiego jak „wykrywanie kłamstw”.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.
— Brandon Sanderson
Liczba postów: 12,229
Liczba wątków: 89
Dołączył: 03.2013
Reputacja:
916
Płeć: mężczyzna
zefciu napisał(a): Fanuel napisał(a): W takiej sytuacji nie da się odróżnić zmienionej kopii od oryginału. Zwłaszcza że modele rejestratorów będą zestandaryzowane i do stworzenia kopii opartej o metadane będzie potrzeba jedynie znać numer modelu. No nie. W scenariuszu pijanej kury mamy klucze, które każdy rejestrator ma zaszyte i nie ujawnia ich na zewnątrz. Oczywiście wymaga to zaufania do producenta rejestratora.
No to ma sens tylko w systemie, który nie daje urządzeniu dostępu do internetu. A nawet znaki wodne, klucze i inne takie nie będą nadawane prostym urządzeniom w jakiś skomplikowany sposób. W przypadku zhakowania producenta czy algorytmu nadawania kluczy wszystkie urządzenia można wywalić na śmietnik. Ponadto warto zwrócić uwagę na tworzenie kopii zapisu. Tutaj trzeba potężnych pamięci aby to pomieścić, albo czasowego usuwania czy nadpisywania kopii.
Cytat:Ale po co blockchain i co tutaj da blockchain? Wystarczy, że rejestrator podpisze swoim kluczem.
No tak zrozumiałem czy tez zinterpretowalem podpisywanie kluczem stwierdzonym przez Kurę.
No bo co w przypadku zrootowania urządzenia? Zmienionym plik będzie miał podpis kluczem. Wstecz to może trudniej zrobić, ale zaplanowana akcja to już inna para kaloszy. A nawet wstecz działając wystarczy nie wymieniać fragmentu tylko cały odcinek. Aby cyrku uniknąć tylko zapis na podzielonych, rozproszonych fragmentach pozwlałby na zachowanie sensowności prawdziwości zapisu.
Cytat:Ewentualne złamanie algorytmów enkrypcji przez komputery kwantowe to jest problem znacznie większy niż możliwość wypchnięcia tego czy innego deep-fake’a.
No pewnie. Ale sytuacja, gdzie fałszywa byłaby pewność, że większość miałaby niezachwianą pewność, że blockchain pozwala na rzetelny zapis dowodów to sposób na spokojne wrabianie każdego w każde gówno.
Cytat:Śmieszą mnie takie frazy. Żyjemy w czasach, gdy przeciętny człowiek ma największą w historii możliwość weryfikowania tego co słyszy.
No i praktycznie nikt tego nie robi a opiera się o społeczny dowód słuszności i inne heurystyki. Ba, samodzielne "sprawdzanie" doprowadziło do wykwitu sekt altmedowych, płasko ziemskich, turbosłowiańskich i wszelakich spiskowych. Bo to że coś sobie można sprawdzić o niczym nie świadczy, jeszcze trzeba wiedzieć co sprawdzić i czy ktoś inny kitu nie wciska samemu nie wiedząc czy manipulując.
Cytat:I technologia mu w tym pomaga. Straszenie technologią, której jeszcze nie ma brzmi dziwacznie w tej sytuacji.
Od groma pomaga. Atak przeprowadzony przez zwolenników Trumpa tego najlepszym przykładem. Histeria antyszczepionkowa kolejnym. Pudelki i inne serwisy bzdurzące bez składu to tylko wisienki na torcie.
Cytat:Czyli najgorszy scenariusz to po prostu powrót do tego, co społeczności ludzkie doświadczały przez większość swojej historii.
Kwestia możliwości narratorów. Ludzkość globalnie nie tkwiła w świecie, w którym dałoby się tworzyć świat z Orwella. Zawsze były możliwości przełomu. W sytuacji, gdy nie da się odróżniać prawdy od fałszu wystarczy bawić się w Goebellsa i dominująca narracja, choćby nie wiem jak odklejona będzie jedyną słuszną. Bo ani nikt nie będzie stał na barykadach prawdy, bez poczucia zagrożenia, ani odkrycia jakichś szokująco odmiennych faktów nie będą się przebijały. Niby czemu miałyby? Każdy ma swoją prawdę, taką samą jak inni. Ważniejsze niż fakty jest zapewnienie poczucia bezpieczeństwa więc narracja agresywnie atakująca porządek będzie nie tyle zwalczana co ignorowana, będzie wtłaczana poza nawias tego co wypada, tego co wolno. Mnie tu się przypomina Konopielka i kuń śrebrny, co miał kopytka złote. Mieli ludzie możliwość sprawdzenia? Mieli. Mieli narrację od czapy? Mieli? Ale był świat zewnętrzny z inną narracją. Dzisiaj o żadnych światach nie będzie mowy, bo będzie ta sama mielonka, najwyżej nieco innym sosem polana. Już to widać w popkulturze. Na całym świecie dominują produkty, które są celowo zubażane i zbliżane do uniwersalnego wzorca sprzedaży.
Sebastian Flak
20.08.2024, 17:18
(Ten post był ostatnio modyfikowany: 20.08.2024, 17:27 przez Użytkownik 12434.)
Liczba postów: 20
Liczba wątków: 0
Dołączył: 03.2024
Fanuel napisał(a): W przypadku zhakowania producenta czy algorytmu nadawania kluczy wszystkie urządzenia można wywalić na śmietnik. Chętny do nowej pracy? ;-) W pewnej firmie z branży samochodowej szukają specjalistów do spraw cyberbezpieczeństwa - norma ISO/SAE 21434 stworzona w związku z unijnymi regulacjami dla tej branży - analiza ścieżek ataku na kryptomateriał jest podstawą, ale też tylko jednym z wielu elementów.
Zakładam, że wiesz doskonale, że kryptografia opiera się na tajnych danych od zarania dziejów, więc jest oczywiste, że gdy złamiesz tajemnicę, to wszystko co ona zabezpiecza można w cudzysłowie "wywalić na śmietnik". Więc trochę przesadzasz. Współczesne samochody i ich elektronika to dla przestępców łakomy kąsek i dotyczy to nawet urządzeń całkiem prostych co do realizowanych funkcji i montowanych w samochodzie.
Liczba postów: 16,951
Liczba wątków: 413
Dołączył: 10.2006
Reputacja:
1,070
Płeć: mężczyzna
Fanuel napisał(a): A nawet znaki wodne, klucze i inne takie nie będą nadawane prostym urządzeniom w jakiś skomplikowany sposób. Wystarczy zadbać o odpowiednią entropię. Nie musi to być jakoś superskomplikowane.
Cytat:W przypadku zhakowania producenta czy algorytmu nadawania kluczy wszystkie urządzenia można wywalić na śmietnik.
W przypadku gdy nastąpi taki atak, który pozwoli poznać klucz urządzenia. W przypadku gdy nastąpi coś, co nastąpić nie musi. W przypadku podszycia się sobowtóra, czy w przypadku podrobienia podpisu również upadają pewne tradycyjne formy zabezpieczeń. Ale nikt nie mówi, że z samego faktu, że czasem ktoś podrobi podpis wynika, że w ogóle niczego nijak się nie da zabezpieczyć.
Cytat:No pewnie. Ale sytuacja, gdzie fałszywa byłaby pewność, że większość miałaby niezachwianą pewność, że blockchain pozwala na rzetelny zapis dowodów to sposób na spokojne wrabianie każdego w każde gówno.
Myślę, że ludzkość by się dość szybko zorientowała, gdyby dokonano takiego złamania i zaczęto je powszechnie stosować.
Cytat:No i praktycznie nikt tego nie robi a opiera się o społeczny dowód słuszności i inne heurystyki.
Bingo! Właśnie o to chodzi. Upowszechnienie deep-faków naprawdę niewiele w tej kwestii zmieni. Ludzie i tak będą w większości wierzyć w to, w co chcą wierzyć.
Cytat:Od groma pomaga. Atak przeprowadzony przez zwolenników Trumpa tego najlepszym przykładem. Histeria antyszczepionkowa kolejnym. Pudelki i inne serwisy bzdurzące bez składu to tylko wisienki na torcie.
No z jednej strony pomaga treści weryfikować, a z drugiej — dostarcza mnóstwo gównianych treści. Te dwie tezy się nie wykluczają w żaden sposób — technologia nie ma tutaj sama w sobie żadnej intencji; jest tylko narzędziem.
Cytat:Ludzkość globalnie nie tkwiła w świecie, w którym dałoby się tworzyć świat z Orwella.
No ale przecież świat z Orwella nie jest wcale jakoś technicznie zaawansowany. Jest wręcz dziadowski i technicznie zatrzymany.
Cytat:W sytuacji, gdy nie da się odróżniać prawdy od fałszu wystarczy bawić się w Goebellsa i dominująca narracja, choćby nie wiem jak odklejona będzie jedyną słuszną.
Ale taka strategia w ogóle w dzisiejszych czasach nie działa. Bo ludzie i tak trafią na narrację alternatywną. Goebbelsi dzisiejszych czasów stosują raczej strategię zasypywania ludzi narracjami (co widać np. w dyskusji o globalnym ociepleniu, gdzie te same ośrodki przekonują nas, że nie ma problemu i że problem jest tak duży, że nie ma sensu nic robić).
Cytat:Bo ani nikt nie będzie stał na barykadach prawdy, bez poczucia zagrożenia, ani odkrycia jakichś szokująco odmiennych faktów nie będą się przebijały.
To oczywiście zależy od tego, jaki będzie poziom życia średniej osoby. No bo jeśli będzie znośny, to rzeczywiście ludzie będą jedli papkę i urządzą się w tej dupie, w której się znaleźli. Jeśli jednak ten poziom spadnie poniżej poziomu, który pozwoli na podjęcie ryzyka, to zaczną podejmować ryzyko. Tylko że to jest zupełnie niezależne od tego, czy papka będzie sączona przez wysoko zaawansowaną ej-aj, czy przez tradycyjnych kaznodziejów.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.
— Brandon Sanderson
17.09.2024, 17:33
(Ten post był ostatnio modyfikowany: 17.09.2024, 17:48 przez Ayla Mustafa.)
Liczba postów: 3,333
Liczba wątków: 16
Dołączył: 07.2015
Reputacja:
361
Płeć: nie wybrano
Wszystkie główne modele AI mają progresywno-socjaliberalne poglądy:
https://www.trackingai.org/
AI od Muska (Grok) też. To udowadnia, że poglądy pisokonfederacyjne mają daleko do... inteligencji.
A nowy model ChataGPT dobił do 121 punktów IQ:
https://www.trackingai.org/IQ
W takim razie potencjalna sztuczna głupota (artificial stupidity) miałaby poglądy piso-konfederacyjne, nieprawdaż?
Liczba postów: 2,801
Liczba wątków: 13
Dołączył: 05.2018
Reputacja:
255
Ayla Mustafa napisał(a):
W takim razie potencjalna sztuczna głupota (artificial stupidity) miałaby poglądy piso-konfederacyjne, nieprawdaż?
Może tutaj chodzi o coś innego: informacje na których pisowcy i konfederaci opierają swoje poglądy są bardzo często nieprawdziwe, zmanipulowane czy wyolbrzymione. Nie mają wiele wspólnego z rzeczywistością a chaty gpt przecież opierają się na zazwyczaj zweryfikowanych i wyważonych tekstach. Prawacja operuje na tabloidowych emocjach, nie faktach (atakujom nas imigranty, poprawność polityczna niszczy wolność słowa, spisek elgiebete, moralność upada itd) a chat raczej odwrotnie więc stąd taki wynik.
Liczba postów: 3,333
Liczba wątków: 16
Dołączył: 07.2015
Reputacja:
361
Płeć: nie wybrano
Osiris napisał(a): Ayla Mustafa napisał(a):
W takim razie potencjalna sztuczna głupota (artificial stupidity) miałaby poglądy piso-konfederacyjne, nieprawdaż?
Może tutaj chodzi o coś innego: informacje na których pisowcy i konfederaci opierają swoje poglądy są bardzo często nieprawdziwe, zmanipulowane czy wyolbrzymione. Nie mają wiele wspólnego z rzeczywistością a chaty gpt przecież opierają się na zazwyczaj zweryfikowanych i wyważonych tekstach. Prawacja operuje na tabloidowych emocjach, nie faktach (atakujom nas imigranty, poprawność polityczna niszczy wolność słowa, spisek elgiebete, moralność upada itd) a chat raczej odwrotnie więc stąd taki wynik.
No okej. Ale czy czerpanie informacji o świecie z jakichś gadzinówek to oznaka inteligencji? Znam człowieka, który jako wyrocznię traktuje Dzikiego Trenera...
Liczba postów: 55
Liczba wątków: 0
Dołączył: 07.2023
Reputacja:
7
Ayla Mustafa napisał(a): Wszystkie główne modele AI: Pewne modele udostępnione do publicznego użytku. Ta dostępność ma swoje skutki.
"Klimat umiarkowany o nieumiarkowanych zmianach"
Liczba postów: 3,333
Liczba wątków: 16
Dołączył: 07.2015
Reputacja:
361
Płeć: nie wybrano
Mapa Burzowa napisał(a): Ayla Mustafa napisał(a): Wszystkie główne modele AI: Pewne modele udostępnione do publicznego użytku. Ta dostępność ma swoje skutki.
Jakie to są "skutki"?
Nawet z Groka od Muska, który miał w zamyśle Elona walczyć z "polityczną poprawnością", skończył jako postępowiec.
18.09.2024, 17:43
(Ten post był ostatnio modyfikowany: 18.09.2024, 17:52 przez Mapa Burzowa.)
Liczba postów: 55
Liczba wątków: 0
Dołączył: 07.2023
Reputacja:
7
Ayla Mustafa napisał(a): Mapa Burzowa napisał(a): Ayla Mustafa napisał(a): Wszystkie główne modele AI: Pewne modele udostępnione do publicznego użytku. Ta dostępność ma swoje skutki.
Jakie to są "skutki"?
Nawet z Groka od Muska, który miał w zamyśle Elona walczyć z "polityczną poprawnością", skończył jako postępowiec. Zamysł zamysłem, ale realizacja praktyczna rozbija się o ewentualne roszczenia prawne. Np. w warunkach użytkowania AI od OpenAI jest zapis, że OpenAI nie odpowiada za pewne szkody jakie użytkownikowi może wyrządzić AI, użytkownik z automatu zrzeka się pewnych praw, czyli godzi się na ich ograniczenie w odniesieniu do pozwów, odszkodowań itp. Ale jest też zapis, że wg niektórych lokalnych przepisów prawa niektóre z tych ograniczeń nie są dopuszczalne. Do tego kwestia bezpieczeństwa danych użytkowników, ochrona praw autorskich itp, itd.
Dostawca publicznej AI musi chronić siebie przed roszczeniami, skutkiem tego publiczni użytkownicy otrzymują dostęp do, mówiąc brutalnie, utemperowanej, uładzonej i życzliwej sztucznej inteligencji, odmawiającej pewnych poleceń, unikającej pewnych kwestii. A czy można to nazwać "polityczną poprawnością", to już kwestia definicji. Można stworzyć własne modele łamiące dowolne prawo, ale nie wpłyną one na publicznie dostępne wersje AI, bo modele są dla bezpieczeństwa wzajemnie izolowane.
Nie istnieje dostępna publicznie AI puszczona "samopas", czyli szkolona publicznie przez wszystkich dowolnymi treściami i korzystająca ze wszystkich zasobów internetu. To, że AI w formie chatów ma "dostęp do internetu" jest najczęściej nadinterpretowywane, bo ten dostęp jest dużo bardziej ograniczony niż się wydaje.
"Klimat umiarkowany o nieumiarkowanych zmianach"
|