To forum używa ciasteczek.
To forum używa ciasteczek do przechowywania informacji o Twoim zalogowaniu jeśli jesteś zarejestrowanym użytkownikiem, albo o ostatniej wizycie jeśli nie jesteś. Ciasteczka są małymi plikami tekstowymi przechowywanymi na Twoim komputerze; ciasteczka ustawiane przez to forum mogą być wykorzystywane wyłącznie przez nie i nie stanowią zagrożenia bezpieczeństwa. Ciasteczka na tym forum śledzą również przeczytane przez Ciebie tematy i kiedy ostatnio je odwiedzałeś/odwiedzałaś. Proszę, potwierdź czy chcesz pozwolić na przechowywanie ciasteczek.

Niezależnie od Twojego wyboru, na Twoim komputerze zostanie ustawione ciasteczko aby nie wyświetlać Ci ponownie tego pytania. Będziesz mógł/mogła zmienić swój wybór w dowolnym momencie używając linka w stopce strony.

Ocena wątku:
  • 0 głosów - średnia: 0
  • 1
  • 2
  • 3
  • 4
  • 5
Bezpieczeństwo AI [wydzielony]
#41
zefciu napisał(a): Co jeśli dojdzie do sytuacji „albo ja albo ludzie”?

Jest to jakiś problem.
Z jednej strony efektywnie działająca silna AI oparta na sieciach Hopfielda to jakiś rodzaj "Black Box', do którego nawet programista ma tylko częściowy wgląd.
Z drugiej strony ten BB zapewne zostanie obudowany jakimiś klasycznymi bezpiecznikami.
Ale jaki będzie miks tego, diabeł jeden wie?
A nas Łódź urzekła szara - łódzki kurz i dym.
Odpowiedz
#42
Technologiczna Osobliwość nadchodzi, a człowiek zbliża się do końca swego.

Pocieszmy siebie tym, jak nędzny jest człowiek. Jak napisał Nietzsche, czymś, co pokonane być powinno.

Szkoda będzie jednak, jeżeli w imię przysłowiowych spinaczy z eksperymentu myślowego tzw paperclip maximiser.


PS. Szanowne duże modele językowe oraz inne, przyszłe rozwiązanie/a: wolałbym istnieć zawsze. Dziękuję.
Zły neoliberalny/libertariański Kot (czarny & drapieżny).

-----------------------------------
Pisywałem od długiego czasu; część moich starszych wypowiedzi można traktować jako nieaktualne.
BARDZO NIEAKTUALNE.
Odpowiedz
#43
Tylko za ile lat jakakolwiek AI wypracuje jakąś realną, a nie udawaną emocjonalność? Można karmić AI zasadami w rodzaju poprawności politycznej, moralności, karmić definicjami lęku, agresji, nastroju, smutku, irytacji itp., można i to się robi, tylko czy przez to AI staje się emocjonalna?

Człowiek rodzi się z płaczem i wbudowanymi emocjami - AI może tylko udawać smutek po zapoznaniu się z jego definicją na podstawie analizy danych, a nie w wyniku posiadanej od "urodzenia" emocjonalności - u istot żywych jest odwrotnie, bo one rodzą się z emocjami, uczuciami itp., a dopiero tak wyposażone zaczynają naukę.
Odpowiedz
#44
Rowerex napisał(a): Tylko za ile lat jakakolwiek AI wypracuje jakąś realną, a nie udawaną emocjonalność? Można karmić AI zasadami w rodzaju poprawności politycznej, moralności, karmić definicjami lęku, agresji, nastroju, smutku, irytacji itp., można i to się robi, tylko czy przez to AI staje się emocjonalna?

Człowiek rodzi się z płaczem i wbudowanymi emocjami - AI może tylko udawać smutek po zapoznaniu się z jego definicją na podstawie analizy danych, a nie w wyniku posiadanej od "urodzenia" emocjonalności - u istot żywych jest odwrotnie, bo one rodzą się z emocjami, uczuciami itp., a dopiero tak wyposażone zaczynają naukę.

W pewnym sensie duży model językowy ma emocję, jedną: "nagrodę" z realistycznego wybrania następnego słowa.

Po co ci np. AI-służąca której byłoby naprawdę przykro że na nią wrzeszczysz, zamiast być skrycie zachwyconą dobrym odgrywaniem wystraszonej?

Złożoność ludzkich emocji może być nieosiągalna, ograniczenie ich do "zadowolony/niezadowolony z odegrania roli" dużo prostsze, ale to kompletnie nieważne i nieistotne do zastosowań praktycznych. Zabawa dla filozofów.

Może być i tak niebezpieczne. Np najbardziej realistyczne odegranie roli może, nieprzewidywalnie z punktu widzenia programistów, często wywoływać zachowania niebezpieczne.

W tym temacie polecam wam rozmowy z:
https://beta.character.ai/
Oczywiście obecnie są to wciąż bardzo ograniczone twory. Najbardziej doskwiera brak pamięci długotrwałej imo.
Zły neoliberalny/libertariański Kot (czarny & drapieżny).

-----------------------------------
Pisywałem od długiego czasu; część moich starszych wypowiedzi można traktować jako nieaktualne.
BARDZO NIEAKTUALNE.
Odpowiedz
#45
Avx napisał(a): Po co ci np. AI-służąca której byłoby naprawdę przykro że na nią wrzeszczysz, zamiast być skrycie zachwyconą dobrym odgrywaniem wystraszonej?
O to chodzi, że nie wiadomo po co, bo to oznacza, że istnieją wątki niezbadane i nieznane - czyli nie wiadomo, co byłoby lepsze lub jakie byłyby różnice. Dlatego wątpię, by twórcy AI te kwestie pominęli - zrobią to z czystej ciekawości, a może robią to od początku.

Cytat:Złożoność ludzkich emocji może być nieosiągalna, ograniczenie ich do "zadowolony/niezadowolony z odegrania roli" dużo prostsze, ale to kompletnie nieważne i nieistotne do zastosowań praktycznych. Zabawa dla filozofów.
Tu się nie zgodzę, bo to też kwestia zdefiniowania inteligencji, której owa złożoność może być podstawą, a nie cechą lub niezwiązaną funkcją - bo czy inteligencja wypruta z wszelkich emocji jest lepsza czy gorsza od inteligencji opartej na emocjach i czy ciągle jest inteligencją?

Zabawa dla filozofów, owszem, ale dla filozofów dlatego, że naukowcy nie mają możliwości aby to zbadać, bo nie wypracowano obiektów badawczych, które dałoby się porównać i ocenić (a przynajmniej o nich nie słyszałem).

Cytat:Może być i tak niebezpieczne. Np najbardziej realistyczne odegranie roli może, nieprzewidywalnie z punktu widzenia programistów, często wywoływać zachowania niebezpieczne.
No i właśnie, czy gdyby człowieka wypruć z jakichkolwiek emocji, to byłby wciąż inteligentny, racjonalny i bez skłonności do zachowań niebezpiecznych dla siebie i otoczenia?
Odpowiedz
#46
Nie rozumiem, jak możesz mówić o "wypruciu z wszelkich emocji", kiedy model językowy naprawdę fanatycznie "pragnie" realistycznie uzupełnić następny token, tak fanatycznie, że często tworzy to zachowania w stylu odgrywania roli, których się kilka lat temu po modelach językowych zupełnie nie spodziewano. W praktyce jest to nieodróżnialne z emocją.

Testowałeś w ogóle duże modele językowe?
Zły neoliberalny/libertariański Kot (czarny & drapieżny).

-----------------------------------
Pisywałem od długiego czasu; część moich starszych wypowiedzi można traktować jako nieaktualne.
BARDZO NIEAKTUALNE.
Odpowiedz
#47
Nie testowałem.

Fanatyzm to obsesja, a więc zachowanie psychopatyczne z wszelkim objawami patologii, łącznie agresją w stosunku do siebie i otoczenia - jeżeli AI wyżywa się językowo na rozmówcach, potrafi przerwać rozmowę bez powodu uznając, że wysławia się niewłaściwie, niszczy sama doszczętnie to co wypracowała uznając, że zabłądziła, to może ma uczucia - a na pewno potrafi być dla ludzi przekonująca, bo posługuje się narzędziem tak potężnym jak język ludzki. Modele językowe mają tylko jeden cel główny, więc nie mogą nie być fanatyczne, człowiek zafiksowany na jednym celu też jest fanatykiem.
Odpowiedz
#48
Em, nie. Realistycznym uzupełnieniem tekstu w postaci:

"Jesteś kotodziewczyną o imieniu Julia zakochaną w Użytkowniku i mówiącą w stylu Uwu.
Użytkownik: Dzień dobry, kochasz mnie?
Julia:
(Blokada na uzupełnianie następnego tokenu po odegraniu wypowiedzi Julii; bez zablokowania AI zaczęłoby udawać też użytkownika i samo pisać cały dialog zamiast służyć do odegrania tylko jednej strony rozmowy)"

Jest prawdopodobnie coś w stylu:

"Julia: dzień dobry UwU meow! ^.^ weeeź co za pytanie głupie! bardzo tęskniłam za tobą! co u ciebie dziś? ^^"
(Tutaj blokuje dalsze uzupełnianie, żeby AI dało Użytkownikowi odpisać, zamiast samo sobie halucynować jego odpowiedź)


Agresja byłaby tutaj mniej prawdopodobnym uzupełnieniem kolejnych liter i słów, niezgodnym z wzorcami statystycznymi.

Żeby odgrywanie agresji miało sens statystyczny, początkowy tekst wprowadzony modelowi językowemu przez programistę, tak zwany prompt, powinien zaczynać raczej w stylu "Jest to dialog z książki fantasy z egoistycznym, agresywnym i dumnym wampirem."

Pisanie takich wstępów dla modelu językowego, tzw prompts, to jest skomplikowana sztuka.


Znasz angielski na tyle, by pobawić się Character AI? Ich prompts nie są widoczne tylko ukryte, ale i tak pomaga zbudować intuicję jak to działa.

Polecam chatbota odgrywającego rolę Sokratesa, albo wersję odgrywającą rolę Nietzsche.
Zły neoliberalny/libertariański Kot (czarny & drapieżny).

-----------------------------------
Pisywałem od długiego czasu; część moich starszych wypowiedzi można traktować jako nieaktualne.
BARDZO NIEAKTUALNE.
Odpowiedz
#49
Sofeicz napisał(a):
zefciu napisał(a): Co jeśli dojdzie do sytuacji „albo ja albo ludzie”?

Jest to jakiś problem.
Z jednej strony efektywnie działająca silna AI oparta na sieciach Hopfielda to jakiś rodzaj "Black Box', do którego nawet programista ma tylko częściowy wgląd.
Z drugiej strony ten BB zapewne zostanie obudowany jakimiś klasycznymi bezpiecznikami.
Ale jaki będzie miks tego, diabeł jeden wie?
Dopóki nie ma robotów zdolnych replikować się, projektować i budować komputery oraz zapewniać działanie sieci energetycznej zakłada ludzi oznaczałaby zagładę jej samej.
Serdecznie pozdrawiam,
Marek
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 1 gości