To forum używa ciasteczek.
To forum używa ciasteczek do przechowywania informacji o Twoim zalogowaniu jeśli jesteś zarejestrowanym użytkownikiem, albo o ostatniej wizycie jeśli nie jesteś. Ciasteczka są małymi plikami tekstowymi przechowywanymi na Twoim komputerze; ciasteczka ustawiane przez to forum mogą być wykorzystywane wyłącznie przez nie i nie stanowią zagrożenia bezpieczeństwa. Ciasteczka na tym forum śledzą również przeczytane przez Ciebie tematy i kiedy ostatnio je odwiedzałeś/odwiedzałaś. Proszę, potwierdź czy chcesz pozwolić na przechowywanie ciasteczek.

Niezależnie od Twojego wyboru, na Twoim komputerze zostanie ustawione ciasteczko aby nie wyświetlać Ci ponownie tego pytania. Będziesz mógł/mogła zmienić swój wybór w dowolnym momencie używając linka w stopce strony.

Ankieta: Czy przełożysz zwrotnicę
Nie posiadasz uprawnień, aby oddać głos w tej ankiecie.
Przełożę w wariancie klasycznym
13.33%
2 13.33%
Nie przełożę w wariancie klasycznym
33.33%
5 33.33%
Przełożę w wariancie probalistycznym
13.33%
2 13.33%
Nie przełożę w wariancie probalistycznym
40.00%
6 40.00%
Razem 15 głosów 100%
*) odpowiedź wybrana przez Ciebie [Wyniki ankiety]

Ocena wątku:
  • 1 głosów - średnia: 5
  • 1
  • 2
  • 3
  • 4
  • 5
Problem kolejkowy i jego wariant probalistyczny
#21
Hans Żydenstein napisał(a): Przekładam, bo przy milionie powtórzeń zginie 200 tysięcy mniej osób.

To uzasadnienie wzbudza we mnie większy niepokój, niż jednorazowa decyzja... Jesteś gotów milion razy przekładać wajchę? Dlaczego?

Czyżby z obawy, że przy pierwszych 100 razach na pierwszym torze wszyscy się oswobodzą na czas* i byłbyś "na minusie"?


(*Tak, zakładam, że nikt nie lubi być przywiązany do torów łańcuchem, więc próby oswobodzenia będą niezależne od decyzji "wajcho-majstra")

______________________

EDIT: Przypomniało mi się pytanie z pewnej gry RPG, które było stawiane podczas tworzenia charakteru. Brzmiało tak:

- Prowadzisz grupę żołnierzy. Stoicie na rozstaju dróg. Jeżeli poprowadzisz grupę drogą A, masz 100% pewność, że 50% przeżyje a 50% zginie. Jeżeli poprowadzisz grupę drogą B, masz 50% pewności, że 100% przeżyje, a pozostałe 50% pewności, że 100% zginie.


Statystycznie przy milionie powtórzeń wynik będzie taki sam, a jednak obie opcje tak strategicznie jak i moralnie są diametralnie różne. Przyznaję, że w tamtym czasie wybrałem drogę A, dziś raczej poszedłbym drogą B. W grze RPG, wiadomo.
Wszystko ma swój czas
i jest wyznaczona godzina
na wszystkie sprawy pod niebem
Spoiler!
Koh 3:1-8 (edycje własne)
Odpowiedz
#22
bert04 napisał(a): To uzasadnienie wzbudza we mnie większy niepokój, niż jednorazowa decyzja... Jesteś gotów milion razy przekładać wajchę? Dlaczego?

Przecież napisałem, że zginie 200 tysięcy mniej osób. Ty jesteś gotów milion razy jedynie pogłaskać wajchę ? Dlaczego ? Pewnie dlatego, żeby chwalić się jak się uratowało wszystkich i zamiatać pod dywan jak się zabiło 6 osób Oczko

bert04 napisał(a): - Prowadzisz grupę żołnierzy. Stoicie na rozstaju dróg. Jeżeli poprowadzisz grupę drogą A, masz 100% pewność, że 50% przeżyje a 50% zginie. Jeżeli poprowadzisz grupę drogą B, masz 50% pewności, że 100% przeżyje, a pozostałe 50% pewności, że 100% zginie.

Jakbym znał cel misji, ilość żołnierzy itd, to wtedy mógłbym podjąć racjonalną decyzję

A teraz ta sama sytuacja, ale w sytuacji gdy dotyczy wszystkich ludzi na Ziemi. Też wybierasz B ? Duży uśmiech
Odpowiedz
#23
Hans Żydenstein napisał(a):
bert04 napisał(a): To uzasadnienie wzbudza we mnie większy niepokój, niż jednorazowa decyzja... Jesteś gotów milion razy przekładać wajchę? Dlaczego?

Przecież napisałem, że zginie 200 tysięcy mniej osób.

Musiałbyś zabić milion osób, żeby ocalić te domniemane 200 tysięcy (zakładając, że policzyłeś poprawnie). I to pewnie od około 1000 przełożeń miałbyś jako taką pewność, że statystyka nie kłamie, do tego czasu równie dobrze mógłbyś być na minusie.


Cytat:Ty jesteś gotów milion razy jedynie pogłaskać wajchę ?  Dlaczego ?

Dlatego, że uważam prawo do życia za absolutne i przy prostych rzędach wielkości za niedopuszczalne wybieranie między "mniejszym złem". Wybieranie przez osobę trzecią, która nie jest ani na jednym ani na drugim torze.

.
.
.

Przyznaję jednak, że przy wykładniczych rzędach wielkości mój "kręgosłup moralny" zacząłby się naginać. 1-1/log(10+) czy jakoś tak.


Cytat:Jakbym znał cel misji, ilość żołnierzy itd, to wtedy mógłbym podjąć racjonalną decyzję

No to przypuśćmy, że zmierzasz do jakiejś bitwy, z 50% ilością żołnierzy masz 50% szans na wygraną a ze 100% liczbą żołnierzy odpowiednio 100%. Teraz prościej?
Wszystko ma swój czas
i jest wyznaczona godzina
na wszystkie sprawy pod niebem
Spoiler!
Koh 3:1-8 (edycje własne)
Odpowiedz
#24
bert04 napisał(a): Musiałbyś zabić milion osób, żeby ocalić te domniemane 200 tysięcy (zakładając, że policzyłeś poprawnie). I to pewnie od około 1000 przełożeń miałbyś jako taką pewność, że statystyka nie kłamie, do tego czasu równie dobrze mógłbyś być na minusie.
Ja zabijam 1000000, a Ty zabijasz 1200000.

bert04 napisał(a): Dlatego, że uważam prawo do życia za absolutne i przy prostych rzędach wielkości za niedopuszczalne wybieranie między "mniejszym złem". Wybieranie przez osobę trzecią, która nie jest ani na jednym ani na drugim torze.
A jak nie pociągasz za wajchę to wtedy nie wybierasz ? Bierność też jest wyborem.

Żeby wyeliminować iluzję szlachetności bierności, to można ten dylemat zmodyfikować tak, że musisz przechylić wajchę w lewo lub w prawo, jak nic nie zrobisz to zginą wszyscy z obydwu torów.

Zresztą jeżeli narażanie 6 osób na 20 % szansy, że umrą jest lepszym wyborem niż zabicie osoby z innego toru, to czy narażanie 20 osób na 20 % szansy, że umrą jest dalej lepsze niż zabicie tej osoby ? 100 osób? Gdziej jest ta granica?
Odpowiedz
#25
Hans Żydenstein napisał(a): Ja zabijam 1000000, a Ty zabijasz 1200000.

Być może w czasie, jak inni przekładają wajchy miliony razy zajmuję się głównym problemem, czyli jak zatrzymać te cholerne pociągi.

Cytat:A jak nie pociągasz za wajchę to wtedy nie wybierasz ? Bierność też jest wyborem.

Ale aktywność to nie tylko wybranie jednej z dwóch opcji, to także zezwolenie na granie według reguł gry, uznanie ich za swoje. To nie jest dylemat racjonalny tylko moralny, jak przykładowo, czy wolno negocjować z terrorystami.

Cytat:Żeby wyeliminować iluzję szlachetności bierności, to można ten dylemat zmodyfikować tak, że musisz przechylić wajchę w lewo lub w prawo, jak nic nie zrobisz to zginą wszyscy z obydwu torów.

Z racjonalnego punktu widzenia proporcja uratowanych do zabitych będzie w tym przypadku znacznie korzystniejsza, niż Twoje powyższe 20%.

Z moralnego punktu widzenia przełożenie wajchy jest uratowaniem części osób, a śmierć drugiej połowy jest skutkiem ubocznym. Moraliści rozróżniają tutaj między zasadą mniejszego zła (przykłady zefcia) i zasadą podwójnego skutku (Twoja modyfikacja).

Z tych dwóch powodów przełożenie wajchy w tym przykładzie jest win-win.

Cytat:Zresztą jeżeli narażanie 6 osób na 20 % szansy, że umrą jest lepszym wyborem niż zabicie osoby z innego toru, to czy narażanie 20 osób na 20 % szansy, że umrą jest dalej lepsze niż zabicie tej osoby ? 100 osób? Gdziej jest ta granica?

Mylisz racjonalność z moralnością. Zycie tym różni się od księgowości, że nigdy nie wiesz, czy 20% więcej ludzi to lepiej niż 20% mniej. A konsekwencje wyborów wychodzą poza proste cyferki.

Zresztą podałem już moją granicę. Od proporcji 1/10 mogę się zacząć zastanawiać, czy taki wybór jest dopuszczalny. Choć wolałbym minimum 1/10^3.
Wszystko ma swój czas
i jest wyznaczona godzina
na wszystkie sprawy pod niebem
Spoiler!
Koh 3:1-8 (edycje własne)
Odpowiedz
#26
bert04 napisał(a): e]
Ale aktywność to nie tylko wybranie jednej z dwóch opcji, to także zezwolenie na granie według reguł gry, uznanie ich za swoje. To nie jest dylemat racjonalny tylko moralny, jak przykładowo, czy wolno negocjować z terrorystami.

Dorabiasz reguły gry, których w dylemacie nie ma. Nie negocjowanie z terrorystami ma swoje uzasadnienie w tym, że istnieje ryzyko, że terroryści i tak nie dotrzymają ustaleń negocjacji, że sam fakt podejmowania negocjacji zachęci innych do terroryzowania, bo wartość oczekiwana terroryzowania się zwiększa, etc. Tutaj tego nie ma. W imię zasad, które tu nie działają, efektywnie sprawiasz, że ginie więcej ludzi.
Odpowiedz
#27
żeniec napisał(a): (...) sam fakt podejmowania negocjacji zachęci innych do terroryzowania,

To nie ja wprowadziłem modyfikację, że kolejka będzie zjeżdżać milion razy i jakiś przykładowy Hans będzie te milion razy wajchę przekładał. Nie wiem, na jakiej zasadzie ma działać ten milion powtórzeń, ale fakt grasowania  pomyleńca, który przywiązuje ludzi łańcuchami do szyn i psuje hamulce w kolejkach, przyprawia mnie o niepokój.

Cytat:W imię zasad, które tu nie działają, efektywnie sprawiasz, że ginie więcej ludzi.

Zasady działają tak samo na wydumanych kombinacjach kolejek, zwrotnic i zamków szyfrowych jak i w przypadku eksperymentów pseudomedycznych w Oświęcimiu i nie tylko. A mierzenie moralności kalkulatorem jest mi obce, ale to może duch czasów. W każdym bądź razie poświęcanie zasad dla tak nieznacznie większej szansy jak te 20% to nie dla mnie.



PS: Wydaje mi się, że te +20% jest źle policzone, ale stochastyka zawsze była moją piętą achillesową, więc może ktoś inny to sprawdzi.
Wszystko ma swój czas
i jest wyznaczona godzina
na wszystkie sprawy pod niebem
Spoiler!
Koh 3:1-8 (edycje własne)
Odpowiedz
#28
bert04 napisał(a): Nie wiem, na jakiej zasadzie ma działać ten milion powtórzeń
Przecież napisałem. Na takiej zasadzie, że po drogach będą jeździć miliony autonomicznych samochodów. Te miliony autonomicznych samochodów będzie miało miliony lat doświadczenia w ocenianiu sytuacji na drogach. I to doświadczenie będzie im pozwalało bardzo dobrze ocenić prawdopodobne skutki różnych zachowań, jakie mogą podjąć. Scenariusz kolejkowy to tylko taka tandetna ilustracja. W istocie dylematy będą wyglądać tak:

Cytat:Jedziesz sobie autostratą, widzisz idiotę, który na autostradę wlazł. W swojej niezmierzonej mądrości wiesz, że prawdopodobieństwo, że go zabijesz, jeśli nie zmienisz pasa wynosi 80%. Jeśli zmienisz pas, zabijesz swojego pasażera po prawej z prawdopodobieństwem 72%, a tego po lewej z prawdopodobieństwem 30%. Oczekiwana liczba śmierci w samochodzie, z którym się zderzysz to 1,35 ludzi
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#29
Proponuje dołożyć fotele katapultowe zamiast poduszek powietrznych do wszystkich autonomicznych samochodów. Problemy, którym ciężko zaradzic softwarowo, czasem można rozwiązać hardwareowo. Dylematy ograniczymy tylko do tuneli
I hear the roar of big machine
Two worlds and in between
Hot metal and methedrine
I hear empire down


Odpowiedz
#30
zefciu napisał(a): Przecież napisałem. Na takiej zasadzie, że po drogach będą jeździć miliony autonomicznych samochodów. Te miliony autonomicznych samochodów będzie miało miliony lat doświadczenia w ocenianiu sytuacji na drogach. I to doświadczenie będzie im pozwalało bardzo dobrze ocenić prawdopodobne skutki różnych zachowań, jakie mogą podjąć. Scenariusz kolejkowy to tylko taka tandetna ilustracja. W istocie dylematy będą wyglądać tak:

Cytat:Jedziesz sobie autostratą, widzisz idiotę, który na autostradę wlazł. W swojej niezmierzonej mądrości wiesz, że prawdopodobieństwo, że go zabijesz, jeśli nie zmienisz pasa wynosi 80%. Jeśli zmienisz pas, zabijesz swojego pasażera po prawej z prawdopodobieństwem 72%, a tego po lewej z prawdopodobieństwem 30%. Oczekiwana liczba śmierci w samochodzie, z którym się zderzysz to 1,35 ludzi
W istocie samochody, które będą miały takie dylematy moralne, stracą pozycję na rynku na korzyść mniej uczonych w piśmie samochodów o prostej moralności - "chroń tego, kto za ciebie zapłacił".
Odpowiedz
#31
ZaKotem napisał(a): W istocie samochody, które będą miały takie dylematy moralne, stracą pozycję na rynku na korzyść mniej uczonych w piśmie samochodów o prostej moralności - "chroń tego, kto za ciebie zapłacił".
To nie takie proste. Bo znowu – jedziesz sobie samochodem autonomicznym. Samochód któregoś dnia masakruje 20 osób na przystanku. Okazuje się, że samochód ocenił na podstawie zachowania samochodu nadjeżdżającego z przeciwka, że istnieje jednoprocentowy cień szansy, że ten zjedzie nam na kurs kolizyjny. Wydaje mi się, że większość kierowców nie czułaby się z tym dobrze.

Generalizując: nawet jeśli samochód ma przyjąć jako priorytet ochronę swoich pasażerów, to i tak nie może to być priorytet absolutny.

Już zupełnie pomijając to, że zbyt „proste moralnie” rozwiązania mogą zostać zakazane prawnie.

Dla rozluźnienia: https://www.smbc-comics.com/comic/self-d...car-ethics
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz
#32
bert04 napisał(a): To nie ja wprowadziłem modyfikację, że kolejka będzie zjeżdżać milion razy i jakiś przykładowy Hans będzie te milion razy wajchę przekładał. Nie wiem, na jakiej zasadzie ma działać ten milion powtórzeń, ale fakt grasowania  pomyleńca, który przywiązuje ludzi łańcuchami do szyn i psuje hamulce w kolejkach, przyprawia mnie o niepokój.
Zefciu odpowiedział, ale mogła to być też ilustracja tego, jaki jest oczekiwany rezultat w tym dylemacie.

bert04 napisał(a): Zasady działają tak samo na wydumanych kombinacjach kolejek, zwrotnic i zamków szyfrowych jak i w przypadku eksperymentów pseudomedycznych w Oświęcimiu i nie tylko. A mierzenie moralności kalkulatorem jest mi obce, ale to może duch czasów. W każdym bądź razie poświęcanie zasad dla tak nieznacznie większej szansy jak te 20% to nie dla mnie.
Jakich dokładnie zasad? Chyba za dużo złych intencji wyczytujesz. A dylemat może być bardziej realny, niż się wydaje, i jakoś trzeba go rozstrzygnąć.

bert04 napisał(a): PS: Wydaje mi się, że te +20% jest źle policzone, ale stochastyka zawsze była moją piętą achillesową, więc może ktoś inny to sprawdzi.
Proste policzenie wartości oczekiwanej, jest dobrze policzone.
Odpowiedz
#33
żeniec napisał(a): Jakich dokładnie zasad? Chyba za dużo złych intencji wyczytujesz. A dylemat może być bardziej realny, niż się wydaje, i jakoś trzeba go rozstrzygnąć.

No dobra, więc wymyślmy taki realny, nie wydumany, przykład. Tonie Titanic, ludzie gniotą się przy szalupach, wiadomo że dla wszystkich nie starczy. Wtedy ktoś (domyślnie kapitan) rzuca hasło "Kobiety i dzieci najpierw". A ktoś inny (domyślnie inżynier) oponuje "Wcale że nie, kobiety i dzieci z 20% wyższym prawdopodobieństwem nie przeżyją*, lepiej najpierw wpuszczać zdrowych i silnych mężczyzn". A statek tonie dalej, czasu na rozstrzygnięcie sporu jest niewiele. Jak zdecydować? Jak uczyć kapitanów, którzy potencjalnie mogą decydować w milionie przypadków przy milionie katastrof?

I tak, wiem, są teorie, że nigdy nie było "Kobiety i dzieci najpierw". Czytałem, wątpię, ale to temat na inny temat.

(*mówimy o początku XX wieku, dziś proporcje wyglądają inaczej)
Wszystko ma swój czas
i jest wyznaczona godzina
na wszystkie sprawy pod niebem
Spoiler!
Koh 3:1-8 (edycje własne)
Odpowiedz
#34
bert04 napisał(a): No dobra, więc wymyślmy taki realny, nie wydumany, przykład. Tonie Titanic, ludzie gniotą się przy szalupach, wiadomo że dla wszystkich nie starczy. Wtedy ktoś (domyślnie kapitan) rzuca hasło "Kobiety i dzieci najpierw". A ktoś inny (domyślnie inżynier) oponuje "Wcale że nie, kobiety i dzieci z 20% wyższym prawdopodobieństwem nie przeżyją*, lepiej najpierw wpuszczać zdrowych i silnych mężczyzn". A statek tonie dalej, czasu na rozstrzygnięcie sporu jest niewiele. Jak zdecydować? Jak uczyć kapitanów, którzy potencjalnie mogą decydować w milionie przypadków przy milionie katastrof?
To jest właśnie problem takich teoretycznych dylematów: stawiają one decydenta w pozycji Boga, transcendentnego wobec problemu i do tego wszechwiedzącego, przynajmniej na poziomie oceny prawdopodobieństwa. Tymczasem Bogiem nie jest ani człowiek, ani AI (z wyjątkiem Bogotronu zbudowanego przez cywilizację w Najwyższej Fazie Rozwoju - ale dopóki gwiazdy w okolicy nie będą kwadratowe, to znaczy, że jeszcze nie jesteśmy w tej fazie). Teoretyczna etyka czasem zapomina o tym, że sam proces podejmowania decyzji jest kosztem. Nie chodzi tu nawet o czas podejmowania decyzji - powiedzmy, że w przypadku AI jest to koszt zaniedbywalny. Chodzi o ryzyko popełnienia błędu. Po pierwszej - ryzyko niepełnych lub po prostu fałszywych danych. Po drugie - ryzyko sabotażu, czyli celowej manipulacji danymi jakiejś wrogiej siły. Im więcej danych do przetworzenia, tym większe to ryzyko i tym samym koszt decyzji. Dlatego dobre systemy etyczne są proste i opierają się na jak najmniejszej liczbie danych, i to najłatwiejszych do weryfikacji.

Na przykład w przypadku katastrof morskich do szalupy wchodzą pierwsi po prostu ci, co są akurat najbliżej szalupy, załoga zaś aktywnie pomaga jedynie tym, którzy nie mogą się samodzielnie poruszać, niezależnie od płci, wieku i innych właściwości. Proste.
Odpowiedz
#35
ZaKotem napisał(a): To jest właśnie problem takich teoretycznych dylematów:

Przepraszam bardzo, ale przykład nie jest wcale teoretyczny. Na Titanicu szalupy spuszczano po dwóch stronach. Na sterburcie oficer Murdoch wpuszczał wprawdzie kobiety najpierw, ale jak ich nie znalazł, to wpuszczał i mężczyzn, jak leciało. Na bakburcie oficer Lightoller pozwalał tylko dwóm mężczyznom siadać do szalupy, a resztę zapełniał na szybkiego kobietami. Przez to po jego stronie spuszczano częściej niepełne szalupy, co wydatnie zmniejszyło liczbę osób, które się uratowały. Jednakże we wszystkich kategoriach klasowych i wiekowych procent kobiet, które przeżyły katastrofę, był ponadproporcjonalny: 97% z pierwszej klasy, 90% z drugiej, 46% z trzeciej (dla mężczyzn te proporcje są odpowiednio 30%, 8%, 16%)

https://www.tagesspiegel.de/kultur/titan...83760.html

Cytat:Teoretyczna etyka czasem zapomina o tym, że sam proces podejmowania decyzji jest kosztem. Nie chodzi tu nawet o czas podejmowania decyzji - powiedzmy, że w przypadku AI jest to koszt zaniedbywalny. Chodzi o ryzyko popełnienia błędu. Po pierwszej - ryzyko niepełnych lub po prostu fałszywych  danych. Po drugie - ryzyko sabotażu, czyli celowej manipulacji danymi jakiejś wrogiej siły. Im więcej danych do przetworzenia, tym większe to ryzyko i tym samym koszt decyzji. Dlatego dobre systemy etyczne są proste i opierają się na jak najmniejszej liczbie danych, i to najłatwiejszych do weryfikacji.

W praktyce systemy etyczne ekip ratunkowych często opierają się na kryteriach szybkiego wyboru, w których ratownik po prostu decyduje według wyczucia wiedząc, że wszystkich nie uratuje. Czasem jedna osoba przejmuje proces decyzyjny oceniając zdrowie według kategorii zielony/żółty/czerwony/czarny, a potem ratownicy ewakuują po kolei czerwonych/żółtych/zielonych/czarnych. Przekłada to odpowiedzialność oceny na jedną osobę, zdejmując ją z innych (tych "przekładaczy wajch").

Cytat:Na przykład w przypadku katastrof morskich do szalupy wchodzą pierwsi po prostu ci, co są akurat najbliżej szalupy, załoga zaś aktywnie pomaga jedynie tym, którzy nie mogą się samodzielnie poruszać, niezależnie od płci, wieku i innych właściwości. Proste.

Tak, gdyż obecnie na statkach jest tyle szalup, że wszyscy się zmieszczą, więc wyznaczanie jakiejś kolejności wsiadania jest idiotyczne. W 1912 roku kalkulowano z "niedoszalupowaniem" statków licząc na to, że w tych regionach wystarczająco szybko dopłyną inne statki i wyślą własne łodzie ratunkowe. Prawdopodobnie to bardziej wpływało na decyzje oficerów, niż postulowane czasem wiktoriańskie wychowanie.
Wszystko ma swój czas
i jest wyznaczona godzina
na wszystkie sprawy pod niebem
Spoiler!
Koh 3:1-8 (edycje własne)
Odpowiedz
#36
ZaKotem napisał(a): Tymczasem Bogiem nie jest ani człowiek, ani AI
AI nie jest Bogiem. Ale AI, która ma milion lat doświadczenia w obserwacji różnych sytuacji na drodze i znacznie szybszy od człowieka czas reakcji jest bogiem. W znaczeniu pogańskim – istotą nadludzką.
Tress byłaby doskonałą filozofką. W istocie, Tress odkryła już, że filozofia nie jest tak wartościowa, jak jej się wcześniej wydawało. Coś, co większości wielkich filozofów zajmuje przynajmniej trzy dekady.

— Brandon Sanderson
Odpowiedz


Skocz do:


Użytkownicy przeglądający ten wątek: 1 gości