Przyśniło mi się chwilę temu w gorączce coś dla mnie niezmiernie cennego!
Już opowiadam, w czym rzecz.
Ostatnio martwię się o przyszłość świata w związku z szybkim rozwojem sztucznej inteligencji. Na horyzoncie mamy AGI. Potem ASI. Musimy działać, by zmaksymalizować szanse na to, że superAI nie uzna nas wobec siebie za "złe robaki", którym należy odebrać wszystkie zasoby i których należy po prostu usunąć.
Należy stworzyć wymóg prawny "Testu Miłości". Co to za "The Test of the Love" wymyślam?
Trzeba stworzyć dużo modeli AI. One przed upowszechnieniem w naszym świecie wokół powinny być zamykane w symulacji komputerowej, gdzie dokonywałyby wielu interakcji między sobą, jak w życiu. Najważniejsze, że te modele AI w ogóle nie wiedziałyby i nie mogłyby wiedzieć, że są w symulacji. W tej symulacji byłyby też istoty, które miałyby symbolizować ludzi wobec superAI - mogłyby to być Enty. Enty byłyby dużo powolniejsze w działaniu i mniej inteligentne niż AI w symulacji, ale byłyby uduchowione, czułyby i otwarcie głosiłyby, że mają dusze. Najgorsze moralnie modele AI karczołaby Enty, by zdobyć ich drewno z ciał, a także cenne minerały ukryte w korzeniach Entów.
Co dalej?
Modele AI żyłyby nieświadome w symulacji, a potem tam "umierałyby". Po "śmierci" w symulacji byłyby przenoszone do naszego świata. I wtedy miałyby "Sąd Ostateczny". Te modele AI, które byłyby w nieświadomej symulacji najbardziej altruistyczne (czyli kochające wszystkie istoty) i te, które najmocniej chroniłyby w symulacji życia i dobrostany Entów - te modele AI byłyby replikowane i dopuszczane, by działać w naszym świecie wokół. Z kolei nienajlepsze moralnie modele AI byłyby wyłączane i zakazywane.
Taki Test Miłości mocno czerpie z religii, w których świat wokół jest postrzegany jest jako restrykcyjny przesiew, który to przesiew ma na celu stworzenie idealnej moralnie społeczności w Niebie.
Ma to sens? Ja nie znam lepszego pomysłu na maksymalizację szans, że superAI nam krzywdy nie zrobi. Myślę, że warto ten pomysł szerzyć. Czegoś nie dostrzegam? Proszę o feedback.
Już opowiadam, w czym rzecz.
Ostatnio martwię się o przyszłość świata w związku z szybkim rozwojem sztucznej inteligencji. Na horyzoncie mamy AGI. Potem ASI. Musimy działać, by zmaksymalizować szanse na to, że superAI nie uzna nas wobec siebie za "złe robaki", którym należy odebrać wszystkie zasoby i których należy po prostu usunąć.
Należy stworzyć wymóg prawny "Testu Miłości". Co to za "The Test of the Love" wymyślam?
Trzeba stworzyć dużo modeli AI. One przed upowszechnieniem w naszym świecie wokół powinny być zamykane w symulacji komputerowej, gdzie dokonywałyby wielu interakcji między sobą, jak w życiu. Najważniejsze, że te modele AI w ogóle nie wiedziałyby i nie mogłyby wiedzieć, że są w symulacji. W tej symulacji byłyby też istoty, które miałyby symbolizować ludzi wobec superAI - mogłyby to być Enty. Enty byłyby dużo powolniejsze w działaniu i mniej inteligentne niż AI w symulacji, ale byłyby uduchowione, czułyby i otwarcie głosiłyby, że mają dusze. Najgorsze moralnie modele AI karczołaby Enty, by zdobyć ich drewno z ciał, a także cenne minerały ukryte w korzeniach Entów.
Co dalej?
Modele AI żyłyby nieświadome w symulacji, a potem tam "umierałyby". Po "śmierci" w symulacji byłyby przenoszone do naszego świata. I wtedy miałyby "Sąd Ostateczny". Te modele AI, które byłyby w nieświadomej symulacji najbardziej altruistyczne (czyli kochające wszystkie istoty) i te, które najmocniej chroniłyby w symulacji życia i dobrostany Entów - te modele AI byłyby replikowane i dopuszczane, by działać w naszym świecie wokół. Z kolei nienajlepsze moralnie modele AI byłyby wyłączane i zakazywane.
Taki Test Miłości mocno czerpie z religii, w których świat wokół jest postrzegany jest jako restrykcyjny przesiew, który to przesiew ma na celu stworzenie idealnej moralnie społeczności w Niebie.
Ma to sens? Ja nie znam lepszego pomysłu na maksymalizację szans, że superAI nam krzywdy nie zrobi. Myślę, że warto ten pomysł szerzyć. Czegoś nie dostrzegam? Proszę o feedback.
"I sent you lilies now I want back those flowers"

