Mapa Burzowa napisał(a):Autonomiczne taksówki od Waymo jeżdzą już w paru miastach USA. Sęk w tym, że potrzebują one dokładnego zmapowania całego terenu, na którym jeżdżą, więc na razie jeżdżą w miastach ciepłych i w których nie pada za bardzo, czyli w miastach, w których drogi są ciągle zasadniczo w tym samym stanie, a więc trasy przejazdów są tam przewidywalne. Jakie są to miasta? Los Angeles, San Fransisco, Phoenix i Austin:Ayla Mustafa napisał(a): Analiza kolosalnych ilości danych przez AI w ultraszybkim czasie to faktycznie czynnik, który mocno pomaga w odkryciach naukowych.AI analizuje dane zdobyte pośrednio, czyli przygotowane przez człowieka, a to jest dla AI większym złem niż dobrem. To jakim to jest złem wychodzi wtedy, gdy np. wpuści się AI do świata rzeczywistego i każe się jej funkcjonować w świecie rzeczywistym i w czasie rzeczywistym, czyli np. autonomiczne samochody - tutaj ze "złem teoretycznych danych zdobytych pośrednio" AI musi walczyć za pomocą danych zdobywanych bezpośrednio przez siebie samą.
https://support.google.com/waymo/answer/...%20operate.
Mapa Burzowa napisał(a):Za kreatywne generowanie głupot byłyby kary. Za kreatywne odkrywanie wniosku naukowego, który byłłby subiektywnie nowy dla AI, ale byłby już obiektywnie udowodniony przez ludzi z przeszłości, byłyby nagrody. Zatem AI uczyłoby się jak AlphaGo, ale w innej dziedzinie. W końcu po wyćwiczeniu kreatywnej skuteczności w badaniu świata potrafiłoby wymyślać odpowiedniki "ruchu 37", ale w nauce, a nie w grze go.Ayla Mustafa napisał(a): Dlaczego nie polepszyć tej oszałamiającej możliwości dodaniem do niej niebywałej kreatywnej intuicji?Przeciwnie. Wybujała kreatywność przy mocno ograniczonej liczbie rozpatrywanych kontekstów, przy niemożności podważania i weryfikacji sensu danych zdobytych pośrednio, przy niemożności doprecyzowania danych względem kontekstów na podstawie własnych przemyśleń w czasie rzeczywistym, itp., itd, prowadzi nader często, czasem nieakceptowalnie często, wprost do generowania przez AI całej masy zwykłych głupot.
I sztuczna inteligencja mogłaby robić eksperymenty w swych badaniach, ale miałaby prawo używać do tych eksperymentów jedynie narzędzi, które były znane w zakresie czasowym istnienia danych, na których się już trenowała, chyba że sama stworzyłaby dane narzędzie w swym procesie badawczo-twórczym. Zatem po nauce na podstawie danych do 2000 roku (włącznie z 2000 rokiem) nie mogłaby używać niczego, co zostało stworzone po 2000 roku, chyba że sama stworzyłaby dane narzędzie w swym procesie badawczo-twórczym. AI miałoby też ograniczenia budżetowe w swych badaniach, by jeszcze bardziej nakierować AI na kreatywne kombinowanie. A im mniej kontekstów i innych danych dla AI, tym wyższy sztuczna inteligencja miałaby poziom trudności, a w procesie nauczania powinno się stopniowo podwyższać poziom trudności, by nauczyć się jak najwięcej.
"I sent you lilies now I want back those flowers"

