Fanuel napisał(a):Okej. Warunki początkowe, czyli kontekst i warunki, w których innowacje miały miejsce, mogłyby być stopniowo podawane sztucznej inteligencji jako podpowiedzi (czyli jako dodatkowe cechy wejściowe), gdyby AI nie radziło sobie z (choćby przybliżonym) przewidywaniem odkryć naukowych. Wtedy sztuczna inteligencja byłaby pełniej umieszczana "w butach" odkrywających naukowców i w końcu wykształciłaby genialną kreatywność badacza.Ayla Mustafa napisał(a): To już ja, a nie AI, piszę.
W sumie najlepiej zastosować tu konstrukcję kaskadową, czyli np. najpierw trenować model AI na danych sprzed 2000 roku, potem na danych sprzed 2001, następnie sprzed 2002 i tak dalej, aż do 2024 roku. W ten sposób zyskalibyśmy dużo danych do testowania i uczenia modelu AI prawidłowego przewidywania przyszłych odkryć i wydarzeń. Dzięki temu model AI mógłby nauczyć się rozpoznawania wzorców i korelacji, które prowadzą do nowych odkryć. Takie podejście mogłoby znacząco zwiększyć zdolność AI do przewyższania ludzkich możliwości w odnajdywaniu innowacyjnych rozwiązań.
rozwój w czasie nie wynika bezpośrednio z odkryć je poprzedzających a z warunków brzegowych.
Fanuel napisał(a): Algorytmy lepsze nie będą, brakuje nam mocy obliczeniowej, sęk w tym, że ta z pewnością wzrośnie, więc doczekamy się automatyzacji praktycznie wszystkich dziedzin życia.Jasne, że skalowanie będzie postępować, ale nie widzę powodu, wedle którego algorytmy nie miałyby być lepsze.
"I sent you lilies now I want back those flowers"



