fciu napisał(a): Jakoś mi to przypomina esej "Monady są jak burrito". Ładne analogie, które niczego nie pomagają zrozumieć.
Rel.
Kiedy uczyłem się Haskella, znałem już dobrze teorię kategorii i wiedziałem, czym są monady oraz w jaki sposób się ich używa w matematyce. Jednak zrozumienie, dlaczego i w jakim celu się ich używa w tym języku programowania, było bardzo trudne właśnie przez takie kretyńskie analogie.
Ayla Mustafa napisał(a): Skoro modele AI są hodowane, a nie budowane, to należy analizować zachowanie modeli psychologicznie, a nie informatycznie/inżynieryjnie.
Nie ma takiej implikacji.
Ayla Mustafa napisał(a): Nawet sto lat nie wystarczyłoby człowiekowi, by w pełni przestudiować i zrozumieć strefę latentną/ukrytą jednego, nowego, dużego modelu AI.
To samo dotyczy (w jeszcze większym stopniu) obwodów nerwowych w mózgu człowieka, co nie przeszkadza z pewnymi sukcesami rozwijać neuronauki.

