Chciałbym pogadać o modnym temacie, jakim jest dzisiejsze AI. Nie da się ukryć, że modele takie jak GPT czy Claude jawią się jako bardzo przełomowe w pewnych kwestiach — np. można się upierać, że w większości prostych tematów zdają test Turinga. Nie da się też jednak ukryć, że jeszcze daleko im do tego, co rozumiemy jako AGI — sztuczną inteligencję zdolną rozumieć różne aspekty otaczającego świata w stopniu przynajmniej takim jak człowiek.
Zastanawiam się zatem, jak byście obstawiali w kwestii tego, czy obecny boom AI doprowadzi do AGI samym, że tak powiem „rozpędem”? Czy będziemy w stanie stworzyć AGI po prostu ulepszając istniejące technologie generatywnej AI? Czy też potrzebujemy jakichś nowych technologii, a obecne modele sztucznej inteligencji pozostaną tym czym są (być może będą lepiej podpowiadały kod, pisały teksty, czy kradły obrazki z gołymi babami, ale nie staną się czymś więcej).
Zastanawiam się zatem, jak byście obstawiali w kwestii tego, czy obecny boom AI doprowadzi do AGI samym, że tak powiem „rozpędem”? Czy będziemy w stanie stworzyć AGI po prostu ulepszając istniejące technologie generatywnej AI? Czy też potrzebujemy jakichś nowych technologii, a obecne modele sztucznej inteligencji pozostaną tym czym są (być może będą lepiej podpowiadały kod, pisały teksty, czy kradły obrazki z gołymi babami, ale nie staną się czymś więcej).
