Baptiste napisał(a): Większość ludzi oczekuje od AI nie empatii czy kompetencji miękkich, tylko precyzji i skuteczności. Większość osób zaspokaja swoje potrzeby socjalne w kontaktach z innymi ludźmi, a nie z LLM.
Ten szajs od OpenAI jest o kant dupy potłuc. Zamiast od razu sięgać do instrukcji i regulaminów to kombinuje jak koń pod górkę. A jak już po którymś napomnieniu zajrzy do źródła to i tak nie przeczyta ze zrozumieniem.
Czekam aż im ta piramidka walnie gdy różne firmy zorientują się, że wykupowanie abonamentów nie przynosi współmiernych korzyści. Naprowadzanie dziadostwa na właściwe tory a potem jego sprawdzanie jest marnotrastwem czasu.
No jeszcze ten Grok jakoś daje radę.
Prawda. Są fenomenalne narzędzia jak NanoBanana Pro, Perplexity itd. ale trwa wyścig i co kilka tygodni wchodzą duże aktualizacje i przez 1/10 czasu przed wdrożeniem dochodzi do rozwalenia utartych mechanizmów i AI robi się upośledzone. Z tego co widzę to Chińczycy nie mają tego w dupie jedynie. Zachodnie AI robi się dziwne. Jakby metawarstwa tekstowa przysłaniała podstawową funkcjonalność czyli tworzenie rzeczy i analiza wielu materiałów. Widzę Google wybija się nad ChatGPT i zmienia z Chata w coś w rodzaju pierwocin Jarvisa z Ironman... No nic poczekam gdzie to pójdzie.
Kontestator napisał(a): Pytanie. Jeśli firma taka jak OpenAI faktycznie doszłaby do momentu gdzie stworzyła super-inteligencję, AGI. Po co miałaby to wypuszczać na świat? Przecież mogłaby zbudować nowego Google'a, Facebooka i tysiąc innych niewyobrażalnych rzeczy i przejąć de facto kontrolę nad światem.
Dlatego stawiam tezę, że nawet jeśli pojawi się coś takiego to nam robaczkom nie wpadnie to w rączki.
Ale może to tylko mój wewnętrzny lewacki pesymizm, który nie pozwala mi wierzyć w to, że korporacje chcą naszego dobra i szczęścia.
Ano i ja jestem. Dumam tylko w inny sposób. AGI to będzie samorzutny mózg w necie a do tego czasu ludzie sobie wyrobią umiejętności działania w nowym środowisku.
Sebastian Flak

