Ayla Mustafa napisał(a): Były szef grupy badawczej OpenAI stworzył start-up, który ma na celu wyłącznie stworzenie bezpiecznej superinteligencji:AGI to stwór z innej bajki, a superinteligencja z jeszcze innej. Futurolodzy to futurolodzy, a rzeczywistość bywa zgoła inna. Chętnie bym zapytał dowolnego futurologa, czy "bezpieczna" to wciąż "super", a nie coś wpasowanego na siłę w "człowiecze ramy" z różnymi tego skutkami. Wiele kontekstów do takiej futurystycznej dyskusji by się znalazło, jest tu nawet osobny do tego wątek.
https://en.m.wikipedia.org/wiki/Safe_Sup...igence_Inc.
Co ciekawe, Microsoft straci prawa do czerpania zysku z Chata GPT, jeśli OpenAI uzna, że stworzyło AGI (artificial general inteligence):
Cytat:Z kolei ChatGPT o1 (bez "prewiev"), wedle plotek, ma zawitać w pażdzierniku do użytku dla klientów.Wstępnie, to "o1-prewiev" w praktyce robi wrażenie czata bardziej "kumatego" niż GPT4. Tak spiskowo, to jest to też sprzedawany towar, więc pewne rzeczy mogą być "pod publiczkę" aż do przesady, ale to mocno zależy od wrażeń konkretnego użytkownika. Mnie bardzo wkurza domyślne wykraczanie bez pytania poza postawione zadanie, ale "o1" nie przesadza tak jak np. Gemini, który niemal zawsze zaczyna od czegoś w stylu "świetne pytanie!", potem leje sporo zbędnej wody, a na końcu zasypuje propozycjami dodatkowych pytań, tyle, że mi się prawie zawsze nasuwają pytania zupełnie inne, a lektura proponowanych niemiłosiernie mnie rozprasza.
Co do większej "kumatości" modelu "o1", to widać różnicę. Testowałem go na problemie, którego metodę rozwiązania w formie opisowych kroków podałem mu "na tacy", aby sprawdzić jak tą metodę rozumie i jak ją zastosuje. Zrobił to lepiej niż GPT4 postawiony w tej samej sytuacji, a już dużo lepiej wykonał polecenie optymalizacji tej metody, gdzie GPT4 brnął nazbyt często w absurdy. Wprawdzie za pierwszym razem się pomylił, ale za drugim już było lepiej. Wydaje się też, że lepiej "rozumie" polecenia i wykonuje je detalicznie, z czym GPT4 ma spory problem. Modelowi GPT4 czasem, albo i często, "odbija", czyli bez powodu gubi kontekst i to nawet w obrębie sąsiednich poleceń, albo wykonuje polecenie "z grubsza", pomijając wiele jasno sprecyzowanych szczegółów. Możliwe, że to kwestia domyślnej temperatury modelu i nadmiernych halucynacji. Na razie nie można tworzyć własnych modeli "o1", więc nie wiadomo jak OpenAI ustawia domyślnie ten obecnie dostępny. Przy innym modelu to samo ustawienie może dawać inne skutki, więc takie porównywanie ustawień może nie mieć sensu.
Cytat:Są plotki, że ChatGPT 5 wyjdzie w grudniu tego roku.Po co GPT5 jeżeli jest "o1"? Chyba, że chodzi o zupełnie inne zastosowania albo "o1" stanie się GPT5.
