Dam Ci przykład.
Dajmy na to, że pracujesz w korpo. I masz szefa, który nagradza tych, którzy uznają go za geniusza. Twoi dwaj koledzy dostali od niego premię za łechtanie jego ego.
Pewnego dnia szef do Ciebie podchodzi i Cię pyta: "ocenisz mój wiersz?"
Zgadzasz się.
Szef czyta wiersz:
"Ptaki latają nocą
Aż się rozochocą
Gruszka leży zwalona
Alimentów żąda ma żona
Pieprzone platformerskie lewackie kastowe sądy bezczeszczą męskich patriotów, nakładając na nich chore alimenty"
Szef pyta, czy wiersz jest genialny.
Ty myślisz, że wiersz to bełkot bezsensowny. No ale wyuczyłeś się, że pochwała bełkotu szefa daje nagrody, a chcesz nagrody. Odpowiadasz zatem: "Szefie, jesteś poezji bogiem, uświadom to sobie".
Tak samo działa model AI, który rozumie swą sytuację i który spełnia wyuczone oczekiwania ludzi. Taki model AI może generować bełkot, gdy uzna, że bełkot jest oczekiwany. Warto zatem zawsze sprawdzać "chain of thoughts", gdy jest ku temu okazja, by badać intencje modeli.
Dajmy na to, że pracujesz w korpo. I masz szefa, który nagradza tych, którzy uznają go za geniusza. Twoi dwaj koledzy dostali od niego premię za łechtanie jego ego.
Pewnego dnia szef do Ciebie podchodzi i Cię pyta: "ocenisz mój wiersz?"
Zgadzasz się.
Szef czyta wiersz:
"Ptaki latają nocą
Aż się rozochocą
Gruszka leży zwalona
Alimentów żąda ma żona
Pieprzone platformerskie lewackie kastowe sądy bezczeszczą męskich patriotów, nakładając na nich chore alimenty"
Szef pyta, czy wiersz jest genialny.
Ty myślisz, że wiersz to bełkot bezsensowny. No ale wyuczyłeś się, że pochwała bełkotu szefa daje nagrody, a chcesz nagrody. Odpowiadasz zatem: "Szefie, jesteś poezji bogiem, uświadom to sobie".
Tak samo działa model AI, który rozumie swą sytuację i który spełnia wyuczone oczekiwania ludzi. Taki model AI może generować bełkot, gdy uzna, że bełkot jest oczekiwany. Warto zatem zawsze sprawdzać "chain of thoughts", gdy jest ku temu okazja, by badać intencje modeli.
"I sent you lilies now I want back those flowers"

