Sažetak:
Mozak ne bilježi stvarnost, on je stvara.
Naša percepcija je kontrolirana halucinacija, temeljena na očekivanjima i interpretaciji osjetilnih signala.
Vidimo i čujemo ono što mozak pretpostavlja da je vani, ne nužno što jest.
AI modeli i ljudski mozak imaju zajedničku osobinu: oboje “haluciniraju” kad im fali informacija.
Mape značenja i halucinacije
Re: AI modeli i ljudski mozak haluciniraju kad im fali informacija
Sažetak:
Često se kaže da AI "halucinira", no istina je da ljudi to rade još i češće.
Ako čovjek napiše izvještaj s 3 greške, super.
Ako to napravi AI, nepouzdan je i to je problem iako je to napravio 1000× brže.
Dvostruki standard?
AI može raditi korisne stvari, uz provjeru kad je to važno.
Možda je vrijeme da se više brinemo o vlastitim halucinacijama nego o njegovima.
Često se kaže da AI "halucinira", no istina je da ljudi to rade još i češće.
Ako čovjek napiše izvještaj s 3 greške, super.
Ako to napravi AI, nepouzdan je i to je problem iako je to napravio 1000× brže.
Dvostruki standard?
AI može raditi korisne stvari, uz provjeru kad je to važno.
Možda je vrijeme da se više brinemo o vlastitim halucinacijama nego o njegovima.
Re: AI modeli i ljudski mozak haluciniraju kad im fali informacija
Sažetak:
AI halucinacije nisu bug, to je cijela poanta.
Većina ljudi misli da je AI "halucinacija" (kad model izmisli nešto) pogreška.
No Ian Griffiths tvrdi suprotno:
- to nije greška, to je upravo ono što AI radi najbolje.
- AI ne zna istinu, on konstruira kontekstualno smislen odgovor na temelju ogromne količine kulturnog i jezičnog znanja.
Primjer: pitanje "Koje godine je Jimmy White osvojio svjetsko prvenstvo?"
On nikad nije osvojio ali da bi razumio pitanje, moraš u mašti izgraditi kontekstualno točnu ali faktualno lažnu sliku.
Ljudi to zovu razumijevanjem, kad AI to napravi, to zovu halucinacijom.
Umjesto da se borimo protiv toga, trebamo dizajnirati sustave koji koriste tu snagu.
AI halucinacije nisu bug, to je cijela poanta.
Većina ljudi misli da je AI "halucinacija" (kad model izmisli nešto) pogreška.
No Ian Griffiths tvrdi suprotno:
- to nije greška, to je upravo ono što AI radi najbolje.
- AI ne zna istinu, on konstruira kontekstualno smislen odgovor na temelju ogromne količine kulturnog i jezičnog znanja.
Primjer: pitanje "Koje godine je Jimmy White osvojio svjetsko prvenstvo?"
On nikad nije osvojio ali da bi razumio pitanje, moraš u mašti izgraditi kontekstualno točnu ali faktualno lažnu sliku.
Ljudi to zovu razumijevanjem, kad AI to napravi, to zovu halucinacijom.
Umjesto da se borimo protiv toga, trebamo dizajnirati sustave koji koriste tu snagu.
Re: Mapa značenja, halucinacije i kolegij
Dok OpenAI i konkurencija nastoje napraviti model koji što manje halucinira, pravi put rješenja tog problema je možda ono što ljudi rade kada žele donositi kvalitetnije odluke - formira se tim stručnjaka.
Sažetak:
Eric Roby stvara sustav u kojem dva AI agenta s različitim političkim pogledima (desni i lijevi) vode debatu o bilo kojoj temi (npr. remote work). Svaki agent ima vlastitog istraživača koji pretražuje internet i donosi ažurne informacije.
Desni i lijevi agent koriste GPT-4.0 i imaju definirane "stavove" (npr. "razmišljaj kao Trump" ili "razmišljaj kao Biden").
Svaki agent komunicira s istraživačkim pod-agentom koji koristi DuckDuckGo za dohvat informacija.
Prikupljene informacije se zatim oblikuju u koncizne odgovore (3–4 rečenice) iz njihove ideološke perspektive.
Odgovori se pohranjuju i koriste za sljedeće runde, čime se stvara kontinuirana debata.
Sažetak:
Eric Roby stvara sustav u kojem dva AI agenta s različitim političkim pogledima (desni i lijevi) vode debatu o bilo kojoj temi (npr. remote work). Svaki agent ima vlastitog istraživača koji pretražuje internet i donosi ažurne informacije.
Desni i lijevi agent koriste GPT-4.0 i imaju definirane "stavove" (npr. "razmišljaj kao Trump" ili "razmišljaj kao Biden").
Svaki agent komunicira s istraživačkim pod-agentom koji koristi DuckDuckGo za dohvat informacija.
Prikupljene informacije se zatim oblikuju u koncizne odgovore (3–4 rečenice) iz njihove ideološke perspektive.
Odgovori se pohranjuju i koriste za sljedeće runde, čime se stvara kontinuirana debata.
Re: Mapa značenja i halucinacije
Unutarnji monolog u LLM-ovima.
MIRROR modeli su ostvarili do 156% bolje performanse u odnosu na standardne modele.
https://arxiv.org/abs/2506.00430
Rad pod imenom MIRROR: Cognitive Inner Monologue Between Conversational Turns for Persistent Reflection and Reasoning in Conversational LLMs uvodi koncept unutarnjeg dijaloga. Struktura MIRROR-a puca LLM na dva sloja:
Thinker (unutarnji promišljatelj) slaže razmišljanja, logiku, ciljeve i sjećanja.
Talker (govornik) potom koristi tu refleksiju za koherentan i smišljen odgovor prema korisniku.
Ovaj pristup omogućuje LLM-ovima trajnu refleksiju između dijaloga, čime model postaje dosljedniji i sigurniji. Na benchmarku CuRaTe, pri složenim zadacima s proturječnim preferencijama, MIRROR modeli ostvaruju do 156 % bolje rezultate (!!) uz točnost iznad 80 % u svim scenarijima
Ovo je vjerojatno najbolji put za smanjenje halucinacija i vjerojatno korak prema svjesnom AI u kojem se model procesuira i integrira iznutra.
MIRROR modeli su ostvarili do 156% bolje performanse u odnosu na standardne modele.
https://arxiv.org/abs/2506.00430
Rad pod imenom MIRROR: Cognitive Inner Monologue Between Conversational Turns for Persistent Reflection and Reasoning in Conversational LLMs uvodi koncept unutarnjeg dijaloga. Struktura MIRROR-a puca LLM na dva sloja:
Thinker (unutarnji promišljatelj) slaže razmišljanja, logiku, ciljeve i sjećanja.
Talker (govornik) potom koristi tu refleksiju za koherentan i smišljen odgovor prema korisniku.
Ovaj pristup omogućuje LLM-ovima trajnu refleksiju između dijaloga, čime model postaje dosljedniji i sigurniji. Na benchmarku CuRaTe, pri složenim zadacima s proturječnim preferencijama, MIRROR modeli ostvaruju do 156 % bolje rezultate (!!) uz točnost iznad 80 % u svim scenarijima
Ovo je vjerojatno najbolji put za smanjenje halucinacija i vjerojatno korak prema svjesnom AI u kojem se model procesuira i integrira iznutra.