S07E14 - Over GPT-5, ChatGPT agent en open-source LLM's

Show notes
Welkom terug bij Radio Raccoons! In deze aflevering brengen we je de heetste AI-scoops van de zomer: GPT-5, ChatGPT agent, xAI Grok 4, nieuwe AI wearables en Google Genie 3 — met een bijzondere focus op GPT-5, dat niet zozeer één model is en meer een kluwen van samenwerkende modellen. In onze deepdive duiken we in de wereld van open-source LLM’s: we ontrafelen wat ‘parameters’ nu écht betekenen, en we leggen het verschil uit tussen open-source en open-weight modellen. Tot slot beantwoorden we een vraag van een curious raccoon over het redeneervermogen van LLM’s, en trekken we in de watercooler show-off een verrassende parallel tussen een hedendaags AI-event en een gebeurtenis uit de geschiedenis.
Tech scoops
https://www.theverge.com/openai/748017/gpt-5-chatgpt-openai-release
https://openai.com/index/gpt-5-system-card/
https://openai.com/index/introducing-chatgpt-agent/
https://www.theverge.com/report/718975/xai-grok-imagine-taylor-swifty-deepfake-nudes
https://brilliant.xyz/products/halo
https://deepmind.google/discover/blog/genie-3-a-new-frontier-for-world-models/
Deep dive
https://openai.com/index/introducing-gpt-oss/
https://developers.googleblog.com/en/introducing-gemma-3-270m/
Curious Raccoon
LLMs zijn - Deevid herhaalde het nog eens in de laatste podcast - woordvoorspellers.
Wat betekent het dan als zo een model begint te "redeneren"? Stelt het zichzelf gewoon kritische vragen / past hij een bepaald algoritme toe waardoor het beter weet welk deel van zijn neuraal netwerk hij moet aanspreken? Creëert het zo voor zichzelf een betere context, waardoor de kans dat het de "juiste" woorden voorspelt, toeneemt? Of wat betekent het juist als een woordvoorspeller gaat redeneren?
Bedankt,
Michael
Watercooler show-off
https://arstechnica.com/ai/2025/07/exhausted-man-defeats-ai-model-in-world-coding-championship/