๐ฆ๐๐ฎ๐ฟ๐ ๐๐ฆ๐ฃ๐ ๐ฑ๐ฎ๐ด ๐ฎ
- Evi van der Velden
- 6 dec 2025
- 2 minuten om te lezen
Of het nu komt door het slaapgebrek, of door de geweldige spreken; ik heb gelachen! Deze ochtend begon met een Keynote waarin de vraag centraal stond, die ik ook in mijn werk met regelmaat ontvang; gaat LLM (het model achter o.a. Copilot) ons verder brengen, of erger vervangen?
Take away; een LLM model heeft geen zelfreflectie. In deze post later meer.
In deze sessie kwam het voorbeeld van een LLM model dat helemaal niet kan rekenen ter spraken. Een conclusie die ik ook vaak meegeef tijdens mijn sessies.
Voor zover ik weet is = (2 x 7,5) +15 = toch echt geen 24.
Na minuten lang proberen het juiste antwoord te krijgen tijden de live demo, kwam de conslusie; LLM is heel overtuigend, weet met zekerheid dat hij gelijk heeft, maar dat staat toch niet gelijk aan โons gelijkโ.
Waar kun je het dan wel voor inzetten? Een LLM model is namelijk een voorspelmodel, de nieuwe versie voorspeelt het meest logische woord en daarmee het antwoord, vervolgens een checkvraag.
Zoalsย Rafal Lukawieckiย aangeeft een zoekmachine op steroรฏde; zo moet je het dus ook gebruiken!
Een LLM model kan bekende data op zoeken, ook als het antwoord zich ergens tussen deze data bevindt. Dat klinkt vaag, hierom een voorbeeld; als ergens in de bron van het model staat dat het om 11 uur 15 graden is en om 12 uur 17 graden, dan kan het model aangeven hoe warm het is om 11:26 uur (dit noemen we interpoleren).
Maar wat kan een LLM model dan niet? Extrapoleren; of terwijl hoe warm is het in bovenstaand voorbeeld om 10 uur.
En oh ja; het model heeft geen enkele zelfreflectie. Een model denkt altijd dat het gelijk heeft en is ook erg overtuigend. Dat is meteen het gevaar!
Een ongelofelijk goede marketeer, of salesman.
Was dit je al bekend over het model van o.a. Copilot en ChatGPT dat je iedere dag gebruikt?






Opmerkingen