Wat zijn LLM’s (Large Language Models)?
LLM’s zijn kunstmatige intelligenties die zijn getraind om menselijke taal te begrijpen, te genereren en te voorspellen. Je kunt ze zien als extreem geavanceerde versies van de “autocompleet-functie” op je telefoon, maar dan op een schaal die groot genoeg is om volledige essays te schrijven, programmeercode te genereren of complexe debatten te voeren.
Term uitgelegd
Wat betekent de naam precies?
De term valt uiteen in drie belangrijke delen:
-
Large (Groot): Dit slaat op de enorme hoeveelheid data waarop ze getraind zijn (petabytes aan tekst van het internet, boeken, artikelen) en het enorme aantal parameters (de interne “knoppen” waar het model aan draait om verbanden te leggen).
-
Language (Taal): Hun primaire focus is menselijke taal, inclusief grammatica, context, nuances en zelfs verschillende programmeertalen.
-
Model: Het is een wiskundig raamwerk of een set algoritmen (meestal gebaseerd op de Transformer-architectuur) dat patronen herkent.
Op basis van waarschijnlijkheid
Hoe werken ze?
In tegenstelling tot wat veel mensen denken, “weet” een LLM niets in de menselijke zin van het woord. Het werkt op basis van waarschijnlijkheid.
Wanneer je een vraag stelt, breekt het model je tekst af in kleine stukjes, genaamd tokens. Vervolgens berekent het welk token het meest logisch volgt op de voorgaande tekst.
Voorbeeld: Als ik zeg “Het gras is…”, voorspelt het model met een zeer hoge waarschijnlijkheid dat het volgende woord “groen” is. Bij complexere vragen combineert het miljarden van dit soort waarschijnlijkheden om een samenhangend antwoord te vormen.
In actie
Waar worden ze voor gebruikt?
LLM’s zijn de motor achter bekende tools zoals ChatGPT, Claude en Gemini. Hun toepassingen zijn breed:
-
Tekstgeneratie: E-mails schrijven, creatieve verhalen maken of samenvattingen maken.
-
Vertaling: Razendsnel teksten omzetten tussen honderden talen met oog voor context.
-
Programmeren: Code schrijven, fouten opsporen (debuggen) en uitleggen hoe software werkt.
-
Analyseren: Grote hoeveelheden data doorzoeken om patronen te vinden of vragen te beantwoorden over specifieke documenten.
Het gebrek aan waarheid
De beperkingen: Hallucinaties
Hoewel een LLM heel slim lijkt, begrijpt hij de wereld niet zoals wij dat doen. Je kunt het model het beste vergelijken met de super-geavanceerde opvolger van de “autocompleet-functie” op je smartphone. Als je daar een bericht typt, stelt je telefoon woorden voor op basis van wat je normaal zegt, niet omdat de telefoon begrijpt wat je bedoelt.
Een LLM doet dit op reusachtige schaal. Hij heeft bijna alle teksten op het internet gelezen en onthouden welke woorden vaak na elkaar komen. Het probleem? Op het internet staat ook veel onzin, grappen en fouten. Omdat de AI geen “feitenchecker” is, maar een waarschijnlijkheidsmachine, kiest hij het woord dat het mooist in de zin past, niet per se het woord dat waar is.
Dit noemen we een hallucinatie: de AI vertelt met een stalen gezicht een verhaal dat heel geloofwaardig klinkt, maar compleet verzonnen is. Hij is als een zeer belezen papegaai: hij kan fantastisch praten en citeert uit duizenden boeken, maar hij heeft geen flauw idee of wat hij zegt ook echt is gebeurd. Zonder hulp van een echte zoekmachine blijft het een gokker die heel overtuigend kan praten.
Hoe je de controle houd over je data
llms.txt: De digitale handleiding voor AI
Een llms.txt bestand is een simpel tekstbestand op een website dat speciaal is geschreven voor AI-modellen. Je kunt het vergelijken met een informatiebalie bij de voordeur: in plaats van dat een AI-robot zelf de hele website moet uitpluizen (met het risico op fouten), krijgt hij hier direct een duidelijke samenvatting van de belangrijkste feiten.
Het dient twee hoofddoelen:
-
Kwaliteit: Het biedt de AI schone, betrouwbare informatie zonder de “ruis” van advertenties of menu’s, wat de kans op hallucinaties verkleint.
-
Huisregels: De eigenaar geeft aan hoe de informatie gebruikt mag worden. Het werkt als een verkeersbord: “Je mag mijn teksten wel gebruiken om vragen te beantwoorden, maar niet om je model mee te trainen.”
Kortom, het is een manier om AI-robots de weg te wijzen en te zorgen dat ze alleen de juiste feiten overnemen.