Hoe denkt AI? (Theorie achter ChatGPT)

Hoe heeft AI zich ontwikkeld tot waar het nu is?

Hoe denkt AI? (Theorie achter ChatGPT)

Apps maken, content genereren, problemen oplossen—taken die ooit voorbehouden waren aan experts kunnen nu worden uitgevoerd met een paar goed geformuleerde vragen. De verschuiving is groot, en om te begrijpen hoe we op dit punt zijn gekomen, moeten we de ontwikkeling van kunstmatige intelligentie onderzoeken.

Dit artikel volgt de ontwikkeling van AI aan de hand van belangrijke fasen:

  • Wat is AI en waar komt het vandaan?
    Een overzicht van de oorsprong en vroege ontwikkeling.

  • De opkomst van Deep Learning
    Hoe meer rekenkracht en data machine learning hebben veranderd.

  • De geboorte van taalmodellen
    De opkomst van systemen die menselijke taal kunnen verwerken en genereren.

  • Wat is een LLM nu echt?
    Een uitleg van grote taalmodellen en hoe ze werken.

  • Wat is Generatieve AI?
    Onderzoek naar het vermogen van AI om nieuwe inhoud te creëren in tekst, beeld en meer.

  • Digitale gidsen: hoe chatbots ons door AI leiden
    De rol van conversatie-interfaces in het toegankelijk maken van AI.

Elke sectie bouwt verder aan een duidelijker beeld van de systemen die het huidige technologische landschap vormen.

Wat is AI en waar komt het vandaan?

Mensen hebben zich altijd afgevraagd of we denkende machines kunnen bouwen. Toen computers voor het eerst werden gemaakt, kwam dit in een stroomversnelling en in 1950 stelde Alan Turing dezelfde vraag en volgde die op met de beroemde Turingtest, een gedachte-experiment waarbij een machine probeert een mens te misleiden zodat die denkt dat het ook een mens is. Dit was de vonk die het AI-vuur aanwakkerde. Ze definieerden het als het uitvoeren van taken die normaal gesproken menselijke intelligentie vereisen, zoals het begrijpen van taal, herkennen van afbeeldingen, oplossen van problemen en zelf beslissingen nemen, feitelijk een virtueel persoon worden die al je vragen kan beantwoorden en al je problemen kan oplossen. Dit is waarom de Turingtest belangrijk was: je zet een kunstmatige intelligentie tegenover een mens die moet bepalen of hij met een mens of een robot praat. AI bootst in feite het menselijk denken na. Daarom gaf John McCarthy het de naam Kunstmatige Intelligentie. Ze dachten dat het één zomer zou duren om een niveau te bereiken waarop het deze testen zou doorstaan en perfect zelfstandig zou werken, maar in werkelijkheid is de ontwikkeling van AI nog steeds gaande.

Wat is AI en waar komt het vandaan?

Vroege AI, in de jaren 60 en 70, was regel-gebaseerd. Als je wilde dat een computer ging “denken”, moest je hem precies vertellen hoe hij moest denken. Dit waren expertsystemen, waarbij elke regel door een mens gecodeerd moest worden. Dit werkte tot op zekere hoogte, maar je kunt AI niet elke beslissing voor elk mogelijk scenario aanleren, dat is onmogelijk—of in ieder geval onhaalbaar. Ze moesten uitzoeken hoe computers zelf nieuwe beslissingen konden nemen, beslissingen waarmee ze nooit eerder geconfronteerd waren.

Enter Machine Learning. In de jaren 80 en 90 maakten onderzoekers de overstap naar een nieuw idee: wat als we computers konden leren van data in plaats van alleen van regels? Dat is machine learning, een algoritme trainen met veel voorbeelden, zodat het patronen kan herkennen en voorspellingen kan doen. Wat betekent dat? Stel je voor dat je AI grammatica leert door elke grammaticaregel uit te schrijven, maar wat machine learning betekent, is dat AI duizenden artikelen, boeken en documenten krijgt te lezen en zelf uitvogelt hoe het Engels werkt, zelflerend.

De opkomst van Deep Learning

Machine learning was geweldig, maar beperkt. Het had vaak mensen nodig die aangaven naar welke kenmerken gekeken moest worden. Toen kwam Deep Learning, aangedreven door neurale netwerken, een structuur losjes geïnspireerd door hoe het menselijk brein werkt, waarbij wordt gekeken naar een grote hoeveelheid data, maar in stappen, waardoor het steeds meer patronen kon herkennen.

De echte doorbraak kwam rond 2012, toen AlexNet, een diep neuraal netwerk, een grote beeldherkenningswedstrijd won. Plotseling kon deep learning mensen verslaan in het herkennen van katten op internet. Dit was niet alleen beter, het was eng goed. Deep learning hield in dat je ruwe data (tekst, afbeeldingen, geluid) in een model kon stoppen en het zou zelf de belangrijke patronen ontdekken. Geen begeleiding meer nodig. Gewoon meer data, meer lagen, meer rekenkracht. AI begon exponentieel te leren.

De geboorte van taalmodellen

Toen deep learning beelden kraakte, vroegen onderzoekers zich af: kan het ook taal kraken? Het antwoord: ja, maar niet gemakkelijk. Taal zit vol nuance. Maar met genoeg data en slimme architectuur kwamen deep learning-modellen zoals Recurrent Neural Networks (RNN) die data in volgorde konden begrijpen, wat betekende dat het niet alleen naar één woord keek, maar ook naar hoe die woorden elkaar opvolgen en waarom ze dat zo doen. Later kwamen Transformers, die niet alleen naar de woorden individueel in de volgorde keken, maar ook de hele tekst in één keer konden overzien, wat ook hielp bij het begrijpen en genereren van tekst.

In 2017 introduceerde Google de Transformer-architectuur. Het veranderde alles. Transformers konden taal parallel verwerken, sneller, en aandacht besteden aan verschillende delen van een zin, zoals mensen dat doen. Deze architectuur vormt de basis van Large Language Models of LLM’s, zoals GPT, Gemini, Mistral; ineens wilde iedereen zijn eigen LLM maken die beter was dan de rest.

Wat is een LLM nu echt?

Een Large Language Model (LLM) is een type kunstmatige intelligentiesysteem dat is ontworpen om menselijke taal te begrijpen en te genereren. Het wordt getraind op enorme hoeveelheden tekstdata, zoals boeken, websites, artikelen en code, en is gebouwd met behulp van deep learning. In plaats van woorden te begrijpen zoals een mens, leert het de patronen in hoe wij schrijven en spreken.

De technologie erachter? Iets genaamd een Transformer-architectuur, waarmee het taal op grote schaal kan verwerken en genereren. Daar komt de “GPT” in ChatGPT vandaan:

  • Generative – het creëert nieuwe inhoud
  • Pre-trained – het leert eerst van algemene data
  • Transformer – de modelstructuur die het zware werk doet

Afhankelijk van de versie van het LLM kunnen de intelligentie, nauwkeurigheid en conversatievaardigheden van de chatbot sterk variëren. Nieuwere versies begrijpen context beter, maken minder fouten en geven meer bruikbare antwoorden.

Het verschil zit hem in parameters – de miljarden verbindingen die bepalen hoe het model informatie verwerkt. Meer parameters betekent over het algemeen beter geheugen en dieper begrip.

Je hebt vast gehoord van GPT-4, Claude, Gemini, LLaMA. Het is nu belangrijk om één ding te begrijpen: geen enkel van deze modellen “begrijpt” wat het zegt, ze zijn gewoon heel goed in het voorspellen van het volgende woord, op basis van de context.

Wat is Generatieve AI?

Generatieve AI is een begrip dat je vaak zult horen in combinatie met AI. Het is een overkoepelende term voor elke AI die iets nieuws creëert. Als het kan schrijven, tekenen, spreken of zingen zonder bestaand materiaal te kopiëren, is het generatief—het genereert nieuwe dingen. Het kan nieuwe tekst maken (denk aan ChatGPT), afbeeldingen (zoals DALL·E of Midjourney), video’s (zoals Sora), of code (zoals GitHub Copilot). Er zijn veel verschillende soorten, ondersteund door veel verschillende LLM’s.

Chatbots: Onze digitale gidsen

Chatbots zijn ons vriendelijke toegangspunt tot de complexe kennis van de hele wereld. In plaats van technische kennis nodig te hebben, beginnen we gewoon een gesprek en verkennen we AI op een natuurlijke manier. Ze vertalen indrukwekkende technologie naar onze eigen taal.

Chatbot-gebruik:

  • Deep learning: om taalpatronen te leren uit enorme hoeveelheden tekstdata
  • Transformer-architectuur: voor schaalbaar en efficiënt begrip van context
  • Machine learning: om continu te verbeteren en zich aan te passen op basis van feedback
  • Generatieve AI: om in realtime mensachtige antwoorden te formuleren

Maar laten we niet vergeten: het “begrijpt” niet zoals mensen dat doen. Het imiteert begrip. Dat is voorlopig prima. We zijn nog niet bij de AI-singulariteit, maar we zitten zeker op de snelweg ernaartoe. En ChatGPT? Dat is gewoon het nieuwste kilometeraanduiding op een veel langere reis.

Laat ons uw eigen AI-team bouwen

Wij helpen bedrijven zoals die van u bij het ontwikkelen van slimme chatbots, MCP-servers, AI-tools of andere soorten AI-automatisering om mensen te vervangen bij repetitieve taken in uw organisatie.

Meer informatie

Computergebruik en Browsergebruik met LLM's Verkennen
Computergebruik en Browsergebruik met LLM's Verkennen

Computergebruik en Browsergebruik met LLM's Verkennen

Ontdek hoe AI is geëvolueerd van taalmodellen naar systemen die GUIs en webbrowsers bedienen, met inzichten over innovaties, uitdagingen en de toekomst van mens...

3 min lezen
AI Large Language Models +4
AI Technologie Trend
AI Technologie Trend

AI Technologie Trend

AI-technologietrends omvatten de huidige en opkomende ontwikkelingen in kunstmatige intelligentie, waaronder machine learning, grote taalmodellen, multimodale m...

4 min lezen
AI Technology Trends +4