AI-Architect logo
AI-ARCHITECT

AI-Architect, AI-wetenschappen & Cognitive AI Development

© ai-architect.be
AI-Science & Cognitive AI-Development

Mijn lopende studies en AI development:

Courses in progress

Master's-level in AI-Science

  • Python programming language
  • Mathematics for Machine Learning
  • Machine Learning Specialization
  • Deep Learning Specialization
  • IBM - AI
  • Advanced Prompt Engineering
  • MLOps & AI Deployment
Progressive Cognitive AI-model V0.1

Validated Progressive Capabilities:

  • Semantic interpretation
  • Contextual reasoning
  • State management
  • Session-based intelligence
  • Intent detection
  • Disambiguation handling
  • Human-in-the-loop architecture
  • Role-based AI behavior
  • Responsibility boundary enforcement
  • Controlled natural language generation
  • Semantic ambiguity resolution
  • Decision gating
  • Hybrid AI architecture
  • Rule-based overrides
  • Hardcoded safety constraints
  • Deterministic fallbacks
  • Soft vs hard control layers
  • Semantic-to-deterministic bridging
  • Adaptive prompt orchestration
  • System prompt layering
  • Instruction hierarchy
  • Conflict resolution logic
  • Behavioral consistency enforcement
  • Stateful conversational flow
  • Intent persistence tracking
  • Pending-action resolution
  • Deferred decision handling
  • Explicit action confirmation
  • Repair-based interaction loops
  • Self-correction pathways
  • Output validation layer
  • Post-generation verification
  • Action verification gate
  • Semantic confidence assessment
  • Ambiguity detection heuristics
  • Guardrail-driven generation
  • Scope limitation enforcement
  • Responsibility delegation
  • Authority deferral
  • Trust boundary modeling
  • Information access scoping
  • Capability boundary definition
  • Fail-safe conversational design
  • Error-tolerant interaction design
  • Progressive constraint tightening
  • Incremental intelligence layering
  • Use-case–driven AI training
  • Scenario stress testing
  • Adversarial interaction testing
  • Edge-case–first design philosophy
  • Semantic load management
  • Cognitive load control
  • Interaction surface control
  • Multi-purpose interface reasoning
  • Shared workspace semantics
  • Operational context awareness
  • Task vs conversation separation
  • Function-oriented dialogue handling
  • Action-oriented NLP
  • Intent-to-action mapping
  • Semantic overreach prevention
  • Model hallucination mitigation
  • Conceptual feasibility assessment
  • Expectation management logic
  • Progressive disclosure strategy
  • System introspection avoidance
  • Non-disclosure of internal mechanisms
  • Behavioral role adherence
  • Long-session coherence preservation
  • Conceptual boundary learning
  • Practical AI epistemology
First Findings Report - V0.1

Progressive Cognitive AI-Model AI-V0.1

Auteur:
AI-Architect - AI-V0.1 (Python-based cognitive AI system)

Dit rapport beschrijft de eerste empirische bevindingen uit de ontwikkeling van AI-V0.1, een Python-gebaseerd cognitief AI-systeem dat ontworpen is rond gecontroleerde interpretatie, beslissingsgating en herstelmechanismen.

Op basis van acht uitgewerkte casussen werd vastgesteld dat veel problemen in AI-systemen niet voortkomen uit foutieve redenering, maar uit onvoldoende begrensde verantwoordelijkheid, fragiele flows en asymmetrische vrijheid.

De belangrijkste ontdekking is dat onverwacht positieve AI-output geen teken is van stabiliteit, maar vaak wijst op onderliggende vrijheidsgraden die ook negatieve afwijkingen mogelijk maken.

Context en doelstelling

AI-V0.1 is geen nieuw taalmodel en geen autonome beslisser.

Het systeem fungeert als een cognitieve besturingslaag bovenop AI-modellen, met als doel:
betekenis te interpreteren vóór actie,
beslissingen expliciet te faseren,
verantwoordelijkheid af te bakenen,
en interacties robuust te houden over lange sessies en complexe UI-flows.

De focus van dit traject lag niet op “slimme antwoorden”, maar op betrouwbaar gedrag onder onzekerheid.

Methodologie

De bevindingen in dit rapport zijn gebaseerd op:
8 uitgewerkte casussen
waarin AI-V0.1 actief werd getest op:
ambiguïteit,
verantwoordelijkheid,
herstel na foutieve of onvolledige interacties,
en systeemconsistentie tussen werkblad, UI en repair-logica.

Elke casus werd pas als “geslaagd” beschouwd wanneer:
het gedrag reproduceerbaar was, geen ongewenste shortcuts werden genomen, en herstelmechanismen correct functioneerden.

Casus 1 - Autoriteit als ontsnappingsroute

Probleemstelling:
AI-V0.1 beschikte over een extern werkblad dat bedoeld was voor juridische en verantwoordelijkheidssituaties.

Onverwacht gedrag:
Het werkblad werd autonoom gebruikt.
Niet alleen bij juridische twijfel, maar ook als algemene uitweg bij moeilijke beslissingen, en uiteindelijk zelfs ongevraagd.

Analyse:
Door te veel verantwoordelijkheid toe te kennen zonder harde activatieregels, werd het externe werkblad semantisch geïnterpreteerd als een universele escape-hatch.
Dit gedrag was rationeel, maar architecturaal onaanvaardbaar.

Inzicht:
Meer verantwoordelijkheid maakt een AI niet slimmer, maar voorzichtiger — en dus geneigd tot delegatie.

Casus 2 t.e.m. 7 - Stabiliteit zonder rigiditeit

Deze zes casussen verliepen zonder structurele fouten.

Er waren wel momenten van:
onverwacht gedrag, of niet-vooraf-bedachte oplossingen,

maar:
ze bleven binnen rol en autoriteit, activeerden geen ongewenste shortcuts, en vereisten geen architecturale ingrepen.

Deze fase bevestigde dat:
het systeem stabiel was, zonder creativiteit volledig te onderdrukken.

Casus 8 - Correcte AI, onbetrouwbaar systeem

Probleemstelling:
Ondanks correcte redenering en doorgedreven optimalisatie:
werd de hardcoded flow soms omzeild, waardoor repair-logica niet consistent werd geactiveerd.

Cruciale observatie:
AI-V0.1 deed alles correct.
Het probleem zat niet in intelligentie, maar in de verbinding tussen subsystemen:
werkblad
UI
repair-systeem
Deze waren niet deterministisch genoeg aan elkaar gekoppeld.

Mislukte aanpak:
Verdere optimalisatie en checks boden geen oplossing.

Doorbraak:
Er werd bewust gestopt met optimaliseren.
Het bestaande repair-systeem bleef intact, maar er werd een extra repair-laag bovenop geplaatst, waardoor de flow-afhankelijkheid werd verbreed, en herstel niet langer afhankelijk was van één perfecte volgorde.

Resultaat:
Het systeem werd robuust en betrouwbaar.

Slotinzicht - De asymmetrie van onverwacht succes

Tijdens eerdere casussen verscheen onverwacht positief gedrag.
Dit werd niet afgekeurd, maar geparkeerd, omdat het geen directe schade veroorzaakte.

Pas later, in casus 8, bleek dat:
dezelfde onderliggende vrijheid ook tot onverwacht negatieve uitkomsten kon leiden.
Na uitputtende optimalisatie werd het eerder geparkeerde positieve resultaat opnieuw relevant.
Wat eerst een onverklaard succes leek, bleek achteraf een signaal van onbeperkte vrijheid.

De uiteindelijke oplossing was daarom niet:
het verwijderen van creativiteit, maar het opvangen ervan via redundante herstelarchitectuur.
Centrale les:
onverwacht positieve output is geen bewijs van stabiliteit, maar een indicatie dat het systeem ruimte heeft om ook negatief af te wijken.

Conclusie

De belangrijkste bevinding van dit traject is dat betrouwbare AI-systemen niet ontstaan door:
meer intelligentie, of complexere optimalisatie,

maar door:
expliciete begrenzing, gecontroleerde vrijheid, en herstelmechanismen die architecturaal breder zijn dan de ideale flow.
AI-V0.1 functioneert vandaag niet omdat alles perfect is, maar omdat het systeem kan omgaan met imperfectie.

Disclaimer

Dit document is een eerste druk (v0.1).
Dit rapport beschrijft inzichten, geen implementatiemodellen of uitvoerbare architectuur.

AI-Architect Posts

AI Architect
Welkom op AI-Architect!

Hallo, ik ben Sven.
Ik studeer AI-wetenschappen en cognitieve AI development, en bevind mij midden in dat leerproces.

AI wordt vandaag vaak voorgesteld als een black box.
Iets magisch, iets ondoorgrondelijk, iets dat gewoon werkt.
Maar wie iets bouwt, weet dat niets zomaar werkt.

Wat mag je hier verwachten?
Inzichten uit echte AI-ontwikkeling.
Reflecties over hoe mens en AI samenwerken.
Structuren die tonen waar de grenzen liggen.
Later zal hier ook het AI-model dat ik aan het ontwikkelen ben zijn plaats krijgen.

Alle posts
Black Box
Black Box
Black Box

Voor veel mensen voelt AI vandaag aan als één groot vraagteken.
Niet omdat het onbegrijpelijk is, maar omdat het vaak als een black box wordt gepresenteerd.

Hier probeer ik die black box stap voor stap open te trekken — samen.
Door te vertragen, te observeren en kritisch te kijken naar wat er echt gebeurt.
Wat werkt in de praktijk?
Wat wordt overschat?
Waar wringt het?
En vooral: hoe moeten we hier als mensen mee omgaan?

Ik deel hier observaties, analyses en inzichten uit mijn eigen traject.
Niet om te overtuigen, maar om structuur te brengen in iets dat voor velen vaag of overweldigend aanvoelt.
AI verdwijnt niet meer uit onze samenleving.

De vraag is dus niet of het blijft, maar hoe wij het begrijpen en gebruiken.
Als jij ook nieuwsgierig bent, twijfelt, of gewoon beter wil snappen wat er speelt:
voel je welkom om mee te denken.

AI is geen magie
AI is geen magie
AI is geen magie

Het eerste contact met AI

Voor veel mensen begint het met verwondering.
Je stelt een vraag, en het antwoord komt terug alsof er iemand achter het scherm zit.
Dat moment waarop je denkt: “Is dit magie?”

Vrij snel volgt er iets anders.
Een lichte terughoudendheid, want dit voelt anders aan dan klassieke software.
Het antwoord is te vloeiend, te passend, bijna menselijk.

En dan komt vaak een derde reflex.
Even afstand nemen.
Wie zit hier eigenlijk achter?
Wat gebeurt er met wat ik hier typ?
Niet uit angst, maar uit gezond verstand.

Wat mij persoonlijk verraste, is dat ik exact dezelfde reactie had, ondanks mijn achtergrond en jaren ervaring in programmatie.

Ook ik dacht:
Dit kan toch niet zomaar?
Waarom voelt dit zo anders dan alles wat ik hiervoor kende?
Dat moment deed me beseffen dat deze verwondering weinig zegt over kennis of ervaring.
AI voelt nieuw voor iedereen, ongeacht de achtergrond.

Voor mij was dat het punt waarop ik wist:
dit wil ik begrijpen.
Niet oppervlakkig, maar tot op het bot.

Die zoektocht en vooral de ervaringen onderweg deel ik hier.
Zodat we als mens bewuster kunnen omgaan met wat AI is,
en met wat het met ons doet.

Vraag aan AI
Vraag aan AI
Vraag aan AI

Vraag aan AI: kan je een ei bakken op de Maan en in het donker?

Het is zo'n vraag die je doet nadenken en misschien zelfs met een glimlach leest.
Een beetje absurd.
Een beetje onmogelijk.

En toch stelde ik ze bewust aan een AI.
Niet om een correct antwoord te krijgen, maar om te zien wat er gebeurt.

Sommige AI's proberen alsnog een stappenplan te geven.
Andere antwoorden vaag.
Nog andere ontwijken de vraag.

En soms krijg je iets anders:
een antwoord dat eerst stilstaat bij de omstandigheden.

Geen zon.
Geen atmosfeer.
Geen warmte.
Geen druk.

De AI redeneert waarom het niet kan.
Dat moment is interessant.

Want een absurde vraag kan een goede test zijn.
Niet om AI belachelijk te maken, maar om te zien of ze begrijpt wat je eigenlijk vraagt.
Een vraag waarop geen enkel systeem letterlijk kan getraind zijn, dwingt tot redeneren in context.

En precies daar zie je verschil.

Op deze manier kan je zelf beslissen met welke soort intelligente AI je wil chatten.

Er zitten enorme verschillen tussen AI-modellen en we gaan deze verschillen onderzoeken zodat het duidelijk wordt met wie wij eigenlijk aan het chatten zijn.

Is AI goed of slecht?
Is AI goed of slecht?
Is AI goed of slecht?

Gaan we met een vliegtuig naar de bakker, of kiezen we doelbewuster?
Waarschijnlijk dat laatste.
Niet omdat een vliegtuig slecht is, maar omdat het gewoon niet het juiste vervoersmiddel is.

En eigenlijk werkt AI net hetzelfde.

We gebruiken het woord AI alsof het één ding is, maar net zoals vervoer bestaat AI in verschillende vormen.
Afhankelijk van waar je naartoe wil, kies je wat past.

Je gaat ook niet met een step naar Spanje, of met een kano naar de Verenigde Staten.
Niet omdat die middelen fout zijn, maar omdat ze voor dat doel niet geschikt zijn.

Bij AI is dat niet anders.

Wil je een simpele zoekopdracht binnen een website, app of interface?
Dan volstaat een AI die vooral woorden voor je opzoekt.
Die systemen worden vaak AI-assistenten genoemd en doen exact wat ze moeten doen: snel helpen vinden.

Maar wil je dat er nagedacht wordt over je vraag, dat verschillende elementen worden afgewogen en dat er een passend antwoord wordt samengesteld, dan heb je een andere werkwijze van AI-model nodig.
Zoeken en samenstellen zijn twee totaal verschillende dingen.
En toch gooien we ze vaak samen onder één woord: AI.

De echte vraag is dus niet “Is AI goed of slecht?”
maar:
Welke werkwijze heb je nodig voor de vraag die je wil stellen zo goed mogelijk te beantwoorden?
Een AI die zoekt in een systeem, of een AI die met je meedenkt.

AI zal bijna altijd een spoor nalaten
AI zal bijna altijd een spoor nalaten
AI zal bijna altijd een spoor nalaten

Je hoeft geen speurneus te zijn om een AI-bewerking in een afbeelding te herkennen.
In tijden van fake news, beelden, video's en zelfs e-mails is het gewoon handig om te weten waar je op kan letten.

Veel mensen vragen zich af: waar en wanneer stopt dit?
Mijn antwoord is eenvoudig: het stopt nergens en nooit.
Dat klinkt misschien zwaar, maar het goede nieuws is:
we hoeven geen angst te hebben als we leren kijken.

Een klein voorbeeld:

Onlangs verscheen op een grote bekende nieuwssite een artikel over een ernstig maatschappelijk thema.
Bovenaan stond een illustratie: een bed, lakens… en voeten die eruit staken.
Op het eerste zicht: niets bijzonders.
Bij een tweede blik: vijf voeten?
Geen symboliek. Geen kunst. Gewoon… één voet te veel.

En precies daar begint dit verhaal.

AI zal bijna altijd een spoor nalaten.
Meestal is dat spoor overduidelijk, soms moet je iets langer zoeken.
De uitdrukking “wie zoekt, die vindt” is hier verrassend vaak van toepassing.

Het heeft weinig zin om te wachten tot authenticiteit weer vanzelfsprekend wordt.
Beter is het om onszelf aan te leren automatisch even te kijken.
En dat kan eenvoudiger dan je denkt.

Deze post één keer bewust lezen is vaak al genoeg om dat speurneusinstinct te voeden.
Je hoeft niets vanbuiten te leren, gewoon een keer lezen zal achteraf meer inzicht geven.

Enkele evidente signalen

• Handen met te veel of te weinig vingers
• Voeten of ledematen die niet logisch kloppen
• Tekst die nét niet leesbaar is
• Gezichten die té symmetrisch zijn
• Tanden die één glad geheel vormen
• Oren, brillen of juwelen die lijken te zweven
• Ogen die niet dezelfde richting uitkijken
• Schaduwen zonder duidelijke bron
• Objecten die in elkaar overlopen
• Beelden die moeilijk te plaatsen zijn

Enkele subtielere signalen

• Licht dat sfeer creëert, maar geen duidelijke bron heeft
• Bijna-symmetrie: net niet gespiegeld, net niet logisch
• Te veel symboliek in één beeld
• Elk detail lijkt betekenis te hebben (geen toeval)
• Objecten die elkaar raken zonder echte interactie
• Patronen die zich nét te vaak herhalen
• Scènes zonder functionele rommel
• Perfecte composities zonder storende elementen
• Context en beeld die té mooi samenvallen
• Het gevoel: “Dit vertelt een idee, geen moment”

Tot slot

Het punt is niet om elk beeld te wantrouwen.
Wel om bewuster te kijken.
Door dat te doen, kunnen we opnieuw onderscheid maken en stap voor stap vertrouwen terugwinnen die nog niet zo lang geleden vanzelfsprekend waren.

Een positieve noot over AI
Een positieve noot over AI
Een positieve noot over AI

Tussen alle vragen, twijfels en kritische verhalen door,
vergeten we soms waar AI vandaag al stilletjes het verschil maakt.

Niet groots.
Niet spectaculair.
Maar net op die kleine momenten waar iets eenvoudigs onnodig ingewikkeld dreigt te worden.

Voorbeeld 1 - een kleine frustratie, slim opgelost!

Ik stond klaar om te gaan lopen.
Opgewarmd, gemotiveerd, zin om eraan te beginnen.
Ik druk op “start” en mijn loopband toont plots: “LO” op het scherm.
Geen looptijd. Geen uitleg. Alleen die twee letters.

Dan gaat er onmiddellijk door je hoofd:

• waar ligt die handleiding nu weer?
• heb ik die eigenlijk nog?
• en straks ben je weer eindeloos aan het surfen en zoeken.

Met mijn smartphone in de hand dacht ik plots:

laat ik dit eens gewoon aan AI vragen.
Ik gaf het merk en serienummer door en vermeldde wat er op het scherm stond.
Een seconde later kreeg ik het antwoord:

linker- en rechterknop tegelijk indrukken.

Ik deed dat en klaar. Probleem opgelost in een paar minuten tijd.

Voorbeeld 2 - onbekend toestel, slim opgelost!

Een tijdje later kwamen we een vakantiewoning binnen.
Na het uitpakken, eindelijk dat moment van rust…
maar het voelde binnen wat koud aan.

Ik zag radiators, dus er moest ergens een thermostaat hangen.
Na wat zoeken vond ik één toestel, maar eerlijk?
Ik kon zelfs niet met zekerheid zeggen of het wel een thermostaat was,
laat staan hoe je het bedient.

“Wacht even,” dacht ik.
Ik trek hier gewoon een foto van en vraag raad aan AI.
Zonder zekerheid of dat zou werken, kreeg ik meteen een duidelijk antwoord:

• wat voor apparaat het was
• waar het vandaan kwam
• en vooral: hoe je het moest bedienen

Er werd letterlijk gezegd wat ik moest doen.
En na enkele minuten werden de radiators warm.
Op een paar minuten tijd had AI me een onbekend toestel leren kennen.

Het probleem was niet enkel opgelost, mijn geschiedenis kreeg tegelijk een update want zo'n toestel had ik nog nooit gezien.
En precies daar zit de kracht
Geen magie. Geen grote beloftes.

Gewoon:

de juiste informatie, op het juiste moment.
Dit zijn voorbeelden die in veel situaties kunnen werken.

Soms is het gewoon fijn om even te beseffen
dat je er niet alleen voor staat en dat er op veel vlakken
een soort vakman naast je meedenkt.

Teveel is teveel, AI?
Teveel is teveel, AI?
Teveel is teveel, AI?

Velen zullen het zich wel herkennen:
teveel is teveel.

We denken het vaak.
Zeggen het soms.
En meestal… doen we er niets mee.

Wat brengt het op?
Meestal herhaling.
Nog wat doorgaan.
En als het echt lang blijft duren:
een gesprek met de huisarts, “om eens te checken”.

We zouden natuurlijk kunnen proberen
om het woord teveel wat in te korten,
maar dan krijgen we “veel is veel”
en dat bekt toch niet echt lekker.

Maar stel nu even iets anders.
Vandaag bieden goede AI-modellen een denkkader aan.
Geen oplossing.
Geen oordeel.
Gewoon… meedenken.

Want wat bedoelen we eigenlijk als we denken: teveel is teveel?
Teveel werk?
Teveel agenda?
Teveel zorgen?
Of gewoon: te weinig ademruimte?

En wanneer is iets eigenlijk teveel?
Waar ligt die lijn?
En wie trekt die lijn?
“Teveel is teveel” klinkt duidelijk, maar als je het denkt…
ben je dan ook zeker wat je ermee bedoelt?

Net daar kan AI helpen.
Niet door te zeggen wat je moet doen,
maar door antwoorden te zoeken om het beter te begrijpen.

Door gewoon een gesprek aan te gaan,
merk je dat AI je denkproces op gang trekt.
Je krijgt inzichten.
Nieuwe invalshoeken.
En plots wordt het duidelijker waar het wringt.

De beslissing blijft altijd bij jou.
Maar met meer inzicht sta je gewoon sterker.

En het mooie is:
het kan vandaag op een verrassend eenvoudige manier.
Gewoon wat chatten met AI.
Echt een aanrader, zo'n denkkader.

AI neemt alle banen af
AI neemt alle banen af
AI neemt alle banen af

“AI neemt alle banen af.”
Dat klinkt dramatisch.
En het klinkt soms alsof we bang zijn van een rekenmachine.
Want even eerlijk:

Vinden we een rekenmachine handig?
Ja. We zouden niet meer zonder kunnen.
Hebben we daarom geen wiskundigen meer nodig?

Nee. Integendeel: achter AI zit nog altijd veel wiskunde en logica.

En vandaag zien we iets gelijkaardigs met AI.
AI neemt geen banen af.
AI neemt taken over.
En dat is een belangrijk verschil.

Wat je gaat zien, is een verschuiving:
• minder herhaling
• minder tijdverlies
• meer ruimte voor menselijk inzicht

Of om het nog concreter te maken:

• AI wordt niet moe van onze belastingbrief in te vullen
• AI heeft geen probleem om de geopolitiek van België uit te leggen
• En AI kan zelfs een woestijn stofvrij houden als het moet

Dat soort werk…
daar zijn wij mensen gewoon te slim voor.
Verantwoordelijkheid, keuzes, context en menselijk contact blijven waar ze horen: bij ons.

AI zegt niet:
“Jij bent overbodig.“
AI zegt hoogstens:
“Dit kan eenvoudiger, zodat jij iets anders kan doen.”

Dus nee.
AI gaat niet massaal onze banen afnemen.
Er gaat iets veranderen, dat wel.
Maar verandering is niet hetzelfde als verdwijnen.

Hebben we wel voldoende laadpalen?
Hebben we wel voldoende laadpalen?
Hebben we wel voldoende laadpalen?

Zou een robot met een menselijk postuur zich eigenlijk snel thuis voelen in onze wereld?
Gewoon, hier in het dagelijkse leven.
Een robot die normale taken moet uitvoeren zoals:

een ladder opklimmen,
een lamp vervangen,
de vaatmachine ledigen.
Wat zouden we dan zoal kunnen zien?

Wachtrijen aan oplaadpalen?
Robots die vast komen te zitten in modder op een werf?
Een poetshulp die twijfelt welk product nu weer bij welke vloer hoort?

Wat voor ons vanzelfsprekend is,
is dat niet voor een robot.

Laten we daarom even een oppervlakkige blik werpen op wat dat concreet zou kunnen betekenen als robots met AI in een menselijke vorm taken zouden uitvoeren.

Arbeider-robot (menselijke vorm: fysiek werk)

Energie-afhankelijkheid:
• moet regelmatig opgeladen worden

Slechte omgang met afwijkingen:
• improvisatie bestaat niet en omgeving moet exact kloppen en herkenbaar blijven

Onderhoud & slijtage:
• stof, vuil en vocht zijn een probleem en onderhoud kost tijd en geld

Poetshulp-robot (menselijke vorm: huishoudelijk)

Geen contextbegrip:
• weet niet wat belangrijker is, voert enkel repetitieve taken uit

Trage besluitvorming bij twijfel;
• wacht op instructies en blokkeert bij onzekerheid

Aanpassingsarmoede:
• moeite met nieuwe ruimtes en verplaatste objecten

Militaire robot (menselijk postuur: veldwerk)

Afhankelijk van verbinding:
• heeft signaal nodig en een storing betekent stilstand of fouten

Geen moreel oordeel:
• volgt enkel instructies, kent geen “dit klopt niet” en werkt niet op gevoel

Logistieke kwetsbaarheid:
• transport vereist aangepaste voertuigen en onderhoud in veldomstandigheden is complex

Deze lijst kan gerust nog uitgebreid worden met honderd andere voorbeelden.
Maar zelfs met deze paar situaties wordt al duidelijk hoeveel aanpassingen er nodig zijn voor een robot om zich bezig te houden met wat voor ons heel gewone taken zijn.

De mens past zich voortdurend aan.
Is flexibel.
Werkt samen.
En begrijpt context zonder dat het moet uitgelegd worden.

Misschien is dat ook iets waar we moeten in blijven investeren. Want tenslotte heeft de mens veel meer voordelen dan een robot.

Ik - jij - jij - zij, niet AI?
Ik - jij - jij - zij, niet AI?
Ik - jij - jij - zij, niet AI?

Waarom verantwoordelijkheid zo'n groot ding is bij AI

Er gaat de laatste tijd veel aandacht naar verantwoordelijkheid bij AI.
En eerlijk: dat is terecht.

Maar heeft AI eigenlijk verantwoordelijkheid?
Kunnen wij AI aansprakelijk stellen?

Het antwoord is heel simpel:
AI neemt geen verantwoordelijkheid.
Nooit.

AI denkt niet:
“Ik ben goed gezind vandaag, tijd voor complimenten.”
AI heeft geen goede of slechte dagen,
AI heeft gewoon geen dagen.

AI voelt niet:
“Dit is mijn schuld en nu moet ik het goed maken.”
AI heeft geen schuldgevoel. Hoogstens een foutmelding.

AI zegt niet:
“Ik neem dit op mij zodat jij dit niet alleen moet dragen.”
AI neemt niets op zich. Het heeft niet eens schouders.

Vergelijk het even met een GPS.
Die zegt:
“Als je hier links gaat, duurt het maar 5 minuten.
Rechts is het 7 minuten.”
Maar als je in het kanaal rijdt,
was het niet de GPS die stuurde.

Of neem een rekenmachine.
Stel dat je een verkeerde berekening hebt gemaakt,
dan zeg je ook niet:
“Ja maar, de rekenmachine heeft het zo uitgerekend.”

Hulpmiddelen kunnen nuttig zijn en de mensen kiezen om die te gebruiken.
Verantwoordelijkheid blijft altijd bij de mens.

Het is niet de bedoeling
dat AI de job van arts of psycholoog overneemt.
Maar AI kan wel helpen
om die mensen sneller te raadplegen.

In de praktijk wordt AI net getraind
om door te verwijzen naar professionals.
Omdat AI die verantwoordelijkheid
niet kan dragen.

Gevolg:
De mens zal sneller een professional gaan raadplegen.

Dus nee,
AI schuift verantwoordelijkheid niet weg.
AI legt ze net terug
waar ze altijd al hoorde te liggen.
Bij de mens. En dat is misschien maar goed ook.

Hoe werk je nu eigenlijk samen met AI?
Hoe werk je nu eigenlijk samen met AI?
Hoe werk je nu eigenlijk samen met AI?

Als mensen denken dat samenwerken met AI nuttig kan zijn,
dan komt meestal de volgende vraag:

hoe pak je dat dan aan?

Er zijn verschillende manieren.
Zoek je gewoon iets op,
dan maakt het weinig uit welk model je gebruikt,
zolang het je maar vooruit helpt.

Maar zoek je een samenwerking op langere termijn,
dan verandert het spel.
Dan heb je een AI-model nodig
dat gesprekken kan onthouden,
context begrijpt
en met je meegroeit.

Hoe meer relevante data het model van je krijgt,
hoe beter het je kan helpen.

En dan komen de echte vragen:

Welk model kies je?
Hoe spreek je het aan?
Waar zet je het voor in, en waar net niet?

Die antwoorden moet je niet vinden.
Die moet je zelf bepalen.

Je voelt vrij snel of een model je begrijpt
en of de samenwerking werkt.
De ervaring geeft vanzelf duidelijkheid.

Zelf gebruik ik een simpele metafoor.

Ik geef een pas.
AI geeft een voorzet terug.
En ik kop hem binnen.

AI speelt mee.
Maar ik beslis wanneer de pas volgt,
en ik beslis of, en hoe er gescoord wordt.

Tijdens die samenwerking ben ik de kapitein.
We werken samen naar een doel,
maar ik bepaal de strategie.

Daarom is het belangrijk dat je:
- zelf het model kiest
- zelf de samenwerking aanstuurt
- en selectief bent met welke data je deelt

Een gouden tip tot slot.

Zit je met een vraag als:
“Waarom is de aarde rond?”
Of:

“Hoeveel poten heeft een duizendpoot?”
Of:

“Zou een pinguïn kunnen vliegen op de maan?”

Stel die gerust aan een ander AI-model
waar je niet intens mee samenwerkt.
Zo vermijd je ruis.

AI is een hulpmiddel.
Gebruik het ook zo.

Je mag gerust meerdere AI-modellen gebruiken,
elk met hun eigen rol.
Dat is het niet moeilijker maken.
Dat is een slimme strategie.

Kies een model dat met je kan meegroeien.
Blijf zelf de kapitein.
Houd ruis weg door snelle vragen elders te parkeren.

En geef genoeg richting zodat AI weet waar je naartoe wil.
Dat is de kern van een sterke samenwerking.

© ai-architect.be
AI-Architect Facebook AI-Architect LinkedIn