Copilot AI gegenereerd.
Een professor die AI gebruikt bij een toespraak in een universiteit.
Hier is een duidelijke, kernachtige samenvatting van wat er gebeurt wanneer een professor AI gebruikt in een universitaire toespraak, gebaseerd op recente, goed gedocumenteerde voorbeelden.
Korte samenvatting
Een professor die AI gebruikt voor een academische toespraak loopt het risico dat de technologie foutieve of verzonnen informatie genereert. Dat gebeurde recent bij UGent‑rector Petra De Sutter, die onbedoeld drie niet‑bestaande citaten in haar openingsrede opnam door AI‑hallucinaties. VRT Het Laatste Nieuws
Wat er precies mis kan gaan
🔍 1. AI kan “hallucineren”
- Generatieve AI‑systemen zoals ChatGPT of Copilot voorspellen woorden op basis van patronen, maar controleren geen feiten.
- Daardoor kunnen ze plausibel klinkende maar volledig verzonnen citaten of feiten produceren.
VRT
🧩 2. De professor neemt de fout over zonder het te merken
- In het UGent‑voorbeeld werden citaten toegeschreven aan Albert Einstein, Hans Jonas en Paul Verhaeghe, maar geen van die citaten bleek echt.
- De AI had ze volledig verzonnen, en de professor nam ze over in de speech.
Het Laatste Nieuws
🏛️ 3. De universiteit moet achteraf corrigeren
- De speech werd achteraf meerdere keren aangepast op de website van de universiteit.
- Uiteindelijk werd een disclaimer toegevoegd waarin werd toegegeven dat AI foutieve citaten had gegenereerd.
VRT
Waarom dit belangrijk is
⚠️ 1. Het schaadt geloofwaardigheid
Een professor of rector die foutieve informatie verspreidt, zeker in een academische context, verliest gezag en betrouwbaarheid.
Het Laatste Nieuws
📚 2. Het toont de grenzen van AI
- AI is krachtig, maar niet betrouwbaar als bron van feiten.
- Het is een taalmodel, geen kennisbank.
- Experts benadrukken dat AI‑output altijd door mensen moet worden gecontroleerd.
VRT
🧭 3. Het opent een bredere discussie over AI in onderwijs
- Universiteiten worstelen met regels rond AI‑gebruik.
- Studenten worden streng gesanctioneerd voor foutief AI‑gebruik, maar voor professoren bestaan vaak nog geen duidelijke richtlijnen.
Numerikare
Wat we hiervan leren
✔️ AI kan helpen bij inspiratie, maar niet bij feiten
Gebruik AI voor structuur, ideeën of schrijfhulp — maar controleer altijd alle inhoud.
✔️ Menselijke controle blijft essentieel
Een academische toespraak moet altijd door de spreker zelf worden nagelezen en geverifieerd.
✔️ Transparantie is belangrijk
Als AI gebruikt wordt, is het verstandig dit te vermelden en duidelijk te maken hoe de inhoud is gecontroleerd.
Als je wilt, kan ik dit ook omzetten in:
- een korter persbericht
- een blogpost
- een academische analyse
- of een scenario voor een video of presentatie
Laat maar weten wat je nodig hebt, Leo.
Hoe reageert de pers hierop:
Hier is een helder, goed onderbouwd overzicht van hoe de pers reageert op het feit dat een professor/rector AI gebruikte in een universitaire toespraak en daardoor valse citaten verspreidde.
Korte samenvatting
De pers reageert opvallend scherp: het incident wordt omschreven als een “pijnlijke blunder” en een voorbeeld van hoe gevaarlijk het is om AI‑teksten zonder controle over te nemen. Journalisten benadrukken dat de rector haar geloofwaardigheid heeft geschaad en dat dit debat over AI‑gebruik in de academische wereld verder zal aanwakkeren. VRT
Hoe de pers reageert — overzicht per invalshoek
📰 1. Kritiek op de fout en het gebrek aan controle
- VRT NWS noemt het een “heel pijnlijke blunder” en legt uit hoe drie volledig verzonnen citaten in de speech terechtkwamen door AI‑hallucinaties.
- De berichtgeving benadrukt dat generatieve AI geen feiten controleert, maar enkel taal voorspelt — en dat dit precies is wat misging.
VRT
🔍 2. Analyse van het mechanisme achter de fout
- Media leggen uitgebreid uit hoe AI tot zulke fouten komt: door patronen te voorspellen in plaats van feiten te verifiëren.
- Experts zoals Ann‑Katrien Oimann en Jeroen Baert worden geciteerd om te duiden dat AI‑output plausibel klinkt maar niet betrouwbaar is.
VRT
🎓 3. HLN: “Zichzelf voor schut zetten”
- HLN is bijzonder scherp in zijn toon: het artikel stelt dat de rector zich “voor schut zet” door AI‑verzinsels te gebruiken.
- De krant benadrukt dat het extra pijnlijk is omdat academici juist vaak citaten gebruiken om hun eruditie te tonen — en dat deze citaten nu volledig verzonnen bleken.
HLN - Het Laatste Nieuws
🏛️ 4. Focus op de geloofwaardigheid van de universiteit
- Numerikare en andere outlets leggen de nadruk op de institutionele impact:
- De universiteit moest de speech meerdere keren corrigeren.
- Er werd uiteindelijk een disclaimer toegevoegd waarin de fouten worden erkend.
- De pers wijst op de ironie dat de rector in dezelfde speech nog waarschuwde voor de gevaren van AI.
Numerikare
⚖️ 5. De dubbele standaard rond AI‑gebruik
- Journalisten benadrukken dat studenten zware sancties riskeren voor ongeoorloofd AI‑gebruik, terwijl de rector zelf geen disciplinaire gevolgen ondervindt.
- Dit wordt aangehaald als een spanningsveld binnen de academische wereld.
Numerikare
🗣️ 6. Reactie van de rector zelf
- De pers citeert haar schriftelijke reactie waarin ze zegt dat ze het “ten zeerste betreurt” en dat dit een “goede les” is.
- Media plaatsen deze reactie in de context van de reputatieschade en het bredere debat over AI‑ethiek.
VRT
Conclusie
De pers is unaniem kritisch:
- De fout wordt gezien als ernstig, pijnlijk en symptomatisch voor onkritisch AI‑gebruik.
- Het incident wordt gebruikt om het bredere debat over AI‑betrouwbaarheid, academische integriteit en verantwoordelijkheid aan te scherpen.
- De toon varieert van analytisch (VRT NWS) tot ronduit scherp (HLN).

%20toont.%20Het.jpeg)
