ChatGPT en plagiaat, dit moet je weten
ChatGPT en andere AI-tools zijn inmiddels normaal geworden in het hoger onderwijs. Studenten gebruiken ze om stof te laten uitleggen, om feedback te krijgen op formuleringen, om samenvattingen te maken of om sneller structuur aan te brengen in een opdracht.
Tegelijkertijd gebruiken steeds meer universiteiten zelf ook AI-platforms of interne richtlijnen. De vraag is daardoor niet meer alleen: mag het? De echte vraag is: waarvoor, wanneer, onder welke voorwaarden en met welk risico?
Want niet elk AI-gebruik is verboden. Niet elke verdenking is terecht. En niet elke verwijzing naar ChatGPT maakt je automatisch veilig. Na het lezen van dit artikel weet je precies waar het juridisch en academisch misgaat, waar de grijze zone zit, en wat je moet doen als je beschuldigd wordt van plagiaat door ChatGPT.
Wat is ChatGPT?
ChatGPT is allang niet meer alleen een simpele chatbot die wat tekst terugstuurt. De tool kan inmiddels teksten schrijven, bestanden analyseren, afbeeldingen genereren, samenvattingen maken, code helpen schrijven, onderzoeksvragen verkennen en in sommige gevallen ook gebruikt worden als studiehulp met interactieve of stapsgewijze uitleg. Bovendien bestaan er meerdere varianten: een gratis versie, lagere en hogere betaalde abonnementen en zakelijke of onderwijsversies voor organisaties en onderwijsinstellingen.
Dat is belangrijk, omdat veel oudere artikelen nog doen alsof “ChatGPT” één vast product is. Dat is niet meer zo. Studenten komen nu ook alternatieven tegen zoals Claude, Gemini, Perplexity of DeepSeek. Voor de beoordeling van jouw werk maakt die merknaam meestal minder uit dan je denkt. De kernvraag blijft vrijwel altijd dezelfde: heb jij een hulpmiddel gebruikt om te leren, of heb je het hulpmiddel jouw denk- en schrijfwerk laten overnemen?
Daar zit meteen de eerste nuance: moderne AI is niet per definitie een spiektool. Je kunt AI ook verantwoord gebruiken om iets te begrijpen, om te oefenen of om je eigen tekst scherper te maken. Maar zodra het hulpmiddel jouw inhoudelijke prestatie vervangt, schuif je op van ondersteuning naar misleiding.
Wat is het niet?
AI is géén heilige graal. ChatGPT is geen betrouwbare bron op zichzelf, geen zoekmachine (ook al biedt de nieuwste versie web-zoekfunctionaliteit), en geen vervanging voor je eigen denkwerk. Zie ChatGPT als een handige assistent die suggesties doet, niet als iemand die jouw opdracht afmaakt.
Een veelgehoorde vergelijking onder docenten: AI gebruiken is als een lift nemen in een gebouw. Prima als je al weet op welke verdieping je moet zijn en wat je daar gaat doen. Maar als je nog niet weet hóe je moet werken als je op die verdieping aankomt, heb je er weinig aan. En precies dát: het leren denken, argumenteren en analyseren, is het punt van je studie.
Bovendien blijven zelfs de nieuwste AI-modellen last houden van zogenaamde hallucinaties: ze verzinnen bronnen, citaten, data en zelfs hele wetenschappelijke artikelen die niet bestaan, en doen dat met volle overtuiging. GPT-5 is hierin beter dan zijn voorgangers (OpenAI claimt 45% minder fouten met web-zoeken ingeschakeld), maar het probleem is niet verdwenen. In de praktijk melden docenten, onderzoekers en studenten wereldwijd dat AI nog steeds regelmatig niet-bestaande referenties produceert.
Is ChatGPT plagiaat?
Is ChatGPT gebruiken plagiaat? Technisch gezien: nee. Plagiaat is het werk van een ander persoon gebruiken zonder correcte bronvermelding. ChatGPT is geen persoon, maar een tool. De tekst die het genereert, is nieuw en niet letterlijk gekopieerd van een bestaande auteur. Maar dit is een gevaarlijke redenering, want het mist het punt.
In de context van het hoger onderwijs wordt het inleveren van AI-gegenereerde tekst als eigen werk vrijwel overal beschouwd als academische fraude. Sommige universiteiten classificeren het als plagiaat, andere als “AI-fraude” of “ghostwriting”. De naam verschilt, de consequenties niet.
De Universiteit Utrecht spreekt expliciet van “AI-fraude” als aparte categorie in de OER. De Universiteit van Amsterdam verbiedt AI-gebruik tenzij nadrukkelijk anders vermeld. De Erasmus Universiteit Rotterdam schaart het onder plagiaat of ghostwriting. De Universiteit Twente verlangt dat studenten expliciet vermelden of zij AI hebben gebruikt — ook als dat niet het geval is.
De algemene lijn in Nederland in 2026: transparantie over AI-gebruik is verplicht en ghostwriting is overal verboden. Maar het beleid verschilt sterk per universiteit, per opleiding en soms zelfs per vak. Controleer vóór elke opdracht je OER én de cursushandleiding van het specifieke vak. Beleid kan per semester wijzigen.
Waarom kan ChatGPT zelf geen plagiaat plegen?
Plagiaat is het gebruiken van het werk van een andere persoon zonder toestemming of de juiste bronvermelding. Kan ChatGPT dan ook plagiaat plegen? Het antwoord is nee. De tool kopieert teksten namelijk niet letterlijk van specifieke bronnen. In plaats daarvan genereert hij nieuwe teksten op basis van patronen en informatie uit z’n trainingsdata. Strikt genomen is er dus geen sprake van plagiaat als ChatGPT tekst produceert, want het schrijft iets origineels. Dat wil zeggen: een unieke combinatie van woorden die niet 1-op-1 uit een bestaand werk komt.
Dit is echter waar het voor jou als student mis kan gaan:
Niet jouw werk: Ook al is de tekst uniek, jíj hebt het intellectuele werk niet verricht. Je levert iets in dat je zelf niet bedacht of geformuleerd hebt. Dat is per definitie fraude.
Verborgen plagiaat: ChatGPT kan briljante ideeën uit bestaande literatuur presenteren alsof het algemeenheden zijn. Jij neemt dat over zonder bron, omdat je niet eens weet waar het vandaan komt. Het Committee on Publication Ethics (COPE) stelt dat AI-tools niet als auteur kunnen worden beschouwd, omdat ze geen verantwoordelijkheid voor werk kunnen dragen. Jij bent en blijft eindverantwoordelijk.
Afhankelijkheid: Een groeiend probleem in 2026 is de cognitieve afhankelijkheid van AI. Docenten en onderzoekers melden dat studenten die structureel AI gebruiken, moeite krijgen met zelfstandig denken en probleemoplossing. Meerdere universiteiten rapporteren gevallen van studenten die letterlijk aangeven niet meer in staat te zijn een vraag te beantwoorden zonder AI. Dit ondermijnt niet alleen je studie, maar ook je toekomstige carrière.
Risicovol dus. Het blijft verboden om werk van anderen of van een AI-tool als je eigen werk te presenteren. Zelfs als de tekst er nieuw uitziet, is het intellectuele diefstal wanneer het niet jouw gedachtegoed is.
Hoe kun je plagiaat door ChatGPT herkennen? Dit zijn de belangrijkste kenmerken
Het herkennen van een door AI gegenereerde tekst is in 2026 zowel makkelijker als moeilijker geworden. Moeilijker, omdat de nieuwste AI-modellen steeds menselijker schrijven. Makkelijker, omdat docenten inmiddels veel ervaring hebben opgebouwd en slimme detectiemethoden combineren. Dit is waar je op kunt rekenen:
1. Mondelinge overhoring
Dé antifraudemethode van 2026. Steeds meer universiteiten voeren standaard mondelinge verdedigingen in, niet alleen bij scripties, maar ook bij reguliere opdrachten. De docent pakt een passage uit je werk en vraagt je om in eigen woorden toe te lichten hoe je tot dat inzicht kwam. Wie een tekst écht begrijpt, kan keuzes toelichten, bronnen verklaren en kritiek verwerken. Wie dat niet kan, heeft een probleem.
2. AI-detectiesoftware (nuttig, maar heel erg omstreden)
Turnitin is in 2026 de standaard plagiaatscanner. Het systeem heeft een ingebouwde AI-detectiefunctie die claimt teksten van GPT-5, Gemini 2.5 en Claude Opus te herkennen. Maar de betrouwbaarheid is omstreden. Hoewel Turnitin een foutmarge van minder dan 1% belooft, tonen onafhankelijke studies aan dat dit percentage veel hoger ligt, zeker voor studenten die niet in hun moedertaal schrijven.
Regelmatig worden studenten die gewoon een strakke, formele academische schrijfstijl hanteren, onterecht als AI-gebruiker aangemerkt (zogenaamde false positives). In Nederland heeft het College van Beroep daarom in meerdere zaken bepaald dat examencommissies niet uitsluitend op een AI-detectierapport mogen afgaan. Er is meer bewijs nodig.
3. Inhoudelijke controle: waarom studenten alsnog door de mand vallen
Veel studenten denken dat het grootste risico zit in een detector die aanslaat. In werkelijkheid gaat het bij de inhoudelijke controle door de docent veel vaker mis. Dit zijn de klassieke rode vlaggen:
Verzonnen bronnen: ChatGPT verzint regelmatig referenties, auteurs en zelfs complete artikelen die niet bestaan. Eén verzonnen bron is voor een docent keihard bewijs. → Benieuwd of parafraseren zonder bronvermelding ook als plagiaat geldt? Lees hier alles over parafraseren en plagiaat.
Te gladde redeneringen: De tekst klinkt ontzettend slim, maar mist echte onderbouwing en blijft oppervlakkig zodra een docent kritisch doorvraagt.
Mismatch met lesstof: AI kent niet de specifieke inhoud van jouw cursus of de unieke perspectieven uit hoorcolleges. Als jouw essay wel klopt in het algemeen, maar totaal niet ingaat op wat in de lessen is behandeld, is dat een signaal.
Geen procesbewijs: Er zijn geen tussenversies, geen bewerkingsgeschiedenis in Google Docs of Word, geen ruwe aantekeningen en geen logische zoekstappen. Een essay dat in één keer 'uit het niets' in perfecte staat verschijnt, is uiterst verdacht.
Stijlinconsistentie: Een student die normaal compact en eenvoudig schrijft (of eerder B-niveau werk leverde), levert ineens een foutloos, afstandelijk en hypergestructureerd stuk in. Zulke stijlsprongen vallen direct op.
Steeds meer docenten kijken daarom niet alleen naar het eindproduct, maar juist naar het proces. Kun jij aantonen hoe je van onderwerp naar ruwe versie en uiteindelijk naar eindtekst bent gekomen? Dan sta je veel sterker. Kun je dat niet, dan wordt elke opvallend goede passage direct verdacht.
Slaat een plagiaatchecker alarm bij een ChatGPT-tekst?
Traditionele plagiaatcheckers zoals Turnitin, Ephorus of Scribbr vergelijken je werk met bestaande teksten in hun database. Omdat ChatGPT-tekst uniek is en niet letterlijk ergens gekopieerd, zal het plagiaatpercentage laag blijven. Daarom hebben deze platforms tegenwoordig aparte AI-detectiemodules ingebouwd.
Docenten zien bij een inzending nu dus twee scores:
1. Een klassieke plagiaatscore: Is de tekst ergens vandaan gekopieerd?
2. Een AI-waarschijnlijkheidsscore: Is de tekst (deels) door AI gegenereerd of zwaar bewerkt?
De meeste universiteiten hanteren een drempel van 15-20% voor een eerste bezorgdheid en 40%+ voor een formeel onderzoek. Al verschilt dit per onderwijsinstelling.
Geen hard bewijs, wel een groot risico
Zo’n AI-score is echter geen hard bewijs. Het is hooguit een signaal dat om extra controle vraagt. Detectoren zijn namelijk onbetrouwbaar in twee richtingen: ze kunnen AI-werk volledig missen, maar ook 100% mensenwerk onterecht als verdacht bestempelen. Een hoge AI-score is op zichzelf nog geen hard bewijs dat jij hebt gefraudeerd, en een lage score bewijst niet dat je veilig zit. Dit is ontzettend belangrijk voor studenten die onterecht beschuldigd worden.
Toch blijft de harde realiteit: als de software een melding geeft, komt de bewijslast vaak feitelijk bij jóú terecht. Eerst sta jij onder verdenking en moet jij bewijzen hoe je jouw tekst hebt geschreven. Dit is een lastige positie en precies de reden waarom slordig AI-gebruik levensgevaarlijk is voor je studie.
De wapenwedloop: ai-humanizers en detectie
Er bestaat inmiddels een hele industrie van zogenoemde “AI-humanizers”: tools als StealthGPT, UndetectableAI en andere die AI-tekst zo herschrijven dat detectoren het niet meer herkennen. Turnitin heeft daar specifieke detectie voor geïntroduceerd, maar onafhankelijke tests laten zien dat sommige tools nog steeds ongedetecteerd blijven. Het is een voortdurend kat-en-muisspel.
Waarschuwing: Gebruik nooit zomaar een gratis online AI-detector om je eigen werk te checken. Sommige diensten slaan je tekst op in hun database. Als je het document daarna officieel inlevert, kan de scanner van je universiteit 100% plagiaat aangeven omdat de tekst al “bekend” is. Lees altijd de voorwaarden!
Is het citeren van ChatGPT genoeg om plagiaat te voorkomen?
Meestal niet. En dat is voor veel studenten een onaangename verrassing. Het korte antwoord is: alleen ChatGPT vermelden als bron is zelden genoeg om te voorkomen dat jouw werk als fraude wordt gezien.
Een keurige verwijzing naar ChatGPT lost maar één deel van het probleem op: transparantie over het gebruik van een tool. Maar als jouw opleiding géén AI-gebruik toestaat voor die specifieke opdracht, maakt een bronvermelding het nog steeds niet geoorloofd. Toegestaan gebruik blijft toegestaan, verboden gebruik blijft verboden. Dat is ongeacht hoe netjes je citeert.
Bovendien is ChatGPT zelf geen oorspronkelijke bron. Je docent wil de échte bron zien: het artikel, het boek, de wet. Als jouw tekst leunt op oncontroleerbare AI-output, ben je met een verwijzing naar “ChatGPT” niet klaar.
Wat wél helpt: vier stappen:
Als je ChatGPT tóch wilt inzetten, zorg dan voor een ijzersterke verantwoording. Dit doe je zo:
1. Check je opleidingsbeleid: Steeds meer universiteiten hebben expliciete richtlijnen. Vaak is gebruik voor brainstormen of taalcorrectie toegestaan, maar complete teksten genereren niet. Als het beleid het verbiedt: niet doen.
2. Wees open in je werk: Als je AI hebt gebruikt en het mag, beschrijf dan in je inleiding of methodologie hóé je het hebt gebruikt. Bijvoorbeeld: “ChatGPT werd gebruikt voor het brainstormen van structuurideeën voor hoofdstuk 3. De uiteindelijke tekst is geheel door mij geschreven.” Vermeld ook de gebruikte prompt.
3. De APA-verwijzing als dat vereist is: Sommige opleidingen staan erop dat je ChatGPT vermeldt volgens een citaatstijl (zoals APA of MLA). In APA 7 ziet een referentie er inmiddels zo uit:
Literatuurlijst: OpenAI. (2026). ChatGPT (maart 2026 versie) [Large language model]. https://chat.openai.com
Verwijzing in de tekst: (OpenAI, 2026)
4. Blijf kritisch en gebruik je eigen woorden: Een verwijzing is géén vrijbrief om tekst klakkeloos over te nemen. Controleer feiten, zoek de oorspronkelijke bronnen, en zorg dat jouw stem hoorbaar blijft.
Wat moet je doen als je beschuldigd wordt van plagiaat met behulp van ChatGPT?
Ben jij beschuldigd van plagiaat of fraude omdat je (vermeend) gebruik hebt gemaakt van ChatGPT? Dan is het belangrijk om zo snel mogelijk actie te ondernemen (Lees hier welke gevolgen het plegen van plagiaat kan hebben.). Op basis van tientallen zaken die wij hebben begeleid, is dit de effectiefste aanpak:
1. Allereerst: laat goed onderzoeken of er überhaupt wel sprake is van plagiaat of fraude. Waar wordt precies van beschuldigd, en waarop is dat gebaseerd? Zoals gezegd zijn AI-detectors niet waterdicht, een verdenking moet wel gestaafd zijn. In een zaak in 2024 gaf het College van Beroep een student gelijk dat de examencommissie meer bewijs moest zoeken dan alleen een Turnitin AI-rapport. Je hebt rechten, ook als student: bijvoorbeeld het recht om in beroep te gaan, of om inzage te krijgen in het “bewijs” tegen je.
2. Verzamel bewijs van je werkproces. Alle conceptversies met tijdstempel, bewerkingsgeschiedenis, aantekeningen, bronbestanden, zoekopdrachten: alles wat aantoont dat het werk van jou is. Google Docs-versiegeschiedenis of Word-revisiegeschiedenis kan hierbij essentieel zijn.
3. Schakel op tijd een advocaat in die gespecialiseerd is in plagiaat- en fraudezaken in het onderwijs. Dit kun je doen via De Studentenadvocaat. Wij kennen de weg in dit relatief nieuwe soort zaken en kunnen jou helpen om je zaak sterk te bepleiten. Je hebt rechten als student: het recht om in beroep te gaan bij het College van Beroep voor de Examens, het recht op inzage in het bewijs tegen je, en het recht op een eerlijke procedure. Stuur ons vandaag nog een bericht, gewoon in je eigen woorden, dan kijken we wat we voor jou kunnen betekenen.
Zijn betaalde versies van ChatGPT zoals Plus of Pro “beter”?
Nee. Betaalde versies (zoals ChatGPT Plus met GPT-5.4 Thinking, of de Pro-versie met o3-pro) geven toegang tot sterkere modellen, ruimere limieten en vloeiendere output. Daardoor schrijven ze menselijker en is het oppervlakkig moeilijker te herkennen. Maar dat verandert niets aan twee fundamentele problemen.
Het is nog steeds fraude: Een betere output maakt het hooguit moeilijker om oppervlakkig te herkennen dat AI is gebruikt. Maar het verandert niets aan de vraag of jij het werk zelfstandig had moeten doen. Sterker nog: hoe gladder de output, hoe groter het risico dat je vergeet te checken of de redenering wel klopt, en of je eigen stem nog hoorbaar is. Val je door de mand bij een mondelinge vraag? Dan beschouwt de examencommissie het gewoon als bedrog.
Ze verzinnen nog steeds bronnen en feiten: Zelfs de meest geavanceerde AI’s van 2026 kunnen hallucinaties vertonen. Eén verzonnen referentie en de rest van je vloeiende tekst ligt onder verdenking. Studenten die de betaalde versie gebruiken vanuit het idee dat deze “veiliger” is, worden wereldwijd net zo hard aangepakt als gebruikers van de gratis versie.
Als leerhulpmiddel kan een betaald abonnement nuttig zijn: voor oefenvragen, stapsgewijze uitleg of werken met bestanden. Maar voor scripties, tentamens en opdrachten geldt exact dezelfde waarschuwing: meer kracht betekent niet meer toestemming.
Lees ook: Plagiaat verwijderen: wat je moet weten als student in het AI-tijdperk?
Praktijkvoorbeelden: dit gaat er in de praktijk mis
Om te illustreren hoe serieus universiteiten AI-fraude nemen, hier een aantal voorbeelden uit de Nederlandse praktijk:
UvA Rechtenfaculteit: Een rechtenstudent aan de Universiteit van Amsterdam leverde vier niet-bestaande bronnen in bij een opdracht. De docent prikte er direct doorheen en classificeerde het als ernstige fraude, wat leidde tot zware sancties. Uit cijfers bleek dat bijna een derde van alle fraudezaken bij de rechtenfaculteit inmiddels met AI te maken had.
Computer Science-student: Een student werkte zich door een hele informaticaopleiding heen door te frauderen met AI, maar kon zijn afstudeerproject niet voltooien, omdat daar daadwerkelijk vaardigheden voor nodig waren. Na drie keer zakken gaf hij het op. Met een forse studieschuld en geen diploma.
Mondeling overhoring: Een masterstudente aan een universiteit gebruikte ChatGPT om live een vraag van de docent te beantwoorden. Haar opvallend lange, ronddraaiende antwoord eindigde met “Samengevat...”: een typisch ChatGPT-kenmerk dat de hele klas herkende. Ongemakkelijk, en met serieuze consequenties.
ChatGPT gebruiken: wat mag wel en wat mag niet?
Op basis van het beleid van de meeste Nederlandse universiteiten en hogescholen in 2026, en de algemene lijn in het hoger onderwijs:
Meestal toegestaan
Brainstormen en ideeën genereren
Uitleg vragen over moeilijke concepten
Spelling- en grammaticacontrole
Structuursuggesties voor je tekst
Oefenvragen laten genereren om te studeren
Hulp bij code/statistiek (met eigen verificatie)
Vertaalhulp bij buitenlandse bronnen
Samenvattingen maken van je éigen aantekeningen
Vrijwel altijd verboden
Complete teksten laten genereren en inleveren
AI-tekst kopiëren en plakken zonder eigen inbreng
Bronnen/referenties van AI overnemen zonder check
AI laten “herschrijven” om detectie te ontwijken
Mondelinge antwoorden live door AI laten genereren
AI-gebruik verzwijgen als transparantie vereist is
Examenvragen door AI laten beantwoorden
Vertrouwen op AI als je het zelf niet begrijpt
Belangrijk: dit zijn algeméne richtlijnen. Het beleid verschilt per instelling en per vak. Controleer altijd je eigen OER en cursushandleiding.
Plagiaat gepleegd met ChatGPT?
ChatGPT heeft het hoger onderwijs niet “kapotgemaakt”, maar wel iets blootgelegd wat al langer schuurt: veel opdrachten zijn geschreven voor een tijd waarin snelle tekstproductie schaars was. Die tijd is voorbij. Daardoor wordt het belangrijker dan ooit om scherp te onderscheiden tussen leren mét AI en presteren víá AI.
Voor studenten is de les duidelijk: niet elk gebruik is verboden en niet elke verdenking is terecht. Maar blind vertrouwen op AI is nog altijd een directe route naar zware problemen. Soms heet dat plagiaat. Soms fraude. Soms ongeoorloofde hulp. Ben jij ook beschuldigd van fraude of plagiaat omdat je (vermeend) gebruik hebt gemaakt van AI? Dan is het belangrijk om snel actie te ondernemen. Laat goed onderzoeken of er überhaupt wel sprake is van fraude en wat je rechten zijn. Schakel bij voorkeur een advocaat in die gespecialiseerd is in onderwijsrecht en plagiaatzaken.
De Studentenadvocaat staat voor je klaar – zo weet je zeker dat je de juiste juridische weg bewandelt. Stuur ons vandaag nog een bericht via ons contactformulier, gewoon in je eigen woorden, en we gaan direct voor je aan de slag.
Veelgestelde vragen over ChatGPT en plagiaat
-
Ja, in theorie kan dat. Universiteiten bewaren scripties in hun archief. Als er later een concreet vermoeden is van fraude, mogen ze je werk met terugwerkende kracht toetsen. Als blijkt dat je destijds de regels hebt overtreden, kan je diploma in extreme gevallen worden ingetrokken. Dit benadrukt nogmaals waarom je nu geen risico's moet nemen.
-
Dat hangt af van de ernst en of het je eerste overtreding is. De examencommissie bepaalt de sanctie. Bij een lichte overtreding wordt je werk ongeldig verklaard (een 1,0) en moet je het opnieuw doen. Bij ernstige of herhaalde fraude kun je voor maximaal een jaar worden uitgesloten van alle tentamens. In het allerergste geval (zoals bij het afstuderen) kun je definitief van de opleiding worden gestuurd.
-
Dit is een groot grijs gebied. Je eigen, zelfbedachte tekst vertalen is inhoudelijk geen plagiaat, want de ideeën zijn van jou. Echter, als de beoordeling van het vak (deels) draait om jouw Engelse taalvaardigheid, telt het wél als fraude, omdat de tool een vaardigheid overneemt die jij moet demonstreren. Check hiervoor altijd expliciet de regels van je docent en lees ons artikel over vertaalplagiaat.