Negatief BSA door ChatGPT: wat nu?

negatief bsa door chatgpt

Krijg je een negatief bindend studieadvies (BSA) vanwege het gebruik van ChatGPT? Je bent niet de eerste student die hiermee wordt geconfronteerd, maar het voelt ongetwijfeld angstaanjagend en verwarrend. Het idee was misschien dat ChatGPT je zou helpen met een opdracht, maar nu lijkt het je studieloopbaan te dwarsbomen. In dit artikel leggen we je uit wat een negatief BSA inhoudt, hoe hogescholen en universiteiten omgaan met AI-gebruik zoals ChatGPT, wat de juridische implicaties zijn als je hierdoor in de problemen komt, én of en hoe je bezwaar kunt maken. 

Wat is een negatief bindend studieadvies (BSA)?

Een bindend studieadvies (BSA) is een formeel advies dat je aan het einde van je eerste studiejaar krijgt. In de praktijk is het vaak bindend, wat wil zeggen: als je niet genoeg studiepunten (ECTS) hebt gehaald, mag je niet door met de opleiding. Dit negatieve advies dwingt je dus feitelijk te stoppen met de studie. Instellingen bepalen zelf de norm (hoeveel punten moet je halen in jaar 1), maar veel hogescholen en universiteiten hanteren momenteel een eis van minimaal 45 van de 60 punten of zelfs alle 60 punten. Als je die norm niet haalt, volgt een negatief BSA en moet je je opleiding verlaten.

Zo’n negatief BSA komt meestal niet als donderslag bij heldere hemel. Gedurende het jaar krijg je vaak tussentijdse adviezen (voorlopig positief/negatief) en waarschuwingen. Ook moet de opleiding rekening houden met persoonlijke omstandigheden voordat ze zo’n zwaar besluit nemen. Bijvoorbeeld: ernstige ziekte, familieomstandigheden of een functiebeperking kunnen reden zijn om coulant te zijn of het BSA uit te stellen.

Heb je een negatief BSA gekregen, dan betekent dat in de regel dat je vier jaar lang niet mag terugkeren naar dezelfde opleiding aan dat instituut (de zogenaamde afkoelperiode, vaak 3 jaar bij hogescholen en 4 jaar bij universiteiten). Je kunt in die periode nog wel ergens anders gaan studeren, eventueel zelfs dezelfde studie aan een andere hogeschool/universiteit, maar dat hangt af van toelatingseisen en of die andere instelling je wil aannemen met je studieresultaten tot nu toe. Lees ook: Inschrijven studie na negatief BSA? Dit zijn je opties.

 
 

Veranderingen op komst bij het BSA 

Het BSA-systeem ligt onder vuur vanwege de druk die het op studenten legt. De overheid heeft aangekondigd dat vanaf studiejaar 2025-2026 de norm voor een positief BSA verlaagd wordt naar 30 punten in het eerste jaar. Dat is de helft van het huidige maximum. Dit betekent dat opleidingen je dan pas mogen wegsturen als je minder dan 30 van de 60 punten haalt. Voor nu geldt echter vaak nog de oude norm (45 of 60 punten), dus een negatief BSA blijft een reëel risico als je onvoldoende haalt.

ChatGPT en studiefraude: waarom is AI-gebruik riskant?

ChatGPT, Perplexity en andere AI-tools lijken een zegen: even een moeilijk essay laten schrijven, een samenvatting genereren of een lastige vraag laten beantwoorden. Veel studenten gebruiken ChatGPT dan ook als hulpmiddel bij opdrachten. Maar pas op: de meeste opleidingen beschouwen het klakkeloos overnemen van AI-gegenereerde teksten als plagiaat of zelfs als fraude. Waarom? Omdat je tekst inlevert die je niet zelf hebt geschreven, zonder bronvermelding. In de woorden van Universiteit Leiden

“ChatGPT mag niet gebruikt worden voor het schrijven van teksten of het letterlijk herschrijven van bestaande teksten. Dit wordt gezien als plagiaat.”

Ook Hogeschool Inholland is helder: 

“Teksten van ChatGPT overnemen valt onder plagiaat en daarmee pleeg je fraude, tenzij je expliciet vermeldt dat je AI hebt gebruikt en het correct citeert.”

Het probleem is dat veel studenten niet beseffen dat dit onder fraude valt. ChatGPT voelt misschien anders dan een tekst kopiëren van een medestudent of internet, omdat het een nieuw stuk tekst genereert. Toch is het principe gelijk: het is niet jouw eigen werk of inzicht.

Bovendien brengen AI-gegenereerde teksten specifieke risico’s met zich mee. Zo zijn ze vaak verleidelijk goed gestructureerd en klinken ze overtuigend, maar bevatten ze regelmatig fouten of verzonnen bronnen. Docenten merken bijvoorbeeld soms op dat bronnen die in een scriptie of essay staan niet bestaan. Dat is een duidelijke aanwijzing dat er ChatGPT in het spel kan zijn. Ontdek hier hoe er precies wordt gecontroleerd op plagiaat.

Detecteren van een AI-tekst: hoe doen scholen dat? 

Detectie van AI-tekst staat nog in de kinderschoenen. Waar traditionele plagiaatcontrole (zoals Turnitin) letterlijk overgenomen zinnen kan herkennen, is AI-tekst lastig te bewijzen omdat het uniek gegenereerd is. Er zijn wel AI-detectietools, maar die zijn lang niet waterdicht. Docenten en examencommissies baseren zich daarom op indirecte signalen: onnatuurlijk taalgebruik, plotselinge stijlveranderingen in je tekst, of opvallend andere kwaliteit dan je eerdere werk. Sommige onderwijsinstellingen, zoals de TU Delft, experimenteren al met verplichte mondelinge checks: als je een verslag inlevert, moet je in een gesprek kunnen uitleggen hoe je tot de inhoud bent gekomen, om te voorkomen dat ChatGPT het stiekem heeft gedaan.

Het gebruik van ChatGPT zonder toestemming van de docent of zonder vermelding is op veel opleidingen dus een vorm van academische integriteitsschending. De gevolgen kunnen vrij ernstig zijn. Vaak krijg je voor de betreffende opdracht of het vak een 0 of ongeldig resultaat (waardoor je die studiepunten mist). In strengere gevallen kan een examencommissie besluiten tot een sanctie, zoals uitsluiting van je opleiding voor een jaar. In je propedeusejaar kan zoiets catastrofaal uitpakken: je loopt veel studiepunten mis én je krijgt mogelijk meteen een negatief BSA door de opgelopen achterstand.

De Landelijke Studentenvakbond (LSVb) waarschuwde al dat er landelijke richtlijnen moeten komen, omdat nu de ene student wordt aangemoedigd AI te gebruiken en de andere als fraudeur wordt bestempeld. Het gebrek aan eenduidig beleid maakt het voor studenten extra gevaarlijk.

Verschillen in AI-beleid tussen onderwijsinstellingen

Zoals gezegd is er geen uniform beleid. Enkele voorbeelden van hoe Nederlandse scholen omgaan met AI: 

  • Universiteit van Amsterdam (UvA): Verbiedt AI-tools voor het maken van opdrachten, “tenzij nadrukkelijk anders vermeld.” Met andere woorden, het is standaard niet toegestaan, behalve als een docent expliciet een uitzondering maakt.

  • Erasmus Universiteit Rotterdam (EUR): Zegt dat gebruik van AI zonder toestemming van de examinator gezien wordt als plagiaat of ghostwriting. Dit betekent dat als je stiekem ChatGPT gebruikt, je dezelfde behandeling kunt krijgen als iemand die een essay van internet plukt of door iemand anders laat schrijven.

  • Universiteit Twente (UT) heeft een opvallende eis: iedere student moet verklaren of hij/zij AI heeft gebruikt, óók als dat niet zo is. Ze willen dus volledige transparantie. Liegen hierover zou op zichzelf weer een overtreding kunnen zijn.

  • Hogeschool van Amsterdam (HvA): Stelt dat je een verantwoording moet toevoegen over eventueel AI-gebruik. Ze wijzen erop dat AI-gegenereerde content niet direct herleidbaar is tot specifieke bronnen, omdat het getraind is op enorme datasets. Daarom moet je vermelden welk model (bijv. ChatGPT) je hebt gebruikt en hoe. Dit komt neer op bronvermelding van AI.

  • Hogeschool Rotterdam zoekt de balans: ChatGPT kan een vriend óf vijand zijn. Ze moedigen docenten aan duidelijk te zijn over wat wel en niet mag. In veel gevallen is het gebruik als brainstorm-hulp toegestaan, maar teksten genereren en inleveren niet. Dit sluit aan bij veel algemene richtlijnen: gebruik AI als assistent, niet als auteur van je werk.

Deze verschillen maken duidelijk dat wat op de ene school kan (of zelfs aangemoedigd wordt, zoals “leer omgaan met AI”), op de andere tot flinke problemen kan leiden. De LSVb noemde dit willekeur en pleit voor heldere landelijke regels. Maar tot die er zijn, moet jij zelf proactief zijn. Lees de richtlijnen van jouw opleiding. Check dus goed je studiegids, OER of speciale AI-regelgeving. Wanneer je twijfelt, vraag het je docent of studieadviseur.

Negatief BSA door ChatGPT: wat kun je doen?

Stel, je hebt een negatief BSA ontvangen en ChatGPT speelde een rol in dat verhaal. Bijvoorbeeld, je hebt vakken niet gehaald omdat je betrapt bent op AI-gebruik, of een belangrijk verslag werd ongeldig verklaard, waardoor je te weinig punten verzamelde. Misschien is er in de BSA-brief zelfs vermeld dat fraude/plagiaat de reden is dat ze je studievoortgang onvoldoende achten. Wat nu? 

Allereerst, blijf niet stilzitten. Er zijn stappen die je kunt ondernemen:

Inzage en motivering BSA-besluit: 

Zorg dat je precies weet waarom je een negatief BSA hebt. Vraag om de officiële motivering zwart-op-wit. Heeft de examencommissie expliciet genoemd dat het door een fraudezaak komt? Of is het puur op basis van te weinig studiepunten? Dit is belangrijk, want een fraudevaststelling en een BSA zijn formeel twee aparte besluiten. Je kunt beide eventueel aanvechten.

Bezwaar/beroep bij de examencommissie/CBE: 

Je hebt het recht om in beroep te gaan tegen een negatief BSA. Dit loopt via het College van Beroep voor de Examens (CBE) van je instelling. Zoals eerder genoemd: je hebt 6 weken de tijd vanaf de dagtekening van het BSA-besluit om dit te doen. In je beroepschrift kun je aangeven waarom het BSA onterecht of onredelijk is. Mogelijke argumenten:

  • Er was geen duidelijke regel communicatie over ChatGPT: Misschien is nooit helder gecommuniceerd dat AI niet mocht. Ontbrekende of onduidelijke regelgeving kan een punt zijn. Landelijk beleid ontbreekt immers. En scholen moeten heel duidelijk zijn wil je zoiets kunnen sanctioneren. Als jij te goeder trouw handelde, kun je stellen dat een extreem gevolg (negatief BSA) buitenproportioneel is.

  • Geen fraude gepleegd volgens jou: Ben je het oneens met de beschuldiging dat je “fraude” hebt gepleegd? Bijvoorbeeld, je hebt wel degelijk zelf geschreven en alleen ChatGPT gebruikt voor inspiratie of taalcorrectie. Je kunt aanvoeren dat de straf (werk ongeldig, punten kwijt) niet in verhouding staat of dat je school het niet kan bewijzen. Houd er rekening mee dat dit lastig is; meestal is zo’n beslissing van de examencommissie behoorlijk goed onderbouwd. Maar je kunt bijvoorbeeld wijzen op jouw eigen inspanningen of andere bewijsstukken van originaliteit.

  • Persoonlijke omstandigheden: Stond je al onder grote druk of had je persoonlijke problemen waardoor je misschien de “snelle uitweg” van ChatGPT zocht? Dit is geen rechtvaardiging voor fraude, maar wél iets dat een commissie kan laten meewegen in het besluit om jou al dan niet van de opleiding te verwijderen. Onderwijsinstellingen moeten persoonlijke omstandigheden meewegen in BSA-besluiten. Als die niet zijn meegenomen terwijl je ze wel hebt gemeld, heb je een sterk punt.

→ Schrijf je beroepschrift heel duidelijk en feitelijk. Verwijs naar reglementen als dat kan (bv. “In artikel X van de OER staat niet expliciet dat AI-tools verboden zijn, dus ik wist dit niet”). De Studentenadvocaat helpt je hierbij graag om een sterke, juridisch onderbouwde reactie op te stellen richting het CBE. 

Juridisch advies inwinnen: 

Je staat er niet alleen voor. De Studentenadvocaat kan je zo goed als kosteloos adviseren over kansen. Wij hebben heel veel ervaring met BSA-zaken en weten wat wel/niet werkt als argument. Daarom kunnen we je in iedere fase goed helpen met de juiste stappen en zullen we er alles aan doen om ervoor te zorgen dat jij alsnog je studie kunt voortzetten. Stuur ons vandaag nog een bericht.

Reflecteer op je ChatGPT-gebruik: 

Of je nu door mag of niet, deze ervaring is een wake-up call. Informeer jezelf over wat wel en niet mag qua AI in je vervolgstudie. Als je door mag (bijv. via succesvol beroep of een andere studie), zorg dan dat je niet opnieuw dezelfde fout maakt. Gebruik ChatGPT bijvoorbeeld alleen voor brainstormen en check altijd je schoolbeleid. Sommige scholen raden zelfs aan om een AI-checker te gebruiken om je eigen verslag te testen, zodat je zeker weet dat je geen “AI-sausje” erover hebt dat als plagiaat kan worden gezien. Denk hierbij aan tools als Scribbr of Duplichecker.

Verschillen hogeschool vs. universiteit in aanpak bij negatief BSA door ChatGPT

Hoewel zowel hogescholen als universiteiten worstelen met de opkomst van AI-tools, zijn er soms verschillen in aanpak. Universiteiten leggen vaak meer nadruk op academische integriteit met uitgebreide reglementen, terwijl hogescholen meer praktijkgericht zijn en soms wat pragmatischer (bijv. AI als tool leren gebruiken). Maar beide soorten instellingen hebben inmiddels vaak vergelijkbare passages in hun reglementen staan over AI. 

Voor bezwaar en beroep maakt het in principe niet uit of je op een hogeschool of universiteit zit: de procedure via CBE is vergelijkbaar. Jouw rechten als student zijn in de wet verankerd. Echter, universiteiten hebben vaak een iets formelere cultuur rond zulke procedures (soms schakel je meteen een advocaat in), terwijl hogescholen via bijvoorbeeld een decaan of vertrouwenspersoon proberen het informeel op te lossen vóór het escaleert. 

Belangrijk: de Wet op het Hoger Onderwijs en Wetenschappelijk Onderzoek (WHW) geldt voor beiden. Daarin staat jouw recht op beroep (art. 7.61) en ook dat scholen in het eerste jaar een bindend studieadvies mogen geven. Hogescholen vallen hier net zo goed onder als universiteiten.

Negatief BSA gekregen door ChatGPT? De Studentenadvocaat staat voor je klaar

Knoop in je maag door een negatief BSA? Zeker als ChatGPT hierbij een rol speelde, heb je vast het gevoel dat je in een grijs gebied bent gestrand. Wat nu? Blijf er niet in je eentje mee rondlopen. Stuur ons een bericht, gewoon in je eigen woorden. We kijken dan naar je situatie en vertellen je eerlijk wat er mogelijk is. Je staat er niet alleen voor en er is vaak meer mogelijk dan op het eerste gezicht lijkt.

 
 

Veelgestelde vragen over negatief BSA door ChatGPT 

  • Dit verschilt per Nederlandse onderwijsinstelling en soms zelfs per opleiding. Over het algemeen geldt: alles wat je niet zelf hebt geschreven en wat je inlevert zonder bronvermelding, kan als plagiaat worden gezien. ChatGPT valt daar in principe ook onder. Veel universiteiten en hogescholen hebben inmiddels beleid opgesteld: sommigen verbieden ChatGPT volledig voor het maken van opdrachten (tenzij de docent het toelaat). Andere onderwijsinstellingen staan beperkt gebruik toe, mits je eerlijk vermeldt dát je het gebruikt hebt en hoe (bijvoorbeeld in een voetnoot).

  • 100% waterdicht bewijs leveren dat je ChatGPT hebt gebruikt is lastig, maar docenten en examencommissies hebben wel manieren om een sterk vermoeden te onderbouwen. Ten eerste zijn er AI-detectieprogramma’s in omloop (zoals de AI Text Classifier van OpenAI zelf) die een indicatie geven of een tekst waarschijnlijk door AI is geschreven.

    Echter, deze tools zijn niet foutloos. Ze missen veel en kunnen ook ten onrechte alarm slaan. Docenten letten daarom vooral op inhoudelijke zaken: kloppen de bronnen in je opdracht wel echt? Ook letten ze op schrijfstijl en niveau: als jij doorgaans met moeite Nederlands schrijft en ineens een vlekkeloos, academisch betoog inlevert, gaat er een rode vlag omhoog.

Vorige
Vorige

Negatief bindend studieadvies (BSA) op het mbo: wat betekent het en wat kun je doen?

Volgende
Volgende

Negatief BSA aan Hogeschool Rotterdam: wat nu?