ChatGPT-maker haalt herkenningstool offline: 'Niet nauwkeurig'
ChatGPT-ontwikkelaar OpenAI heeft een tool teruggetrokken die onder anderen docenten moest helpen om teksten te herkennen die door een computer waren geschreven. De tool voor herkenning van kunstmatige intelligentie was amper een half jaar geleden gelanceerd. OpenAI zegt dat het systeem niet nauwkeurig was.
Het bedrijf gaat de komende tijd aan de slag met feedback. Doel blijft om op termijn iets te ontwikkelen waarmee gebruikers kunnen nagaan of tekst, audio of video authentiek is, of is gegenereerd door AI.
Het besluit van OpenAI laat zien hoe moeilijk het is om, zelfs voor de makers, een betrouwbaar systeem op te zetten dat AI-gegenereerde content herkent. Bij de lancering in januari had het bedrijf al gezegd dat de tool mankementen had. In 9 procent van de gevallen werden door de mens geschreven teksten aangezien voor AI-content. De betrouwbaarheid nam volgens het bedrijf toe als een tekst langer was.
Hulpmiddel voor onderwijs
De tool die nu is teruggetrokken was onder meer bedoeld als hulpmiddel voor docenten. Die worden steeds vaker geconfronteerd met leerlingen die een tekstgenerator als ChatGPT gebruiken voor opdrachten.
In januari uitten onderwijzers hun zorgen daarover bij de NOS; zij zeiden niet te kunnen herkennen of een tekst door hun leerling of door een computer was geschreven. Vrijwel alle leerlingen die de NOS sprak en die ChatGPT gebruiken, zeiden dat ze niet worden betrapt.