• Een Amerikaanse computerwetenschapper noemt de door kunstmatige intelligentie aangedreven bot ChatGPT een ‘bullshit-generator’.
  • Arvind Naryanan denkt dat op grote taaldatabases gebaseerde toepassingen geen revolutie zullen ontketenen, omdat ze niet goed in staat zijn feit en fictie te onderscheiden.
  • Het gebruik van door AI aangestuurde bots zal wel leiden tot aanpassing van hoe bepaalde taken worden uitgevoerd, maar de disruptieve mogelijkheden zijn beperkt.

Een hoogleraar computerwetenschappen aan de Amerikaanse Princeton University gelooft niet dat de populaire bot ChatGPT van OpenAI een existentiële bedreiging vormt voor allerlei vakgebieden, zoals door sommigen wordt gevreesd. 

Door kunstmatige intelligentie aangestuurde kunnen weliswaar informatie opnieuw verpakken en daarmee verhalen produceren. Maar ze zijn niet zo ontworpen dat ze de juistheid van informatie kunnen onderscheiden, zegt hoogleraar Arvind Narayanan in een interview met The Markup

ChatGPT “probeert overtuigend te zijn, maar heeft geen manier om zeker te weten of de uitspraken die het doet waar zijn of niet,” zegt de wetenschapper die gespecialiseerd is in de toepassing van kunstmatige intelligentie.

Deskundigen op het gebied van AI (artificial intelligence) wijzen erop dat producten zoals ChatGPT, die gebruik maken van grote taaldatabases om vragen te beantwoorden, werken door simpelweg voorspellingen te doen over wat te zeggen, in plaats van ideeën te synthetiseren zoals menselijke hersenen dat doen.

Volgens Narayanan betekent dit dat ChatGPT een "bullshit-generator" is, die een reactie geeft zonder rekening te houden met de juistheid van zijn antwoorden.

Niettemin zijn er al indicaties van hoe bedrijven dit soort technologie zullen toepassen.

Zo zou nieuwssite Buzzfeed, die afgelopen december naar verluidt 12 procent van zijn personeel ontsloeg, de technologie van OpenAI gebruiken om quizzen te helpen maken. The techsite CNET heeft artikelen gepubliceerd die door AI zijn gegenereerd, maar moest die achteraf corrigeren vanwege feitelijke onjuistheden, meldt The Washington Post. 

Narayanan noemt de CNET-zaak als een voorbeeld van de valkuilen van dit soort technologie. "Als je dat combineert met het feit dat de tool geen goed concept heeft van de waarheid, is dat een potentiële ramp", zegt hij tegen The Markup.

Volgens Narayanan is het waarschijnlijker dat het gebruik van grote taaldatabases ertoe leiden dat vakgebieden veranderen in reactie op het gebruik ervan, in plaats van volledig te worden vervangen.

"Zelfs met zoiets ingrijpends als internet, zoekmachines of smartphones, is het een kwestie aanpassing gebleken, waarbij we de voordelen maximaliseren en de risico's proberen te minimaliseren", zegt hij in het interview. "Ik denk niet dat grote taalmodellen zo'n enorme impact zullen hebben. Er kunnen verschuivingen optreden, met voordelen en risico's in veel vakgebieden, maar ik zie geen scenario waarin dit de wereld onherkenbaar verandert."

Het volledige interview van The Markup met Narayanan is het lezen waard, het is hier te vinden.

LEES OOK: Amazon waarschuwt werknemers om geen vertrouwelijke informatie met ChatGPT te delen: antwoorden van de chatbot ‘lijken erg veel op interne data’