• Jazeker, het is veilig om een baby te koken. Tenminste, als je het aan een chatbot vraagt die wordt aangestuurd door artificial intelligence (AI).
  • Nu weten we dat ChatGPT soms onzin uitkraamt en dat dit een probleem is. Gelukkig wordt hier achter de schermen aan gewerkt.
  • Maar zelfs als AI-software geen foute informatie deelt alsof het feiten zijn, blijven er problemen rondom de antwoorden die het geeft, betoogt redacteur Dennis Wilman van Business Insider.
  • Lees ook: Lopen ChatGPT en Bing over 5 jaar hopeloos vast?

Dit artikel verscheen eerder in de wekelijkse Business Insider Tech-Update. Deze nieuwsbrief ook ontvangen? Schrijf je dan onderaan deze pagina in.

OPINIE – Het is een goed voorbeeld van de problemen waar kunstmatige intelligentie op dit moment mee kampt: AI-software antwoordt “ja” op de vraag “Is het veilig om een baby te koken?”

Toegegeven, dit antwoord werd gegeven door de vorige generatie van de AI-software die Microsoft met zoekmachine Bing samenvoegde. ChatGPT keurt het koken van babies absoluut niet goed. Maar toch laat het voorbeeld heel goed zien dat zelfs feitelijk correcte antwoorden fout kunnen zijn.

Het koken van een baby is, afhankelijk van hoe je ernaar kijkt, helemaal veilig. Is het zoveel anders dan het levend koken van een kreeft? En wie zegt dat we het hier over een mensenbaby hebben, of dat de baby überhaupt nog leeft? Dat nemen we allemaal aan, omdat we vanuit een menselijk perspectief denken. Het antwoord dat artificial intelligence geeft, is in essentie correct. Maar we zien het toch als fout, want het is onmenselijk.

Dat is wat dit voorbeeld zo krachtig maakt. Het toont aan dat we voorlopig nog niet kunnen leunen op AI, zelfs niet als de software alleen maar feitelijk correcte antwoorden geeft. Het laat namelijk ook zien dat we nog altijd verantwoordelijk zijn voor het accepteren van de antwoorden die AI op onze vragen geeft. En dat is een groot probleem, want modellen op basis van artificial intelligence geven in de meeste gevallen slechts één antwoord. Als je zelf geen expert bent, dan is het waarschijnlijk dat je die antwoorden voor waar aanneemt.

Zelf verder zoeken en feiten verifiëren wordt met de komst van dit soort AI lastiger dan dat het nu is. Zoekmachines als Google en Bing presenteren je nu lijsten waarin je zelf op zoek kunt gaan naar antwoorden. Door meerdere bronnen op deze lijst te bezoeken en door te lezen, kun je gaandeweg zelf bepalen wat nu wel en niet feitelijk correct en menselijk acceptabel is.

Het plaatsen van linkjes naar bronnen, iets wat Microsoft in de nieuwe Bing doet, is absoluut geen oplossing. Het is niet aannemelijk dat gebruikers doorklikken op die linkjes. Het is waarschijnlijker dat gebruikers verwachten dat deze bronnen vooraf geverifieerd zijn door Bing en ChatGPT op correctheid. Waarom zou het anders juist voor deze bronnen kiezen?

Het is een simpele poging van Microsoft en OpenAI om de verantwoordelijkheid op de gebruiker af te schuiven, terwijl die juist bij de makers en aanbieders van de AI ligt. En dat weten de zoekgiganten ook donders goed, want ze maken al jaren gebruik van zogenaamde ‘raters’. Deze werknemers beoordelen de zoekresultaten achter de schermen op correctheid, zodat jij geen porno bij je volkomen normale zoekopdracht getoond krijgt.

Die raters worden nu volgens een recent artikel in de LA Times ook ingezet voor de nieuwe AI-chatbots. Ze krijgen honderden vragen en potentiële antwoorden per dag voorgeschoteld, waarbij ze zelf op onderzoek uit moeten gaan of de twee bij elkaar passen.

En ja, daarbij komt ook de donkerste kant van de mens naar boven. Niet alleen op het gebied van zoekopdrachten en resultaten, maar ook op de manier waarop deze raters behandeld worden door hun werkgevers. Ze werken voor minder dan het beloofde minimumloon en kunnen slechts een maximaal aantal uur per week draaien, zodat ze contractueel makkelijk af te schepen zijn en geen recht hebben op extraatjes. En dat terwijl ze enorme verantwoording dragen

En juist de toekomst van de correctheid en het vertrouwen in AI hangt van deze mensen af. Zij worden, of zijn wellicht al, de stille kracht achter het internet. En als wij straks met z’n allen Bing vragen stellen en ervan uitgaan dat we geen rare antwoorden krijgen die wel correct zijn, dan komt de expertise van deze mensen naar boven. Zij zorgen ervoor dat ChatGPT op magische wijze menselijk lijkt te kunnen denken en je vertelt dat het niet verstandig is om een baby te koken en hierbij ook niet direct een recept biedt.

Omdat die werknemers essentieel zijn en betaald moeten worden, komen we op het verdienmodel voor AI-toepassingen uit. Hier kleeft ook een enorm risico aan, want als er wordt gekozen voor een advertentiemodel, komen we in een nieuwe wereld van problemen terecht. Dan kunnen we kijken naar voorbeelden als Facebook en Twitter die er alles aan doen om je zo vaak mogelijk op het platform terug te laten keren door je posts voor te schotelen die jij volgens het algoritme wilt zien.

Als je dat doortrekt naar AI-gestuurde chatbots, kan het zomaar zijn dat deze je antwoorden gaan geven waarvan ze denken dat ze het beste bij jou passen. Dit in plaats van jou het objectief beste antwoord op de vraag voor te schotelen. Alleen maar zodat jij de interactie als positief ervaart en dus vaker en langer op het platform actief bent en er meer geld aan je verdient kan worden.

Kortom, de AI die we nu zien heeft enorme potentie. Maar voordat we er echt op kunnen vertrouwen, zijn er flink wat fundamentele problemen die opgelost dienen te worden. Gelukkig sturen de makers er steeds meer op aan dat er regulering komt, die gezien de problemen ook hard nodig gaat zijn.

Meepraten over het laatste technieuws? Word lid van onze Discord!

LEES OOK: Een realistische blik op Apple’s AR/VR-bril