• Regulering van AI lijkt een vereiste om er veilig mee de toekomst in te gaan.
  • Zowel de makers van de software als overheden en instanties zijn het hierover eens.
  • Maar werkt de technologie dan nog wel?
  • Lees ook: Écht sociale media, kan dat nog wel?

Dit artikel verscheen eerder in de wekelijkse Business Insider Tech-Update. Deze nieuwsbrief ook ontvangen? Schrijf je dan onderaan deze pagina in.

OPINIEHet lijkt van de een op de andere dag dat kunstmatige intelligentie als ChatGPT en dergelijke ons leven overnemen. Niet alleen in de positieve zin, want het is natuurlijk hartstikke leuk om het te gebruiken om sollicitatiebrieven mee te schrijven, of om het in te zetten om wat saaie werktaken van je over te nemen, maar ook in de negatieve zin: gaat het je werk of zelfs de mensheid overnemen?

De meningen hierover lopen heel sterk uiteen. De een is bang dat we over een jaar of twee allemaal werkloos onder een brug leven. De ander denkt dat we er alleen maar beter van worden, omdat de software alle domme werkzaamheden van ons heeft overgenomen en we daardoor meer tijd hebben om van het leven te genieten.

Waar we het wel over eens lijken te zijn, is dat er regulering nodig is om de toekomst van AI en het gebruik ervan in goede banen te leiden. Hoe dat precies gaat werken, dat is nog even onduidelijk als de toekomst die we samen met AI tegemoet gaan.

De EU kwam onlangs wel met een ingrijpend voorstel, maar daarin gaat het vooral om symptoombestrijding. Er wordt minder aan de oorzaak van mogelijke problemen gedacht, dan dat er ingegrepen wordt om de gevolgen te beperken. Denk aan het aangeven dat een bot gebruik maakt van materiaal met auteursrecht, in plaats te verbieden dat het materiaal gebruikt mag worden tot er toestemming voor is.

Je vraagt je wellicht af waarom dat niet het geval is. Mogelijk omdat niemand precies weet hoe de AI intern werkt. En als je dat niet weet, dan kan je er ook erg slecht op ingrijpen. Ook is de timing van de regulering al ietwat laat. De AI is al op een punt dat het lastig is om de oorzaken aan te pakken.

Op het punt van onwetendheid zijn ontwikkelaars vrij open. Ze weten zelf niet altijd hoe generatieve chatbots of afbeeldingsmakers aan hun resultaten komen. Deze onwetendheid zorgt ervoor dat er ook problemen ontstaan met verantwoordelijkheid. Want wie is er verantwoordelijkheid voor iets wat een AI ophoest, terwijl niemand weet hoe en waar dit vandaan komt?

Daarnaast valt er wat te zeggen voor het argument dat AI alleen werkt zonder regulering. Het feit dat we nu ineens te maken hebben met een belachelijk snelle ontwikkeling van de software, komt hier ook door. Zonder regulering kon ChatGPT het hele internet gebruiken als database. Was dit van tevoren duidelijk geweest, dan was er mogelijk ingegrepen en was de chatbot lang niet zo succesvol geworden.

Het gebrek aan (zelf)regulering zorgde er ook voor dat de ‘Peetvader van AI’ Geoffrey Hinton zijn baan bij Google heeft opgezegd. De ontwikkeling bij Google ging volgens hem goed, tot de druk werd verhoogd, omdat OpenAI met ChatGPT op de markt kwam. Toen werden normen losgelaten en zorgde dit ervoor dat hij spijt heeft van zijn levenswerk. Na 50 jaar aan AI gewerkt te hebben, ziet hij de toekomst niet bepaald rooskleurig in. De man praat zijn werk goed door zichzelf voor te houden dat “als ik het niet had gedaan, had iemand anders het wel gedaan.”

En dan is Google nog een van de partijen die verantwoordelijk met AI probeert om te gaan. Vooral omdat het bedrijf simpelweg de risico’s van het loslaten van een chatbot, zoals OpenAI en Microsoft wel doen, zich niet kan permitteren.

Je kunt je daarnaast afvragen waarom AI niet eerder is doorgebroken. Als Google, en nog veel meer bedrijven, er al zo lang mee bezig zijn, waarom gaat het nu dan ineens zo snel? Het heeft weinig te maken met ruwe data of processorkracht, en de software is klaarblijkelijk ook niet heel speciaal aangezien ineens iedereen een geavanceerde eigen chatbot uit de grond stampt.

Het is niet alsof er in het verleden niet eerder verschillende AI’s publiekelijk zijn gemaakt (en weer offline zijn gehaald). En ook is de software eerder ingezet voor om specifieke problemen op te lossen. Maar destijds werd er vanaf de start al geprobeerd om de projecten te reguleren, wat de mogelijkheden aanzienlijk limiteerde. Er zijn enkele voorbeelden van te vinden waaruit dit blijkt.

Maar met de komst van ChatGPT is het hek van de dam. Nu de investeringsdollars rijkelijk vloeien naar elk bedrijf die ook maar beweert zich een klein beetje bezig te gaan houden met kunstmatige intelligentie, gaat de ontwikkeling van de technologie zo snel dat afremmen onmogelijk lijkt.

Dit wetende kom je eigenlijk op een impasse uit: AI en de ontwikkeling hiervan heeft potentieel onmeetbare positieve waarde voor onze toekomst, maar dat is gebaseerd op een ongereguleerde historie. Nu zo hard ingrijpen dat alle risico’s ingedekt worden, kan er ook voor zorgen dat we ook nu weer eindigen zoals alle voorgaande AI-initiatieven: in de geschiedenisboeken onder het subkopje ‘gefaalde experimenten’.

LEES OOK: Hoe kan het dat Google zo achterloopt in de AI-race?