- Terwijl investeerders miljarden dollars in AI-startups steken, nemen zorgen over de risico’s van artificial intelligence toe.
- Er zijn enkele startups en academici die een poging doen om ervoor te zorgen dat AI zich conformeert aan menselijke normen en waarden.
- Sommige onderzoekers maken zich zorgen dat private bedrijven niet de juiste drijfveren hebben om kunstmatige intelligentie veilig te ontwikkelen.
- Lees ook: De grootste uitdaging van artificial intelligence ligt niet bij vooroordelen of uitlegbaarheid, maar bij het ecosysteem rondom AI
Dankzij de opkomst van de door artificial intelligence (AI) aangestuurde vraagbaak ChatGPT gaat er veel aandacht en geld naar startups die zich richten op het verbeteren van kunstmatige intelligentie.
Dat wordt onderstreept door het feit dat ruim een vijfde van de investeringen van durfkapitalisten in de eerste helft van dit jaar naar AI-startups ging, meldde Crunchbase. Bij elkaar ging het om zo’n 29 miljard dollar.
Maar de veiligheid van AI is daarbij een ondergeschoven kindje, ondanks meerdere waarschuwingen vanuit de de sector zelf. Onderzoekers in AI-alignment, een onderzoeksveld waarin wordt gepoogd om de nieuwe technologie aan te laten sluiten op menselijke normen en waarden, staat dan ook een enorm grote taak te wachten.
Onderzoekers vertelden Insider dat het cruciaal is om investeerders ook enthousiast te krijgen voor AI-alignment om een catastrofe te voorkomen.
Uit het in 2021 gepubliceerde rapport 'State of AI' blijkt dat slechts 7 procent van de ingezette middelen bij OpenAI (het bedrijf achter ChatGPT) en 2 procent bij DeepMind (het AI-onderdeel van Google) toebedeeld was aan AI-alignment. Er werd destijds geschat dat er minder dan 100 mensen in de AI-sector verdeeld over de zeven grootste bedrijven, hieraan werkten.
Ondertussen bereiden Stuart Armstrong, een onderzoeker aan de Oxford University, en Rebecca Gorman, een expert op het gebied van de risico's van artificial intelligence, zich al twee jaar voor op een scenario waarbij artificial intelligence een grote bedreiging vormt voor de mensheid. Ze doen dit onder de vlag van de Aligned AI, een startup die de twee hebben opgericht.
"De manier waarop we ervoor proberen te zorgen dat kunstmatige intelligenatie zich aan menselijke waarden kan houden, is door AI te helpen begrijpen op welke manieren mensen handelen", zegt Gorman.
Zorgen dat AI rekening houdt met menselijk waarden is een taak voor startups
Oprichter Connor Leahy van de Londense startup Conjecture, bevestigt dat AI-alignment niet iets is om makkelijk winst mee te maken. Volgens hem zijn de meeste mensen die aan toepassingen voor artificial intelligence werken, het "krachtiger en sneller" aan het maken en kiezen ze voor opvallende producten.
Hij zegt dat Conjecture het vraagstuk van AI-alignment op een bredere, "agnostische" manier benadert. Hieronder valt volgens hem ook het bouwen van intelligente systemen die zich houden aan menselijke commando's en het informeren van beleidsmakers met als doel om AI beter gereguleerd te krijgen.
"We willen een rampzalig scenario voorkomen waarin AI zich niet meer laat controleren door mensen", zegt Leahy. Hij beweert dat werken vanuit een startup hierin een belangrijke rol speelt. "Het is de beste manier om de benodigde middelen te verkrijgen", zegt hij. "Een overheidsorganisatie zou hier veel meer moeite mee hebben."
AI-alignment is een lastig onderwerp, omdat het zowel antwoord moet geven op filosofische als wetenschappelijke vragen, zeggen onderzoekers. Mensen hebben verschillende waarden. Dit zorgt ervoor dat AI-alignment kan anders kan werken afhankelijk van de context en omgeving.
De startup Aligned AI van Armstrong en Gorman wil ook de ontsporing van artificial intelligence aanpakken. Het bedrijf ontwikkelt eigen tools om ervoor te zorgen dat AI alleen doet wat het moet doen, zoals de navigatie van autonome voertuigen. Tegelijk moet het minder doen van waar het niet voor bedoeld is, zoals het produceren van slechte content.
Hoewel de veiligheid van AI steeds meer aandacht krijgt, is het nog steeds een ondergeschoven kindje in vergelijking met de focus op de ontwikkeling van generatieve AI. De onderzoekers zeggen dan ook dat er veel meer in deze tak van sport geïnvesteerd moet worden.

Financiering voor veilige toepassingen van AI
Onderzoekers zijn ook steeds kritischer op waar de financiering voor AI-alignment vandaan komt. Veel van de investeringen in AI-alignment komen van investeerders met een specifiek belang en dat kan het onderzoek aanzienlijk beïnvloeden, vertelt een onderzoeker die meerdere rapporten over AI heeft gepubliceerd, maar liever niet bij naam genoemd wilde worden, aan Insider.
Zo kent de techindustrie een beweging die 'effectief altruïsme' wordt genoemd en die zich richt op het zo effectief mogelijk inzetten van initiatieven voor goede doelen. Volgens de onderzoeker die Insider sprak, kunnen investeringen uit dit soort bronnen invloed hebben op de manier waarop AI-alignment wordt uitgevoerd. Het zou er bijvoorbeeld voor kunnen zorgen dat de focus uiteindelijk vooral komt te liggen op het maken van winst.
Aligned AI ontving een donatie van 146.000 dollar van Alameda Research, de nu failliete crypto-investeringmaatschappij, die werd opgericht door ondernemer Sam Bankman-Fried. Hij moet zich tegenover de rechter verantwoorden voor zijn betrokkenheid bij het omvallen van zijn crypto-handelsplatform FTX.
Onderzoekers pleiten voor meer investeringen vanuit de publieke sector. Salla Westerstrand, een AI-ethicus, zegt dat de sector wordt gedomineerd door private partijen waardoor het risico ontstaat dat "de tech gemaakt wordt om aandeelhouders rijker te maken." Een te sterke focus op het maken van winst zou ervoor kunnen zorgen dat er minder wordt gelet op het aanpakken van de risico's die opdoemen.
"We moeten er zeker van zijn dat we een goede basis hebben voor AI-innovatie. Een die van andere motieven komt dan het geld verdienen voor aandeelhouders", zegt ze.
Overheden moeten helpen om AI te reguleren
Terwijl publieke en private partijen steggelen over de manier waarop AI-alignment het beste bewerkstelligd kan worden, zeggen onderzoekers dat een overkoepelend, internationaal orgaan nodig is om het werk te steunen.
"In een ideale wereld waar iedereen weldenkend is, zouden overheden samenkomen en zeggen: 'oh shit, we kunnen AI-systemen niet zomaar vrij baan geven'", zegt Leahy. "Ze zouden een overkoepelend project ontwikkelen, dit financieren en ervoor zorgen dat de slimste koppen bij elkaar komen om hard te werken aan het veiligheidsprobleem."
Ian Hogarth, een investeerder die mede-oprichter is van Plural Platform, stelt dat overheden in staat zijn om dit beleid op te leggen en dat ze er mee aan de slag moeten gaan.
"Overheden kunnen toezicht houden op bedrijven die zich bezighouden met de nieuwste ontwikkelingen rond AI en moeten stevige veiligheidsstandaarden invoeren", zegt hij.
Volgens Hogarth is investeren in startups die zich bezighouden met AI-alignment slechts "een deel van de oplossing". Er zou meer vooruitgang geboekt kunnen worden door het ontwikkelen van publieke-private of volledig publieke onderzoeksinstellingen.
Onderzoekers denken dat een aanpak vanuit meerdere invalshoeken, met publieke en private entiteiten die het werk verdelen, mogelijk kansrijk is.