Het Amerikaanse softwarebedrijf Adobe verkoopt door artificial intelligence (AI) gegenereerde beelden van de oorlog tussen Israël en Hamas.

Hoewel het van sommige daarvan heel duidelijk is dat ze door een computer zijn gegenereerd, zijn andere veel realistischer. Zoals een beeld dat online is gedeeld door een aantal kleinere websites en in berichten op sociale media. Daardoor zijn er zorgen ontstaan dat door kunstmatige intelligentie gegeneerde content kan bijdragen aan nepnieuws, melden de nieuwssites Crikey en Vice.

Na het intoetsen van de zoekterm “israel hamas war” in Adobe Stock komt een reeks beelden tevoorschijn van door oorlog verscheurde straten, explosies, militairen, tanks, gebouwen die in brand staan en kinderen tussen het puin.

Adobe Stock, dat beelden van individuele fotografen en kunstenaars verkoopt, eist dat alle door AI gegenereerde beelden op het platform als zodanig aangemerkt moeten worden. Maar bij sommige beelden staat dat alleen in de kleine lettertjes en niet in de koppen.

"Grote explosie verlicht de skyline in Palestina", luidt de kop van een door AI gegenereerd beeld. "Vernietigde gebouwen door de oorlog in de Gazastrook", meldt een andere kop. En van een beeld van een vrouw in nood is de kop "Gewonde Israëlische vrouw klampt zich vast aan militair en smeekt om hulp".

Foto: Adobe

In sommige koppen wordt wel direct verwezen naar AI. Zo is er een beeld met als kop "conflict tussen Israël en Palestina generatieve ai", dat heel erg lijkt op daadwerkelijke beelden van de oorlog en die online werd gedeeld.

Foto: Adobe

Met Google Reverse Image Search is vast te stellen waar het beeld voor is gebruikt in berichten, filmpjes en op sociale media. Bij de zoekresultaten staan ook zeer vergelijkbare en waarschijnlijk echte beelden van het conflict.

Het is niet duidelijk of degenen die gebruik hebben gemaakt van het door AI gegenereerde beeld voor hun websites of berichten op sociale media zich er bewust van zijn dat het geen echte foto is.

Foto: Adobe; Google

"Deze specifieke beelden zijn aangemerkt als generatieve AI toen ze werden aangeboden en vervolgens beschikbaar werden gesteld, zoals onze richtlijnen voorschrijven", laat een woordvoerder van Adobe in een verklaring weten aan Insider. "Wij vinden het belangrijk dat klanten weten welke Adobe Stock-beelden zijn gemaakt met behulp van AI-toepassingen."

"Adobe is erop gebrand desinformatie te bestrijden en via het Content Authenticity Initiative werken we samen met uitgevers, camerafabrikanten en andere belanghebbenden samen om de Content Credentials te implementeren, ook voor onze eigen producten", luidt de verklaring. "Met Content Credentials krijgen mensen belangrijke context over hoe digitale content is gemaakt, vastgelegd en/of bewerkt en dus ook of er AI-toepassingen zijn gebruikt bij het creëren of bewerken ervan."

Veel nepnieuws over oorlog tussen Israël en Hamas

Er gaat online al veel desinformatie en nepnieuws rond over de oorlog tussen Israël en Hamas. Misleidende content, oude filmpjes en foto's van andere conflicten, en zelfs beelden uit videogames worden gepresenteerd als zijnde van het recent geëscaleerde conflict in het Midden-Oosten.

En nu door AI gegeneerde content steeds realistischer wordt, kan het moeilijk zijn vast te stellen of een beeld echt is of niet, zeker omdat blijkt dat zelfs AI-detectoren makkelijk om de tuin geleid kunnen worden.

En nadat een AI-afbeelding eenmaal is gedownload door een gebruiker, is het een stuk moeilijker om het beleid te handhaven dat het moet worden aangemerkt als door AI gegenereerd. Er is namelijk geen enkele garantie dat iemand duidelijk maakt of het om een echte foto gaat of niet.

AI-expert Henry Ajder, die lid is van de Europese adviesraad van Reality Labs van Meta, heeft eerder al een aantal tips gedeeld die kunnen helpen door AI gegenereerde beelden te onderscheiden van echte beelden.

LEES OOK: Dit zijn 4 aanwijzingen om te achterhalen of een ‘deepfake’ foto door AI is gemaakt