Een nieuwe video van hulporganisatie Free a Girl gaat momenteel rond op social media. De stichting, waar ook Yolanthe Cabau zich al jaren voor inzet, wil met de campagne aandacht vragen voor seksuele uitbuiting van jonge meisjes. De boodschap is zwaar: meisjes die eigenlijk met poppen zouden moeten spelen, belanden in bordelen en verliezen hun jeugd. Alleen viel kijkers nog iets anders op. In de video lijkt namelijk gebruik te zijn gemaakt van kunstmatige intelligentie.
AI-fouten in serieuze video
Campagnevideo’s over dit soort onderwerpen zijn meestal bedoeld om mensen wakker te schudden. Maar bij deze video begonnen sommige kijkers iets op te merken. In een paar scènes duiken namelijk typische AI-kenmerken op. Zo is er kort een Sora-logo te zien – een dienst waarmee AI-video’s gemaakt kunnen worden – en zitten er hier en daar kleine foutjes in het beeld. Denk aan een persoon die lijkt rond te lopen met drie benen of posters op de achtergrond die er net iets te kunstmatig uitzien.
Dat zorgt online voor flink wat discussie. Niet zozeer over het onderwerp zelf, maar vooral over het gebruik van AI in een campagne met zo’n serieus thema. Want als beelden niet helemaal echt lijken, gaan mensen zich automatisch afvragen wat precies echt is en wat niet.
Daardoor verschuift de aandacht een beetje van de boodschap naar de techniek achter de video. Terwijl het filmpje natuurlijk bedoeld was om aandacht te vragen voor seksuele uitbuiting.
Waarom zou zo’n organisatie AI gebruiken?
Toch is er ook een logische verklaring. Free a Girl heeft in de reacties laten weten dat bewust voor AI is gekozen om de privacy van slachtoffers te beschermen. Het gaat tenslotte om jonge meisjes die slachtoffer zijn geworden van uitbuiting en die kunnen natuurlijk niet herkenbaar in beeld worden gebracht.
Daarnaast is het in de praktijk vrijwel onmogelijk om echte beelden te maken van wat er zich in bordelen afspeelt. Door situaties met AI te reconstrueren, kan een organisatie toch laten zien wat er gebeurt zonder echte slachtoffers in gevaar te brengen.
Het probleem zit hem vooral in de uitvoering. Als kijkers AI-fouten ontdekken, kan dat afleiden van de boodschap. Dat zie je ook terug in de reacties op sociel media.
Waarschijnlijk was er weinig discussie geweest als vanaf het begin duidelijk was geweest dat het om een AI-reconstructie ging. Nu viel het kijkers zelf op en ontstond er vooral een gesprek over de technologie achter de video, terwijl de campagne eigenlijk over iets heel anders gaat.

Plaats reactie
0 reacties