Opvallend: Free a Girl gebruikt AI in campagnevideo – en kijkers spotten meteen de foutjes

thumb_vk_Foutje_van_Free_a_Girl_gebruikte_AI_in_nieuwste_video

Een nieuwe video van hulporganisatie Free a Girl gaat momenteel rond op social media. De stichting, waar ook Yolanthe Cabau zich al jaren voor inzet, wil met de campagne aandacht vragen voor seksuele uitbuiting van jonge meisjes. De boodschap is zwaar: meisjes die eigenlijk met poppen zouden moeten spelen, belanden in bordelen en verliezen hun jeugd. Alleen viel kijkers nog iets anders op. In de video lijkt namelijk gebruik te zijn gemaakt van kunstmatige intelligentie.

AI-fouten in serieuze video

Campagnevideo’s over dit soort onderwerpen zijn meestal bedoeld om mensen wakker te schudden. Maar bij deze video begonnen sommige kijkers iets op te merken. In een paar scènes duiken namelijk typische AI-kenmerken op. Zo is er kort een Sora-logo te zien – een dienst waarmee AI-video’s gemaakt kunnen worden – en zitten er hier en daar kleine foutjes in het beeld. Denk aan een persoon die lijkt rond te lopen met drie benen of posters op de achtergrond die er net iets te kunstmatig uitzien.

Dat zorgt online voor flink wat discussie. Niet zozeer over het onderwerp zelf, maar vooral over het gebruik van AI in een campagne met zo’n serieus thema. Want als beelden niet helemaal echt lijken, gaan mensen zich automatisch afvragen wat precies echt is en wat niet.

Daardoor verschuift de aandacht een beetje van de boodschap naar de techniek achter de video. Terwijl het filmpje natuurlijk bedoeld was om aandacht te vragen voor seksuele uitbuiting.

Waarom zou zo’n organisatie AI gebruiken?

Toch is er ook een logische verklaring. Free a Girl heeft in de reacties laten weten dat bewust voor AI is gekozen om de privacy van slachtoffers te beschermen. Het gaat tenslotte om jonge meisjes die slachtoffer zijn geworden van uitbuiting en die kunnen natuurlijk niet herkenbaar in beeld worden gebracht.

Daarnaast is het in de praktijk vrijwel onmogelijk om echte beelden te maken van wat er zich in bordelen afspeelt. Door situaties met AI te reconstrueren, kan een organisatie toch laten zien wat er gebeurt zonder echte slachtoffers in gevaar te brengen.

Het probleem zit hem vooral in de uitvoering. Als kijkers AI-fouten ontdekken, kan dat afleiden van de boodschap. Dat zie je ook terug in de reacties op sociel media.

Waarschijnlijk was er weinig discussie geweest als vanaf het begin duidelijk was geweest dat het om een AI-reconstructie ging. Nu viel het kijkers zelf op en ontstond er vooral een gesprek over de technologie achter de video, terwijl de campagne eigenlijk over iets heel anders gaat.

Lees meer over:

Plaats reactie

666

0 reacties

Laad meer reacties Bekijk alle reacties

Net binnen

Gewoon een verzameling hilarische foto's #2210

Woensdag. Dat punt waarop je nog midden in de week zit, maar je hoofd al stiekem richting weekend begint te schuiven. Je bent...

Favela-gevecht gaat van nul naar honderd

Voor wie vroeger geen aardrijkskunde heeft gehad: nog even het onderwerp ‘favela’s’. Dat zijn dichtbevolkte, informele sloppe...

Politie in Antwerpen slaat nog geen deuk in een pakje boter

Een bijzonder straf optreden in Antwerpen. Een politieagent staat al met een indrukwekkend wapen klaar. Allemaal om de man in...

Steekpartij in San Diego: steekgrage gek door politiehond gestopt na aanval op parkeerwachter

In San Diego liep het compleet uit de hand toen Lathapoun Keovongsa besloot dat een parkeerplaats de perfecte plek was om iem...

Country dancing is stiekem best hard

Misschien heb je er nog nooit van gehoord, en dat geeft niet. Country dance. Contradans op z’n goed Nederlands. Niet te verwa...

Lees meer