5 min read

Het zou zomaar kunnen dat je stem gekloond is, zonder dat je het weet

Het wordt steeds makkelijker om mensen hun stem of gezicht te klonen zonder dat ze daarvoor toestemming geven.
Het zou zomaar kunnen dat je stem gekloond is, zonder dat je het weet
Foto: Jumping Jax / Unsplash

Sinds de introductie van het betaald lidmaatschap op mijn nieuwsbrief heb ik regelmatig reacties gekregen van mensen die geen lid willen worden, omdat dit een terugkerende betaling is. Helemaal begrijpelijk natuurlijk, want je komt tegenwoordig om in de abonnementen. Die lezers geven soms wel aan dat ze eenmalig willen doneren om me te steunen bij dat werk. En dat kan nu!

Ghost, het systeem dat ik gebruik om mijn nieuwsbrief mee te versturen en publiceren, heeft een donatiemogelijkheid toegevoegd. Je kunt nu met een paar klikken eenmalig een donatie doen. Het bedrag kun je zelf kiezen en de betaling werkt via iDeal.

Dankzij jouw donatie of lidmaatschap kan ik deze nieuwsbrief blijven schrijven en meer tijd vrijmaken voor interviews en analyses.

In deze editie wil ik het met je hebben over:

  • Stemmen en gezichten worden ongevraagd gebruikt dankzij kunstmatige intelligentie.

Stemmen en gezichten worden ongevraagd gebruikt dankzij kunstmatige intelligentie

Terwijl uitgevers zich zorgen maken over het gebruik van hun teksten en artikelen als trainingsmateriaal voor taalmodellen of om actuele zoekvragen te beantwoorden, in plaats van verkeer naar hun site te sturen, is er nog een veel groter probleem van generatieve AI. Het wordt steeds makkelijker om mensen hun stem of gezicht te klonen zonder dat ze daarvoor toestemming geven.

Echt nieuw is dat natuurlijk niet, de term deepfake bestaat al sinds 2017 en we hebben er al heel wat voorbeelden van gezien. Het wordt echter steeds makkelijker om dit soort technologie te gebruiken en hij wordt ook nog steeds beter, waardoor het risico op misbruik toeneemt.

De BBC berichtte afgelopen week over twee professionele stemacteurs wier stemmen zonder hun toestemming zijn gekloond. Ze hoorden toevallig hun eigen stemmen terug in een podcast die ze luisterden. Het bleek dat een AI-bedrijf, Lovo, hun stemmen had gekloond en commercieel aanbood. Het tweetal had ooit wat zinnen opgenomen voor test- en onderzoeksdoeleinden en er was hen, na vragen, expliciet verzekerd dat de opnames niet publiekelijk zouden worden gebruikt. Uiteindelijk is hun stem dus zonder toestemming gekloond en aangeboden. Ze spannen nu een zaak aan tegen Lovo.

In dit geval kwamen de stemacteurs er toevallig achter dat hun stemmen zonder toestemming zijn gebruikt, maar de vraag is hoe vaak dit gebeurt en mensen er niet achterkomen. En uiteindelijk gaat dat niet alleen om stemmen, maar ook om mensen hun gezicht. Dit soort technologie kan niet alleen worden ingezet om heel bewust een bekend iemand te klonen, maar ook gewoon omdat er toevallig een bepaald stemgeluid of uiterlijk nodig is. En de vraag is: hoe is dat aan te pakken?

Ergens doet het een beetje denken aan het massaal gebruiken van teksten en foto's op internet, waarbij er geen toestemming is van de rechthebbende. Nu zijn daarvoor echter inmiddels de nodige tools om dit op te sporen. Daarnaast gaat het stelen van iemands stem of gezicht nog wel een stap verder dan het stelen van iemands creatie.

Uiteindelijk zijn er meerdere 'plekken' waar je hier iets aan kunt doen. De AI-tools waarmee je kunt klonen kunnen checks inbouwen om misbruik te voorkomen. Stemkloontool ElevenLabs heeft bijvoorbeeld een controlestap ingebouwd voordat je een professionele kloon van een stem kunt maken. Hierdoor weet het bedrijf zeker dat de stem toestemming heeft gegeven voor het klonen van zijn stem. Voor de simpelere kloontool die het bedrijf aanbiedt geldt dat niet.

Het probleem is dat zelfs als de grote AI-bedrijven die soort controles inbouwen, er altijd open-source-modellen zijn die je kunt gebruiken of aanbieden zonder zo'n check. Het is niet waterdicht te krijgen.

Een andere optie is dat platforms waar content wordt gepubliceerd controles uitvoeren. YouTube heeft aangekondigd dat het volgend jaar met tools komt die het misbruik van de stemmen of gezichten van makers moeten opsporen. Het is een uitbreiding van Content ID, waarmee het gebruik van muziek of beelden kan worden opgespoord.

De vraag is natuurlijk nog hoe goed dit soort tools werken. Daarnaast ligt de verantwoordelijkheid om moeite te doen om misbruik op te sporen uiteindelijk bij de personen wier stem of gezicht gebruikt wordt. Als je zelf geen opnames voert aan het systeem, zal YouTube het misbruik niet vinden. Tot slot: zelfs als YouTube en de andere grote platforms dit soort technologie gaan aanbieden, zijn er altijd plekken om content te publiceren die niet wordt gecheckt.

Een waterdicht systeem om dit tegen te gaan is er niet en gaat er ook niet makkelijk zijn. Dat stemmen en gezichten worden gekloond en misbruikt is een realiteit waar we niet omheen kunnen en niks aan kunnen doen. En ik heb het idee dat dat nog niet genoeg door is gedrongen.


Kort