Hoogleraar laat slachtoffers met een deepfake praten om trauma’s te verwerken
Met behulp van deepfake in gesprek gaan met een dader. Het kan met een toepassing die hoogleraar klinische psychologie Agnes van Minnen heeft ingezet voor een therapie bij traumaverwerking. Na een pilot bij twee patiënten is er nu subsidie aangevraagd voor een grotere studie.
‘Ik hoop dat je doodvalt’, met een klap slaat Meg de laptop dicht. Ze heeft via de computer een gesprek met een dader die haar als kind misbruikte. Meg is nu 48 en lijdt aan posttraumatische stressstoornis. Achteraf vertelt ze dat ze voor het eerst het gevoel had de baas te zijn. Het gesprek geeft haar het gevoel dat ze voor zichzelf op kan komen en haar woede kan uitspreken.
Meg, een gefingeerde naam, sprak niet echt met haar dader. Er werd een deepfake (een digitale nagemaakte video van een persoon, red.) gebruikt op basis van een foto van de dader. Diens mond en ogen komen zo in beweging. Een therapeut sprak in naam van de dader. De dialoog is opgenomen in het artikel dat Van Minnen publiceerde in het tijdschrift Frontiers in Psychiatry over het gebruik van deepfake bij traumaverwerking.
Herstelbemiddeling
De deepfake-therapie is als pilot toegepast bij twee patiënten van PsychoTrauma Expertise Center PSYTREC, waar Van Minnen directeur van het behandelprogramma is. Er is nu subsidie aangevraagd om de therapie bij tien patiënten toe te passen en gecontroleerd onderzoek te doen naar de toepasbaarheid.
‘Er bestaat al herstelbemiddeling’, vertelt Van Minnen over de behandeling. ‘Dat is een gesprek tussen dader en slachtoffer. Dan is het van belang dat de dader berouw toont en excuses aanbiedt. Maar in veel gevallen kan dat niet; als er geen inzicht is bij de dader, als het een stalker betreft of als er nooit aangifte is gedaan, bijvoorbeeld. Er zijn veel gevallen waarbij het niet aan te raden is om een gesprek aan te gaan. Deepfake als alternatief is dan heel waardevol.’
‘Als een deepfake zegt dat het niet aan hen lag, dan kan dat helpen’
Van Minnen werd benaderd door Theo Gevers, hoogleraar Computer Vision aan de Universiteit van Amsterdam, die de software commercieel op de markt brengt. Gevers wilde een partij de mogelijkheid bieden de techniek maatschappelijk in te zetten. Van Minnen dacht gelijk aan deze optie, omdat slachtoffers vaak met een schuldgevoel rondlopen.
‘Slachtoffers waren vaak erg jong toen ze werden misbruikt’, licht Van Minnen toe. ‘Ze vragen zich af waarom hen dit overkwam en denken soms dat ze zelf aanleiding gegeven hebben. Als een deepfake dan zegt dat ze een toevallig slachtoffer waren en het niet aan hen lag, dan kan dat helpen. Ook kunnen ze nu boven de dader staan, mede omdat ze ouder zijn dan toen het gebeurde.’
Wat de therapeut moet zeggen als stem van de deepfake is gebaseerd op klinisch gevoel en op wat er in de herstelbemiddeling werkt, zegt Van Minnen. ‘We moeten nog verder onderzoeken wat behulpzaam is. Het gaat erom dat de dader spijt betuigt en dat het slachtoffer kan vertellen over de impact op het leven.’
Berichtgeving in de Volkskrant over de deepfake-therapie leverde veel reacties op. Van Minnen: ‘Er is een groep die vraagtekens zet bij nieuwe therapie. Er zijn mensen die ethische bezwaren hebben. De dader weet immers niet dat zijn foto wordt gebruikt. Dat kunnen mensen zijn die nooit veroordeeld zijn. Is de privacy goed gewaarborgd? En iemand stelde de vraag of het niet het gevaar oplevert dat iemand na de therapie minder voorzichtig is bij een potentieel gevaarlijke dader. Dat laatste gevaar lijkt me klein. De mensen weten heel goed dat ze met een deepfake-dader hebben gesproken.’
Hoofd beweegt amper
Een van de deelnemers aan de pilot was uitbehandeld, maar de dader woonde nog bij haar in het dorp. Ze vermeed de straat waar hij woonde en de winkel waar hij werkte. Na de deepfake-therapie durft ze nu wel weer in de straat en de winkel te komen.
‘Zodra er enige beweging op het scherm te zien was, zag je de patiënten verstijven’
Ook al is de deepfake weinig realistisch – de stem is anders en het hoofd beweegt amper – toch voelt het voor de slachtoffers zeer echt. Van Minnen: ‘Toen we alles nog aan het opzetten waren en er enkel de foto van de dader op het scherm te zien was, waren de patiënten nog relatief ontspannen, maar zodra er enige beweging op het scherm te zien was, zag je ze verstijven.’ De patiënten gaven na afloop aan dit ook zo ervaren te hebben en het graag nog eens over te doen.
Er wordt in therapie al wel gewerkt met foto’s om tegen te praten of met inbeelding om in gesprek te gaan met een dader. Maar dat effect is vaak lang niet zo sterk als bij deepfake. ‘Dat is echt opvallend’, zegt Van Minnen. Ze vergelijkt haar toepassing met virtual reality, waarin mensen ook sterk reageren op beeld waarvan ze cognitief weten dat het niet echt is.
Gevaren
Voor het nieuwe onderzoek heeft Van Minnen subsidie aangevraagd om de therapie toe te passen bij tien patiënten in de eindfase van traumaverwerking. Ze hoopt dat dit concrete resultaten oplevert. ‘Ik ben vooral ook benieuwd welke gevaren aan deze therapie zitten. Er is veel enthousiasme, maar we moeten het eerst goed onderzoeken.’
Er zijn meer varianten te bedenken om deepfake toe te passen als therapie. Het wordt al gebruikt bij rouwverwerking, zodat er gesproken kan worden met een overledene. ‘Wellicht hebben we over een paar jaar allemaal wel een app op de telefoon waardoor we met een deepfake kunnen praten’, zegt Van Minnen. ‘Er bestaan zorgen dat mensen dit te veel gaan doen, maar ik vraag me af wat te veel is. Is het ook te veel als iemand wekelijks een graf bezoekt?’
Van Minnen vermoedt dat de technologie nuttig gaat worden als je nog iets af te handelen hebt met iemand en daar veel last van ondervindt. ‘Dat kan natuurlijk ook een ex zijn die je slecht behandeld heeft of een pestkop. Iemand die je niet snel in het echt confronteert. Dan kan dit middel echt nuttig zijn.’