Stanford-professor Jeff Hancock wordt beschuldigd van het aanhalen van een niet-bestaand onderzoek in zijn getuigenis met betrekking tot de voorgestelde deepfake-wetgeving in Minnesota. Dit incident werd aan het licht gebracht door de advocaten van de aanklager in een zaak tegen de conservatieve YouTuber Christopher Kohls. De context omvat een politiek debat over de vrijheid van meningsuiting en de legaliteit van deepfakes tijdens verkiezingen.
Hancocks getuigenis werd door de procureur-generaal van Minnesota, Keith Ellison, gebruikt om de voorgestelde wet te verdedigen, waarbij hij suggereerde dat deepfakes de politieke integriteit bedreigen.
In de beschuldigingen wordt gesteld dat de verklaring van Hancock een verwijzing bevatte naar een neponderzoek met de titel ‘De invloed van deepfake-video’s op politieke attitudes en gedrag’, waarvan het juridische team van de aanklager beweert dat deze niet voorkomt in het tijdschrift waarin het naar verluidt is gepubliceerd. Ze beweren dat dit citaat waarschijnlijk een creatie is van een AI-taalmodel, waardoor mogelijk de geloofwaardigheid van zijn hele verklaring wordt ondermijnd.
De advocaten van de aanklager merkten op dat het citaat in geen enkele academische database voorkomt, wat aanzienlijke vragen oproept over de authenticiteit ervan. Zij geconcludeerd:
“De verklaring van prof. Hancock moet in zijn geheel worden uitgesloten omdat ten minste een deel ervan gebaseerd is op verzonnen materiaal dat waarschijnlijk door een AI-model is gegenereerd”.
De rol van AI in dit rechtszaaldrama
De implicaties van deze beschuldigingen reiken verder dan deze zaak. Ze betwisten de betrouwbaarheid van door AI gegenereerde inhoud binnen juridische contexten, een zorg die aansluit bij recente gebeurtenissen waarbij advocaten werden geconfronteerd met sancties voor het gebruik van verzonnen citaten in juridische documenten. De rechtszaak onderstreept dat de waarheidsgetrouwheid van getuigenissen van deskundigen ernstig kan worden beïnvloed door het potentieel van AI om onnauwkeurigheden te produceren, vaak aangeduid als “hallucinaties.”
Hancock heeft een goed gedocumenteerde achtergrond op het gebied van desinformatiestudies, heeft aanzienlijk onderzoek op dit gebied bijgedragen en populaire openbare lezingen over dit onderwerp geproduceerd. Toch heeft hij nog niet publiekelijk gereageerd op de beweringen tegen zijn getuigenis.
De virale deepfake van Kamala Harris en de implicaties ervan
Onderzoek naar de geldigheid van de verklaringen die in deze rechtszaak worden gebruikt, is aan de gang, wat aanleiding geeft tot bezorgdheid over toekomstige toepassingen van getuigenissen van deskundigen die zijn beïnvloed door door AI gegenereerde gegevens.
De deepfake-wetgeving van Minnesota, die momenteel onder de loep wordt genomen, heeft tot doel juridische beperkingen op te leggen aan de verspreiding en creatie van deepfakes rond verkiezingsperioden. Tegenstanders van het wetsvoorstel beweren dat het wettelijke kader inbreuk zou kunnen maken op de grondwettelijke rechten van vrije meningsuiting, wat aanleiding geeft tot bezorgdheid over censuur en de implicaties voor digitale expressie. Naarmate deze zaak zich verder ontwikkelt, wordt verdere analyse verwacht met betrekking tot het snijvlak van technologie, wettelijke normen en vrijheid van meningsuiting.
Het valt nog te bezien hoe de rechtbank zal reageren op de beschuldigingen rond de getuigenis van Hancock en of dit een precedent zal scheppen voor de manier waarop door AI gegenereerde inhoud wordt behandeld in juridische procedures. De juridische gemeenschap houdt deze zaak nauwlettend in de gaten vanwege de implicaties ervan voor komende wetgeving met betrekking tot digitale inhoud en desinformatie in politieke contexten.
Uitgelicht beeldtegoed: rorozoa/Freepik