Terug naar Blogs
Blog Img

AI krachtig wapen in de strijd tegen fake news

Sinds de Amerikaanse presidentsverkiezingen in 2016 is fake news een groeiend probleem. Er gaan verschillende geruchten in de rondte die suggereren dat nepartikelen het stemgedrag van de bevolking heeft beïnvloed. Of het stemgedrag ook daadwerkelijk is beïnvloed tijdens deze verkiezing is interessant, maar niet waar we het in dit blog over willen hebben. De opmars van fake news is namelijk (of het nu mensen heeft beïnvloed of niet) een negatieve ontwikkeling waarbij AI zowel onderdeel van het probleem als de eventuele oplossing is. 

De rol van AI in het creëren van fake news

Artificial Intelligence wordt onder andere gebruikt voor het maken van zeer realistische video´s van publieke figuren. Door de AI-software verschillende video- en audiofragmenten te voeren, kan deze software nieuwe media produceren waarin de bestudeerde persoon zegt wat jij wil dat hij of zij zegt. Deze technologie is bekend onder de naam deep fake technology en laat ons zien dat we niet alles wat we zien en/of horen online zomaar als waarheid aan kunnen nemen. De Defence Advanced Research Projects Agency (DARPA), een onderdeel van de Amerikaanse veiligheidsdiensten, stelt dat zelfs mensen met relatief weinig programmeerkennis met de bestaande software overtuigende nepvideo’s kunnen produceren.

 

Ook zijn onderzoekers bezig met het maken van AI-software die zonder enige moeite artikelen kan schrijven zonder dat menselijke nacontrole nodig is. Op dit moment is dergelijke software nog niet geavanceerd genoeg om deze artikelen op te leveren, maar het is een interessante ontwikkeling op het gebied van AI en de invloed van AI op fake news. Want wanneer video´s en artikelen niet meer zomaar voor waarheid aangenomen kunnen worden en met een simpele druk op de knop geproduceerd kunnen worden, wordt het steeds lastiger om fake news te herkennen. Denk hierbij aan verschillende (al dan niet AI gegenereerde) nepartikelen van verschillende nieuwsbronnen die ook nog eens ondersteund worden door een fake video. Veel mensen zijn niet eens op de hoogte van de mogelijkheden van AI, dus dit soort nieuws kan dan zomaar als waar worden aangenomen door de massa.

AI in de strijd tegen fake news

Gelukkig heeft AI niet alleen een creërende rol als het om nepnieuws gaat, het kan er ook voor zorgen dat we dit nieuws sneller als fake  herkennen. Door Natural Language Processing en Machine Learning kan de echtheid van nieuwsberichten getoetst worden.

Om dit mogelijk te maken moet de software eerst leren wat echte nieuwsberichten zijn. Hier zitten wel wat haken en ogen aan verbonden. Hoe succesvol de software is in het herkennen van fake news is namelijk direct verbonden aan het leermateriaal. Dit is wat onderzoekers ook wel het black box probleem noemen. Wanneer de software getraind is in een bepaald onderwerp, zoals bijvoorbeeld het klimaatprobleem, is het goed in staat om de echte berichten van nepnieuws te onderscheiden. Ditzelfde kan helaas niet gezegd worden over onderwerpen waar de software niet uitgebreid in getraind is. Omdat nieuws niet altijd te voorspellen is, is het niet realistisch om te verwachten dat de software voor alle onderwerpen echt nieuws van fake news kan onderscheiden. Daarnaast is ook het bronmateriaal belangrijk. Stel je voor dat de software veel artikelen van de New York Times en CNN te zien krijgt als trainingsmateriaal, dan kan het een voorkeur ontwikkelen voor de schrijfstijl van deze twee bronnen. Hierdoor kan echt nieuws dat bijvoorbeeld een heel andere schrijfstijl of andere bron heeft, door de software sneller beoordeeld worden als nepnieuws.

Met deze informatie als uitgangspunt, ontdekten MIT-onderzoekers een interessant verschil in het succes van de software. Wanneer het om artikelen ging over bijvoorbeeld “Trump”of “Clinton” werd de echtheid van de artikelen in 93% van de gevallen goed voorspeld. Wanneer artikelen deze woorden niet bevatten ging de accuraatheid van de software omlaag met 6%. Dit was voor een groot deel te wijten aan het trainingsproces. Omdat er zoveel echte nieuwsberichten en fake news over de presidentsverkiezingen zijn, heeft de software een grote dataset om van te leren. Wanneer het over ander nieuws gaat, wordt het herkennen van taalpatronen bij nepnieuws lastiger. En dit gebeurt dus al wanneer een enkel woord ontbreekt. Hierdoor stellen de onderzoekers dat het op dit moment nog niet mogelijk is om doormiddel van software nepnieuws compleet uit onze feeds te filteren. Wel kan de software een waarschuwing afgeven bij nieuwsberichten waarvan de echtheid in twijfel wordt getrokken.

De software is nog niet perfect, maar wel beter dan het menselijk oog

Ondanks dat de software zeker met imperfecties komt, is het nog altijd beter in het herkennen van fake news dan het menselijk oog. Harvard University and MIT-IBM Watson AI Lab onderzoekers hebben recentelijk een tool ontwikkelt die teksten kan toetsen. De Giant Language model Test Room (GLTR) maakt gebruik van de voorspelbaarheid van taal en veel voorkomende taalpatronen om de echtheid van een tekst te evalueren. In de testfase kwam naar voren dat mensen zelf, zonder hulp van de software, in de helft van de gevallen nepnieuws wisten te spotten. Wanneer de software werd gebruikt, ging dit aantal omhoog naar 72%. Dit toont aan dat zelfs met de imperfecties die de software op dit moment heeft, het toch een zeer krachtig wapen is in de strijd tegen fake news.

P.s. zelf de GLTR eens uitproberen? Dat kan hier.