Van fact-checking tot argument-checking
Nieuwsverslaggeving lijkt steeds meer op een vorm van oorlog: feiten worden gepareerd met ‘alternatieve feiten’, fake news bestookt voortdurend de mainstream media, en men spreekt zelfs van ‘informatieoorlog’ of ‘informatieterreur’. Kunnen we aan de taal van journalisten en mediaorganisaties nog aflezen of het klopt wat ze zeggen, of is dat onmogelijk geworden? En wat kunnen we doen om de situatie te verbeteren? Vier experts op het gebied van het bestrijden van desinformatie gaan hierover met elkaar in gesprek.
José Plug (Universiteit van Amsterdam) bespreekt haar onderzoek naar de voor- en nadelen van fact-checking; Ruben Brave (Internet Society NL en Make Media Great Again) licht toe hoe annotatoren de kwaliteit van nieuwsmedia kunnen verbeteren; Federica Russo en Jean Wagemans (Universiteit van Amsterdam) leggen uit hoe AI kan worden ingezet bij argument-checking. De moderatie is in handen van Ella van Vloten (student BSc Cognition, Language, and Communication aan de Universiteit van Amsterdam).
Over de sprekers
José Plug is onderzoeker en docent bij de capaciteitsgroep Taalbeheersing, argumentatietheorie en retorica aan de Universiteit van Amsterdam. Zij is gepromoveerd op een proefschrift over complexe argumentatie in rechterlijke uitspraken (2000). Plug geeft onderwijs in onder andere wetenschapscommunicatie en communicatie en argumentatie in institutionele contexten. Haar onderzoek is gericht op juridische, politieke en visuele argumentatie. Ze is betrokken bij het onderzoeksproject Resistance to Metaphor en is co-organisator van een reeks internationale congressen over juridische argumentatie. Met Jean Wagemans schreef zij From fact-checking to rhetoric-checking (2020).
Federica Russo is wetenschapsfilosoof aan de Universiteit van Amsterdam (Wijsbegeerte, ILLC). Haar onderzoek focust zich op epistemologische, methodologische en normatieve aspecten van de biomedische en sociale wetenschappen in hoog-technologische contexten. Russo is momenteel co-editor van het European Journal for Philosophy of Science en uitvoerend redacteur van Philosophy and Technology. Met Ruben Brave en Jean Wagemans schreef zij Argument-Checking: A Critical Pedagogy Approach to Digital Literacy (2022).
Ella van Vloten is BSc student Cognition, Language and Communication aan de Universiteit van Amsterdam. In haar bachelorscriptie focust ze zich op politieke ‘negative campaigning’ en de effecten daarvan op perceptie en stem-intentie. Momenteel volgt ze de minor European Politics and Global Change en heeft ze de track Communication Science afgerond. Afgelopen jaar is Ella voorzitter geweest van Studievereniging SCIO. Als medewerker wetenschapscommunicatie van de onderzoeksgroep LANCAR is ze verantwoordelijk voor LANCAR’s sociale mediakanalen en communicatieactiviteiten.
Ruben Brave, de initiatiefnemer van Make Media Great Again, is een Nederlandse internetpionier. Hij is een mediaprofessional, meervoudig tech-ondernemer en CEO van academische bedrijfsincubator Entelligence om universitaire startups te kick-starten. Tevens voorzitter van Internet Society Nederland en bestuurslid bij diverse impactvolle tech- of mediagerelateerde organisaties, zoals de Sociaal Economische Raad (SER Diversiteit in Bedrijf), het Fonds Cultuurparticipatie, Open State, TechMeUp, de Nederlandse Boekengids en verschillende onafhankelijke belangenorganisaties voor startups. Recentelijk was Ruben jurylid bij de Amsterdam Science and Innovation Award.
Jean Wagemans is voorzitter van de Capaciteitsgroep Taalbeheersing, argumentatietheorie en retorica van de Universiteit van Amsterdam en coördinator van de ACLC onderzoeksgroep Language and Cognition in Argumentation (LANCAR). In zijn onderzoek richt hij zich vooral op het beschrijven van de uiteenlopende manieren waarop mensen elkaar proberen te overtuigen. Wagemans is de bedenker van het Periodiek Systeem der Argumenten, een systematisering van de traditionele filosofische en retorische overzichten van argumenten en overtuigingstechnieken met toepassingen in de formele linguïstiek, explainable artificial intelligence (XAI) en Argument-Checking.