“Algoritmes zijn lang niet de enige boosdoener”

Ina Weber (UAntwerpen) zocht naar oorzaken en oplossingen voor bagger op sociale media

Online haatspraak tiert welig op sociale media, maar welke digitale factoren werken dat giftig taalgebruik nu net in de hand? En – even belangrijk – wat kunnen we er tegen doen? Ina Weber (UAntwerpen) legde de vragen voor aan een groep van 28 experts. “Veel van hen leggen de verantwoordelijkheid voornamelijk bij de platformen zelf.”

De deskundigen die deelnamen aan het onderzoek hadden uiteenlopende achtergronden. Volgens doctoraatsonderzoekster Ina Weber, verbonden aan het Departement Communicatiewetenschappen, ligt net daarin de grote meerwaarde van de studie.

Weber: “Op die manier was het mogelijk om kennis over online haatspraak vanuit verschillende wetenschappelijke disciplines te bundelen. Daarbij betrokken we niet alleen onderzoekers uit onder meer de rechtsgeleerdheid, criminologie of communicatiewetenschappen, maar ook mensen die ‘in het veld’ zelf staan. Het ging dan voornamelijk over deskundigen die werken voor non-profitorganisaties. Een van de bevraagden was bijvoorbeeld een voormalig politieambtenaar die tegenwoordig werkt als deradicaliseringsexpert.”

De schuld van het algoritme

Welke risicofactoren dragen volgens jou het meest bij aan online haatspraak op sociale media?’, luidde de eerste vraag van de onderzoekster. Weber: “Ik concentreerde me voor dit onderzoek enkel op de digitale factoren. Daaronder valt alles wat te maken heeft met de functies (delen, liken, reageren, ...), de structuur (de technologische infrastructuur, de economische belangen van het bedrijf, …) en de gebruikersactiviteit (groepen vormen, content uploaden, …) op sociale media.

”In hun antwoorden neigden veel experts naar redenen waarbij socialemediaplatformen de belangrijkste risicofactoren zelf in de hand hadden. Zo kwam uit de resultaten naar voren dat gepersonaliseerde algoritmes een belangrijke rol spelen bij het aanwakkeren van haatspraak op sociale media. Ook de complottheorieën en polariserende boodschappen die er circuleren, werden door deskundigen als zwaarwegende redenen aangeduid. Net zoals het gebrek aan (degelijke) moderatie van die haatdragende inhoud. 

“Deze inzichten bieden ons waardevolle informatie”, vertelt Weber. “Maar we mogen ons er ook niet op blindstaren. Wie enkel met de vinger wijst naar de algoritmes vergeet dat we dit probleem vanuit verschillende hoeken moeten aanpakken.”

Konijnenpijp

Na het vaststellen van de problemen bevroeg Weber de experts ook over de ideale oplossingen. Daarvoor hanteerde ze drie toetsstenen: de wenselijkheid van de gebruikers, de technologische haalbaarheid van de technologie en de economische leefbaarheid voor de bedrijven.

Weber: “Veel van de antwoorden die deskundigen naar voren schoven, waren uiteraard het spiegelbeeld van de problemen die ze hadden herkend. Zo werd vaak aangehaald dat de algoritmes ook gebruikt kunnen worden om een alternatieve blik aan te reiken aan de gebruikers. Het promoten van positieve boodschappen en tegengeluiden kan helpen om de verzuurde sfeer enigszins te neutraliseren. Zo beletten we dat mensen wegglijden in een konijnenpijp van complottheorieën en giftig ideeën.

”Een andere oplossing waarin de deskundigen sterk geloofden, was het beter modereren van online haatspraak. Al beklemtoonden ze ook dat het daarom nog geen vrijgeleide mag zijn om controversiële posts zonder meer te verwijderen. “Sociale media draait rond zelfexpressie”, verduidelijkt Weber. “Het gevaar bestaat dat mensen moderatie als censuur aanvoelen. Als een platform een post verwijdert, moet die daarvoor ook een geldige reden hebben en die kenbaar maken. Zo doorbreek je de perceptie dat de gebruiker in kwestie wordt gemuilkorfd en bedaar je de gemoederen.“

ChatGPT

Opmerkelijk was ook hoe de oordelen van de experts een gestolde weergave waren van de bestaande technologische kennis op dat moment. Weber: “Zo werd het idee om taalsoftware in te zetten om tegenargumenten te verzinnen voor haatdragende posts als een oplossing gezien die op grote schaal niet werkbaar was”, vertelt Weber. “Een van de experts, een professor in de computerwetenschappen, wees op het feit dat voor zoiets gevoeligs als haatspraak een chatbot onder menselijk toezicht moest staan om accuraat te zijn.” 

“Maanden later zie je dat ChatGPT plots vriend en vijand verrast met de teksten waarmee het op de proppen komt. Op korte tijd staan we dus een stap dichter bij een vorm van artificiële intelligentie die wel een volwaardig tegenverhaal kan voortbrengen dat grootschalig kan worden ingezet. We moeten er ons daarom van bewust zijn dat dit onderzoek een momentopname is van een prangende problematiek die steeds in beweging is.”