Hoe ook Google de verspreiding van desinformatie in de hand werkt

Typ de eerste letters van een zoekterm op Google in en de populairste zoekmachine ter wereld vult de term aan met vier suggesties. Dat kan leiden tot geestige, ja zelfs poëtische suggesties. Maar hoe hilarisch ook, Google lijkt – na wat veldwerk van The Observer – opvallend vaak de voorkeur te geven aan extreemrechtse onderwerpen.

Deze functie, autocomplete, komt niet zomaar tot stand. Er zit een algoritme achter. Simpel gezegd: een term wordt pas in de suggesties geplaatst als daarop veelvuldig gezocht is. En de resultaten zijn opvallend. Wie bijvoorbeeld googelt op de term climate change is, krijgt als eerste twee aanvullingen ‘a hoax’ en ‘not real’, daarna komen pas twee termen die neutraal of bevestigend tegenover klimaatverandering staan. Dat betekent dus dat de eerste twee suggesties het vaakst opgevraagd of aangeklikt zijn.

Maar ook extreemrechtse, conservatieve of simpelweg onjuiste beweringen komen opvallend vaak als eerste suggestie naar voren. Zo wordt homoseksualiteit volgens Google als eerste geassocieerd met een zonde. En zo zijn er nog tig andere voorbeelden waar de zoekmachine de mist in gaat, en bovendien openlijk antisemitische of extreemrechtse websites als eerste in de resultatenlijst plaatst. Na het onderzoek van The Observer beloofde de zoekmachine beterschap, en verwijderde de beladen suggesties. google2Nu blijkt echter dat de autocomplete-functie nog steeds de nodige kuren vertoont. En die bevinding komt voor Google ongunstig, in een tijd waarin Facebook flink op de vingers getikt is vanwege het verspreiden van nepnieuws, met name tijdens de presidentscampagne van Donald Trump. Ook Facebook beloofde deze ontwikkeling tegen te gaan. ‘We hebben lang aan dit probleem gewerkt en we nemen onze verantwoordelijk serieus,” aldus oprichter Mark Zuckerberg.

Maar hoe komen deze negatieve, haatdragende en vaak feitelijk onjuiste suggesties bovenaan te staan? Een algoritme liegt niet, er moeten een significant aantal mensen op de betreffende term gezocht hebben. Dat is mogelijk, maar het is echter ook gevoelig voor manipulatie. Derden kunnen autocomplete makkelijk manipuleren aan de hand van, bijvoorbeeld, een programmaatje dat de zoekterm zo vaak mogelijk intoetst. En ook handmatig – er zullen wel wat mensen voor nodig zijn – valt er invloed uit te oefenen. Ook een sneeuwbaleffect is goed mogelijk. Zo is bewezen dat een negatieve suggestie vijf tot vijftien maal meer clicks oplevert dan een neutrale suggestie.

De invloed van Google’s zoeksuggesties en -resultaten valt niet te bagatelliseren, in een tijd waarin googelen synoniem is aan kennis opzoeken. Het American Institute for Behavioral Research and Technology deed vier jaar lang onderzoek naar de zoekalgoritmen van Google, en vond uit dat de aanvulsuggesties en eerste hits die een zoekterm oplevert, alle verschil kunnen maken voor zwevende kiezers. Zelfs de volgorde waarin deze termen gezet worden is daarbij van groot belang.

g

Google is machtig, en de vraag is hoe het bedrijf daarmee om zou moeten gaan. Algoritmes mogen dan automatisch werken, maar dit betekent niet dat er geen handmatige aanpassingen kunnen worden gedaan. In het verleden deed Google die al, met de all jews are evil-suggestie, en de zoekresultaten voor ‘zelfmoord’. Inmiddels vertoont Google als eerste resultaat een hulplijn.

Een woordvoerder van Google stelt: ‘We doen ons best om aanstootgevende termen te verwijderen, zoals porno en hate speech. Maar omdat zo’n vijftien procent van de zoektermen die ingevuld worden nieuw is, zitten we er ook wel eens naast. Maar we zoeken constant naar nieuwe manieren om onze algoritmen te verbeteren.’

De Redactie