In de categorie ‘dilemma’s voor de communicatieprofessional’ heb ik er hier weer een: voor wie schrijven we nu eigenlijk? Voor mensen of voor robots?

De robotisering heeft grote impact op de arbeidsmarkt. Daarover is al heel veel gezegd en geschreven. De ene na de andere beroepsgroep moet het afleggen tegen de robot. En ook in de communicatiesector zien we de robot steeds meer terrein winnen. Denk bijvoorbeeld aan de ‘chatbot’ (is babbelbot eigenlijk niet een veel mooier woord?) voor serviceafdelingen.

Of de Twitbot om lekker te trollen op Twitter. Of de talloze bots die elk commentaar-veldje op websites en fora onveilig maken met hun Viagra-aanbiedingen. En dan is er nog Google Translate die al aardig op weg is om de bulk van ons vertaalwerk over te nemen. De banen van veel communicatiemensen zijn dus zeker niet veilig.

De lezer is ook maar een robot
Maar sluipenderwijs hebben we ook te maken met een heel andere mensvervanging door robots: die van onze lezers. Want als je online communiceert, voor wie schrijf je dan? Is het voor je lezers? Of is het voor de zoekmachine? Steeds vaker word je als schrijver geacht je teksten voor SEO te optimaliseren. Ofwel je teksten voor een belangrijk deel af te stemmen op robots.

Gatekeeper
Je belangrijkste lezer is dan de robot. De zoekmachine-robot als gatekeeper naar je lezer.

In de pr waren we al gewend aan het werken met gatekeepers. Dat waren de redacties en journalisten. Toen was de kunst om je berichten en teksten zo te schrijven dat enerzijds de journalist voldoende geïnteresseerd raakte om er iets mee te doen, en anderzijds je tekst zo op te bouwen dat het de redacteur zo makkelijk mogelijk werd gemaakt om het zo lezenswaardig mogelijk te presenteren aan de lezers. De mens achter de gatekeeper was daarmee nog steeds sterk in beeld.


Fotocredit: 

Rechtstreeks naar je lezers
Met het internet kon je dan eindelijk rechtstreeks met al je lezers gaan communiceren. Zo was het idee. Maar inmiddels staan er – zeker voor organisaties – alweer diverse gatekeepers tussen. Vaak zijn het algoritmen, zoals die van Facebook, die bepaalt wie van je volgers of vrienden al dan niet iets voorgeschoteld krijgen. Of de algoritmen van de zoekmachines. En zulke algoritmen blijken toch vaak andere ideeën te hebben over wat leuk en lezenswaardig is dan wat je als mens zou verwachten. Als je een tekst echt helemaal optimaliseert voor SEO wordt hij er niet leuker op.

Ik ben geen SEO-expert, dus zal hier ongetwijfeld te kort door de bocht gaan. Maar zaken als het in je tekst meerdere malen terug laten komen van de gewenste sleutelwoorden, maakt veel teksten wat drammerig. Ook het vullen van koppen en tussenkoppen op dergelijke woorden maken teksten zelden leuker. Evenmin als het toevoegen van voorgekookte hyperlinks. En met het streven naar bepaalde minimale tekstlengtes worden veel blogteksten nodeloos lang. Je vindbaarheid gaat met sprongen omhoog, maar je leesbaarheid en de amusementswaarde of argumentatiewaarde zakt navenant.

Ik heb al menigmaal een ironische, cryptische, prikkelende of metaforische kop zien sneuvelen omdat ‘het niet direct duidelijk was waar het verhaal over ging’…

Clickbait
Het resultaat? Robots vinden je verhaal razend interessant, maar echte lezers maar matig. Als je kopregel zelf niet heel interessant meer is, wat doe je dan nog om echte mensen te trekken? Jawel: clickbait. Je zorgt dat op social media en in banners een veel aantrekkelijker, intrigerender of uitdagender kop komt dan die boven het artikel. Zo sterk zelfs dat zulke links dan vaak überhaupt de lading van het stuk niet meer dekken. Ook weer irritant.

Buitenspel
Het is dus zover. De robot heeft de lezer vervangen.
Dus voor wie schrijven we nog als we ons in onze KPI’s laten afrekenen op teksten die ‘hoog eindigen in Google en die kliks en leads genereren’?

Als we ons dus te veel toeleggen op SEO-communicatie zetten we ons zelf, als communicatiemensen, versneld buitenspel. Want als SEO-geoptimaliseerd je doel is – anders dan op basis van emoties en argumenten iemand interesseren, boeien of overtuigen – dan is het logisch dat meer en meer social media posts, en zelfs hele artikelen en blogposts op basis van algoritmen door robots gemaakt gaan worden.
Ze zullen ongetwijfeld hoog scoren op Google.

Misschien zou het goed zijn als de robots zich dan op een eigen deel van het internet lekker met elkaar  kunnen uitleven. Kunnen wij dan weer in leuke, aantrekkelijke, leesbare teksten met elkaar gaan communiceren?

Deze blog verscheen ook op Communicatieonline.nl