Google gaat javascript-cloaking tegen
Als we Matt’s hints goed begrijpen is het ze nu toch is gelukt iets in het algoritme te bouwen wat ‘sneaky JavaScripts’ detecteert. Een mogelijkheid om dit te doen is browsergedrag door de GoogleBot simuleren, of javscripts scannen op veelgebruikte "cloaking functies" die te maken hebben met de top.location en het laden van HTML content andere urls over de door Google geindexeerde pagina heen. De laatste methode werd veelvuldig toegepast door onder meer Checkit en Tribal, die onlangs nog voor het toepassen van zoekmachine spam penalties ontvingen door Google en werden geroyeerd door branchevereniging IAB.
In fact, I’ll issue a small weather report: I would not recommend using sneaky JavaScript redirects. Your domains might get rained on in the near future.
Nu is het de vraag wat er zal gebeuren. Enkele jaren geleden kon je nog eenvoudig goed scoren met ip- of useragent-cloaking. Google bedacht een oplossing. En toen kwam het JavaScript-cloaking op. De ervaring leert dat er wel weer een nieuw trucje zal worden gevonden, al wordt dat wel steeds lastiger.
Bron: Marketingfacts.