Search Engine Strategies New York Update II

Een verslag van een wederom enerverende dag tijdens de Search Engine Strategies 2007 in New York, bakermat van alles wat naar marketing riekt. Een dag waar ik gezien de onderwerpen, waaronder "converting visitors into buyers" en "RSS & blogs for SEO", naar uit zag.

Sessie I – Sitemaps & URL submission
Tijdens deze sessie spraken diverse verantwoordelijken van de zoekmachines Yahoo, Google, Live.com en ASK.com over de voordelen van sitemaps. Centraal stond de vraag hoe search engine sitemaps, zoals Google Sitemaps, kunnen helpen bij het snel crawlen en indexeren van websites.

Sitemaps.org
De zoekmachines Google, Yahoo en Live.com hebben zich al enige tijd verenigd in Sitemaps.org: een initiatief dat search engine sitemaps heeft standaardiseerd. ASK.com kondigde aan zich te hebben aangesloten bij dit initiatief. Belangrijk nieuws voor de VS, maar vooralsnog van weinig toegevoegde waarde voor de Nederlandse markt.

Robots.txt voor snelle indexatie
Wat wel interessant was, was de aankondiging van ondersteuning van de robots.txt file m.b.t. sitemaps functionaliteit. Een probleem van sitemaps tot vandaag was het feit dat nieuwe content handmatig of middels een HTML ping bij de diverse zoekmachines bekend moest worden gemaakt. Een vrij tijdrovende klus, omdat handmatige aanmelding idealiter bij alle drie de zoekmachines moest gebeuren. De bij Sitemaps.org aangesloten zoekmachines gaan echter de robots.txt file gebruiken als pointer naar een sitemap bestand. Op die manier weten crawlers altijd exact waar de sitemap file zich bevindt.

Sitemap in txt, XML of RSS/Atomz
Het format dat moet worden gebruikt in de robots.txt file als verwijzing naar de sitemap is 'Sitemap: http://www.domeinnaam.nl/sitemap.extentie'. De sitemap mag in de standaard txt, XML of RSS/Atomz formats zijn opgemaakt. Live.com ondersteunt de robots.txt nog niet waar het de sitemaps functie betreft, maar zal dat later dit jaar wel doen.

Yahoo Site Explorer
Andere nieuwtjes waren de nieuwe features in Yahoo's Site Explorer: de tegenhanger van Google's webmaster Central. Zo kan men bij Yahoo tegenwoordig handmatig bepalen welke urls uit de index van Yahoo dienen te worden geweerd. Door dit in Yahoo Site Explorer aan te geven worden urls of complete web paths sneller verwijderd dan wanneer dit via een standaard robots.txt file zou worden gedaan. Ook kan Site Explorer worden gebruikt om snel een SPAM report in te dienen. Als een inlink/backlink website vermoedelijk tot een link farm of anderssoortige spam site behoort, is dit met 1 klik bij Yahoo kenbaar te maken.

Yahoo Submit Pro
Min of meer 'off-topic', maar wel interessant, volgde een presentatie over Yahoo Submit Pro. Een paid inclusion programma van Yahoo waarbij de gesponsorde koppeling als regulier zoekresultaat in de organische zoekresultaten wordt getoond. De voordelen zijn legio: men betaalt een vaste fee per click (CPC) en staat met een meer opvallend, organisch uitziend resultaat in de niet-gesponsorde zoekresultaten.

Anders dan bij Google Adwords of Yahoo Search Marketing is het CPC-tarief fixed, en dus niet veiling-gebaseerd. Hierdoor is niet alleen meer traffic te genereren via de 'organische resultaten' (een 7 op 1 verhouding qua clicks, organisch versus gesponsord), maar bovendien voordeliger. De kosten per klik bedragen gemiddeld maximaal 30% van de CPC kosten bij Adwords en vergelijkbare programma's. Een ander verschil is dat het adverteren niet keyword-gebaseerd is, maar branchegebonden.

Sitemaps inzetten bij nieuwe urls
Ter afsluiting werd aandacht besteed aan de manier waarop sitemaps ingezet kunnen worden bij grote wijzigingen in de url structuur van sites. Wanneer er een compleet nieuwe website wordt gelanceerd wijzigen dikwijls de urls van de desbetreffende sites. Middels 301 redirects wordt zoekmachines verteld welke nieuwe urls de oude hebben vervangen. Wanneer we vertrouwen op normale crawlers kan het weken zo niet maanden duren voordat zoekmachines alle oude urls permanent hebben vervangen voor de nieuwe. Middels search engine sitemaps kan dit proces enigszins worden versneld.

Stappenplan
Men dient eerst een search engine sitemap in bjvoorbeeld XML te maken van de oude site. Tegelijkertijd dient een sitemap van de nieuwe site te worden gemaakt. Vervolgens zet men de nieuwe website online met de oude search engine sitemap. Het gevolg is dat zoekmachines binnen ca. 2 tot 7 dagen alle oude urls zullen bezoeken die middels een 301 redirecten naar de nieuwe urls. Hierdoor wordt het indexatieproces sterk versnelt. Zodra vervolgens de oude urls allemaal uit de zoekmachines zijn verdwenen, worden de nieuwe urls in de nieuwe XML sitemap aangeboden. Een aardige tip die we gezien de lancering van onze eigen nieuwe site direct in de praktijk kunnen brengen.

Sessie II – Converting visitors into buyers
In deze sessie stond het conversie-optimalisatie centraal. Tot de sprekers behoorde onder andere Brian Eisenberg, Chief Persuasion Officer van FutureNow Inc. en auteur voor onder andere Conversion University van Google (http://www.google.com/analytics/conversionuniversity.html). Eisenberg schreef meerdere goede boeken over het optimaliseren van conversies waaronder "Waiting for your cat to bark" en "Call to Action", twee persoonlijke favorieten.

De kleinste zaken beïnvloeden conversie
In de vele parktijkvoorbeelden die de revue passeerden werd duidelijk dat zelfs de meest kleine wijzigingen aan website elementen tot tientallen procenten verschil in coversie kunnen leiden. Van 'platte' productafbeeldingen tot afbeeldingen die een bepaalde emotie uitdragen, kleine tekstuele wijzigingen m.b.t. "niet goed geld terug garanties" en uiteraard de tone of voice van tekst: alles is van invloed op conversie. Tips waren onder andere het benchmarken van concurrenten. Wat zijn de best practices in de markt en wat maakt hen succesvol?

Intenties centraal
De rode draad in de presentaties werd echter wederom gevormd door de intentie van de gebruiker c.q. bezoeker. De door Eisenberg ontwikkelde methode stelt dat verschillende bezoekers met verschillende achtergronden en ervaring met verschillende intenties een site bezoeken. Bij deze verschillende intenties hoort telkens een bepaalde fase in het informatievergarings- of koopproces. Hierdoor is ook telkens andere (volgorde van) content en gewenste Actie X als conversiedoel van toepassing. Kan elke bezoeker uit de doelgroep zijn of haar weg vinden naar het gewenste conversiedoel op de website?

Scenario testing
Om dit te testen suggereerde Eisenberg scenario testing: het testen van intensiegerichtheid i.p.v. conversiegerichtheid, aan de hand van verschillende denkbeeldige klanten. Elk met hun eigen karakter, kennis en ervaring. Zo kunnen we voor onze eigen website denken aan Stephan de eBusiness Manager van een e-commerce onderneming, Robbert de Marketing Manager van een meer traditionele organisatie, Stan de ICT Manager tot Maurits, directeur van een kleine onderneming. Deze personen kennen verschillen in kennis, ervaring, informatiebehoefte en dus intentie. Toch moeten elk van deze klanten zich kunnen vinden in de content die wordt aangeboden. Welke intenties kennen de bezoekers uit uw doelgroep? En in hoeverre speelt uw content hierop in?

Extern conversie-optimalisatie advies
Eisenberg stelde – terecht – dat het voor iemand die betrokken is geweest bij de ontwikkeling van een website erg moeilijk is om zonder externe hulp de belangrijkste struikelblokken bloot te leggen. Het is dan immers moeilijk zo niet onmogelijk om de website door de bril van uw doelgroep te bekijken. Organisaties doen er dan ook goed aan dit onderdeel buiten de eigen organisatie te beleggen en verschillende scenario's te testen: de site vanuit verschillende, doelgroepgerichte perspectieven te bekijken. Business to business ondernemingen kennen hierbij een extra uitdaging: zij dienen zich eerst te realiseren dat een doelgroep bestaat uit personen in bepaalde functies, niet uit bedrijven.

In een van de komende artikelen op onze site gaan we dieper in op conversie-optimalisatie aan de hand van scenario testing.

Sessie III – SEO Through Blogs and Feeds
Tijdens deze sessie stonden blogs en RSS feeds als ondersteuning bij zoekmachine-optimalisatie centraal. Een interessante sessie gezien het feit dat blogs en RSS zeker in Nederland nog nauwelijks worden benut als SEO instrument. De meest interessante spreker was Stephan Spencer van Netconcepts.

Do's & don'ts van RSS m.b.t. 'Search'
In de presentatie werd ingegaan op het nut en met name de do's en don'ts van RSS feeds als zoekmachine-optimalisatie instrument. Overall wordt het gebruik van RSS feeds, mits goed ingezet, sterk aangeraden. Enkele tips die gegeven werden:

  • Toon de volledige tekst van artikelen in RSS feeds, niet slechts samenvattingen. In het kader van duplicate content filters van o.a. Google kan men hier vraagtekens bij zetten;
  • Toon 20 of meer content items (hoe meer hoe beter);
  • Gebruik meerdere feeds, bijvoorbeeld 1 feed per content categorie;
  • Gebruik keyword-rijke HTML titels (<title> tags);
  • Gebruik de merk- of bedrijfsnaam in de <title> voor branding doeleinden;
  • Laat het meest belangrijke keyword terugkomen in de site <title> tag;
  • Gebruik een aantrekkelijke site-omschrijving;
  • Maak géén gebruik van tracking urls door variabelen/parameters aan urls toe te voegen in RSS feeds;
  • Maak gebruik van RSS feeds die zijn voorzien van ingeviegde bestanden als podcasts of videocasts omdat deze in meer specifieke RSS zoekmachines en directories terecht kunnen komen.

Zoekmachine-optimalisatie & blogs
Ook blogs kunnen succesvol worden ingezet voor zoekmachine-optimalisatie. Onlangs schreven we hier nog een artikel over genaamd "Zoekmachine-optimalisatie & PR" in het kader van Search Engine Reputation Management. In deze sessie lag de focus meer op blogs als instrument om links te genereren.

Blogs inzetten voor lin building
In de paktijkcase die werd voorgelegd werd een aantal blogs opgezet en bestaande blogs aangeschreven met artikelen over een specifiek onderwerp. In deze artikelen waren de keywords verwerkt waarvan was vastgesteld dat de doelgroep ze als zoekopdracht gebruikte. Een selecte groep bloggers in hetzelfde of aanverwante vakgebieden werden regelmatig op de hoogte gebracht van posts en artikelen op de nieuwe blogs. Het effect: binnen enkele maanden verveelvoudigde het aantal blogposts op blogs van derden. Bloggers namen artikelen geheel of gedeeltelijk over en linkten daarbij naar de bron, met een stijgende linkpopulariteit tot gevolg. Dit leidde weer tot een toename van het aantal topposities in de zoekresultaten en dito relevante bezoekers.

Het inzetten van RSS feeds en blogs ten gunste van zoekmachine-optimalisatie is in Nederland nog redelijk onontgonnen gebied. Reden des te meer om er binnenkort een artikel met praktijkvoorbeelden aan te wijden. Hou de site dus in de gaten voor nieuwe artikelen in de Kennisbank.

Sessie IV – Advanced Site Architecture
De vierde en laatste sessie van de dag was inhoudelijk enigszins teleurstellend. Een tweetal sprekers tipte voordehandliggende zaken aan als de meest logische interne linkstructuur met down, up en crosslinks, 301 redirects versus meta refresh tags, etc. Na anderhalf uur prijkte op het aantekeningenblok nog altijd slechts de titel van de sessie. We konden dan ook niet wachten op de netwerkborrel die om 18.00 zou volgde.

Afsluiting
Samen met de concullega's van Traffic4u sloten we de dag af met enkele welverdiende mixjes X-jus gesponsord door Webtrends en een gezellig etentje bij de Chinees. Morgen staat er wederom een aantal interessante sessies op het programma, waarover meer op dit blog. Voor nu (23:45 inmiddels): welterusten!