De algoritmen van zoekmachines zijn zo ingesteld dat de bovenste zoekresultaten altijd relevant én inhoudelijk van elkaar verschillend zijn. Dat laatste voorkomt dat de internetgebruiker een lijstje resultaten met identieke content voorgeschoteld krijgt en teleurgesteld raakt.
Zoekmachines doen dus aan duplicate content filtering. Dat heeft gevolgen voor webwinkeliers die content zoals redactionele reviews of productbeschrijvingen verstrekken aan affiliates. Het kan namelijk zo zijn dat een affiliate, die de content slechts kopieert, daarmee beter scoort in zoekmachines dan de bron. De gedachte dat wie het eerst komt, het eerst maalt doet geen opgeld. Ook andere criteria, zoals de autoriteit van de zender, spelen een rol.
Op Getelastic.com vindt u een helder artikel van Linda Bustos, waarin ze uitlegt wat duplicate content filtering is en welke gevolgen dit kan hebben voor webwinkeliers die werken met affiliates. Bustos rijkt ook oplossingen aan.
enne, http://twinkle.ektroncms.nl/index.asp is zeker GEEN duplicate content?
:-)
Dat is het zeker wél. Helaas, want dat is nog de (oude) testomgeving die door Google is geïndexeerd. Ik vind het zelf nog al irritant dat dei steeds opduikt. Google zou 'ns wat strenger meten zijn! ;-)
Och,
Misschien kan je ook ff zelf een handje helpen? door het subdomein te redirecten?
't is zeker geen fout van google...
Waaruit maar weer blijkt dat ik er weinig verstand van heb. Ik heb het doorgegeven aan degene die daar meer verstand van zou moeten hebben ;-)