3 Mitos sobre penalizações com conteúdo duplicado
Existem vários mitos sobre as penalizações de conteúdo duplicado. Vamos desmistificá-los.
As palavras “penalização por conteúdo duplicado” geram muito medo no coração dos marketers. Pessoas sem experiência de SEO estã constantemente a usar esta frase. A maioria nunca leu os guidelines de conteúdo duplicado do Google.
Assumem apenas que se algum conteúdo aparece duas vezes no meio online, asteróides e gafanhotos andam por aí. Vamos desmistificar alguns mitos sobre conteúdo duplicado
Mito 1: Conteúdo não original nos websites, afeta negativamente o ranking de todo o domínio
Não existe de facto, nenhuma evidência de que conteúdo não original, afeta negativamente o ranking do site, à exceção, claro, de casos extremos.
Por exemplo, se existirem centenas de casos de texto igual duplicado, se todo o conteúdo aparecer ao mesmo tempo, e se uma homepage for copiada na íntegra para um novo domínio, é óbvio que o site será sinalizado como spam.
Mas não é destes casos que as pessoas falam quando invocam a frase “conteúdo duplicado”. Normalmente, estão a falar de 1,000 palavras numa página de um site bem estabelecido.
É necessário bastante mais do que isto para que o Google faça as suas luzes vermelhas piscar.
Muitos sites, incluindo alguns dos blogs mais populares da Internet, frequentemente voltam a publicar artigos que apareceram noutros sítios. Claro que não esperam que este coteúdos lhes aumente a posição no ranking, mas também sabem que não irá afetar negativamente a credibilidade dos seus domínios. No entanto as boas práticas dizem que se deve referir a fonte atráves de um link para o texto original.
Mito 2: Os scrapers afetam negativamente o website
Alguns sites são scraped 10 vezes antes da hora do pequeno-almoço. Essa informação aparece nos seus relatórios trackback.
Estes sites não têm tempo para ter uma equipa em regime full-time a observar constantemente o GWT e a negar as ligações todo o dia. Não prestam atenção nenhuma aos scrapers porque sabem que não têm que temer este conteúdo duplicado.
Os scrapers não ajudam nem afetam os websites. Por exemplo, um pequeno blog na Ásia, sem qualquer conteúdo original ou visitantes, não é minimamente relevante para o Google.
Dica: Fazer um report dos scrapers que, no ranking, superam o site cujo conteúdo é o original
Estas situações são muito raras, mas no caso de o Google ficar confuso e a versão copiada ultrapassar a posição da versaão original no ranking, o Google quer estar a par. A solução é alertá-lo utilizando a ferramenta Scraper Report.
Dica: Assinar digitalmente o conteúdo original com o Google Authorship
Fazer com que a fotografia do administrador do site apareça nos resultados de pesquisa, não é a única razão para usar o Google Authorship. É uma forma de assinar o nome numa peça de conteúdo, associando permanentemente o autor ao conteúdo em questão.
Com o Authorship, por mais que o conteúdo seja scraped, cada peça de conteúdo fica ligada a um e a um só autor e aos blogs com os quais colabora.
Dica: Agir de forma drástica contra quem faz plágio de forma deliberada
Há uma grande diferença entre conteúdo scraped e violação de direitos de autor.
Por vezes uma companhia pode copiar um conteúdo (ou até um site inteiro) e reinvindicar os créditos pela sua criação.
O plágio é o ato de assinar e apresentar como seu conteúdo que pertence a outra pessoa, sem dar os devidos créditos ao autor original. É absolutamente ilegal e é por essa razão que existe um símbolo de copyright no rodapé dos sites.
Mito 3: Re-publicação de Guest Posts afectam negativamente os sites
O ideal é que o conteúdo do site seja totalmente original, mas esta situação de republicar os Guest posts, não advém do não do medo de penalizações, mas sim do desejo de acrescentar valor ao conteúdo.
Não se aconselha mas no caso de acontecer uma re-publicação, de um artigo, por exemplo, que apareceu inicialmente num outro sítio, o ideal é utilizar o canonical tag como forma de dizer aos motores de busca onde apareceu a versão original.
Dica: Escrever o “Evil Twin”
Se o original foi “como publicar” mensagens, pode-se escrever um que diga “como não publicar” mensagens. A base do conceito e da pesquisa pode ser exatamente a mesma, mas com a utilização de exemplos diferentes, acrescenta-se valor ao conteúdo. O “evil twin” post será semelhante, mas ainda assim, original.
Não só se evita a penalização, como poderão surgir benefícios em termos de SEO. Ambos os posts aparecerão na primeira página de pesquisa de “website navigation”.
Não é necessário entrar em pânico. É preciso ter calma.
O Googlebot visita a maioria dos sites, todos os dias. Se encontrar uma versão copiada de conteúdo uma semana depois, num outro site, sabe exatamente onde a original apareceu. O Googlebot não penaliza nestes casos, continua o seu processo.
Uma grande percentagem da Internet é conteúdo duplicado, e o Google sabe-o. O Google já faz a separação de originais e cópias, desde 1997. Esta é informação é o que os administradores de páginas devem reter.