• Revista PROGRAMAR: Já está disponível a edição #53 da revista programar. Faz já o download aqui!

pedrotuga

Uma experiencia de SEO

11 mensagens neste tópico

Ora bem... ja falei disto noutro tópico, agora vou fazer uma experiencia.

Tenho os meus fóruns 'quitados' com o mod_rewrite usando um sitemap escrito por mim.

Resentemente estive com a discutir com o pessoal que desenvolve o software que uso nos fóruns e chegámos a um impasse:

Eles diziam que um google-sitemap era a melhor forma para puxar um site cá para cima no google e que se todos os urls lá estiverem incluidos então são indexados, mesmo os dinâmicos, aqueles todos feiosos com parametros a seguir ao '?'.  Tambem disseram que o uso abusivo de mod_rewrite da forma que eu fiz, contendo links tanto para o url dinamico como para o 'reescrito' é considerado conteudo duplicado pelo google, logo é penalizado.

Isto era a opiniao de todas as pessoas la presentes menos eu.

A minha opiniao é diferente e baseia-a apenas na minha experiencia, enquanto que as restantes pessoas preferem acreditar minuciosamente naquilo que o google faz crer que é.

Então o que penso é:

  • A validação pode ajudar em termos de SEO mas não é critica. Assim resumidamente, tem importancia mas não tanta como se diz por aí. No caso da página ser XHTML, acredito que aí sim, pode fazer diferença pois pode permitir ao spider do google usar algoritmos de pesagem de relevancia baseados no conteudo da pagina. Uma pagina com html transicional não permite isto pois os atributos dentro das tags html tanto se referem ao conteudo como ao estilo, sem destinção.
  • O uso de mod_rewrite é a pratica mais importante, especialemente com urls com significado, isto é inegavel, basta fazer uma pesquisa no google e constatar que as paginas no topo, podem nao conter html valido, podem nao ter um google sitemap ou outro mapa qq em xml, mas recorrem invariavelmente ao uso de mod_rewrite
  • os sitemaps servem apenas para o google chegar a algumas paginas as quais nao teria acesso de outra forma, e em geral são uma solução muito pobrezinha. As paginas indexadas desta forma ficam lá para baixo muito longe da primeira pagina. Em grande parte dos casos um google sitemap é prejudicial e menos eficiente que os velhinhos mapas em html
  • conteudo duplicado no mesmo site não é penalizado. Mesmo conteúdo duplicado em varios dominios é indexado a toda a força, o google ainda é muito inefeciente no combate a este problema e qdo o faz é muito lento a faze-lo.

Ora bem... eu nunca acreditei muito no que o google diz, por isso resolvi optimizar o meu site de acordo com o que penso, obviamente. No entanto tenho algumas paginas que nao estao em xhtml, e penso que isso me pode ter prejudicado um pouco.

como o meu site há tempos rebentou para o topo do google mas depois estagnou um pouco, estou a fazer duas coisas:

1.validar tudo como xhtml

2.excluir os urls dinamicos, evitando assim o conteudo duplicado

eu acho que isto me vai fazer subir um pouco. Mas depois vai ser impossivel sber qual das duas razões foi a causa. Se o site subir muito no google então deixo-o estar e nao chegamos a descobrir quem tem razão, se eu se eles se os dois, se nenhuem. Se subir pouco ou se mantiver, volto a incluir os urls dinamicos e passado algum tempo logo se vê quem estava certo. Se descer, estavamos ambos errados.

A experiencia vai incidir só sobre os fóruns pois a pagina de entrada já não pode subir mais pois já aparece em primeiro lugar :cheesygrin:

Desde o inicio deste mes recebi 1131 visitas do google às paginas de tópicos do meu site. Vamos ver então agora no que resultam as mudanças.

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

Bom eu de SEO não me posso considerar assim um expert. Houve uma altura em que realmente andei a estudar o assunto e aprendi algumas coisas - na altura em que o FileSeacher BETA saíu - no entanto sempre usei o que já uma boa percentagem de webmasters usava: técnicas básicas que fazem com que o site se promova e realmente consegui muitas visitas vindas da Rússia, India, China, isto devido á publicidade e referência que foi feita via Digg e via StumbleUpon. :(

Em relação a métodos mais avançados e eficazes, realmente gostava de aprender com alguém que soubesse mais um pouco. Fico, portanto, atento a esta thread.  :P

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

Ao contrario do que se diz por aí o SEO não é uma ciencia muito extensa. Pode ser um pouco esquisita mas não abrange muitas tecnicas nem muitos conceitos.

Dados de testes reais como este são basicamente a informação mais valiosa que temos.

Agora uma coisa que eu curtia era ter mais trafego não só do google.

Tipo.. neste último mês o yahoo andou a indexar a minha pagina mais do que o google, ainda assim 90% das pessoas que chegam ao meu site atraves de um motor de busca fazem-no usando o google.

Vamos ver o que acontece daqui a um mês, ou 15 dias ou coisa que o valha, isto se se notarem algumas diferenças...

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

O teu fórum não está tão quitado como julgas. Eu não sou nenhum perito como o Matt Cutts, mas tenho passado estes últimos anos a aprender e a testar.

1.) O teu fórum tem  duas URL quando só devia ter uma. http://www.shareminer.com/forum/ e http://shareminer.com/forum/ . Recomendo que edites o teu ficheiro .htaccess para fazeres um redirect 301 (recomendo que redirecciones para a versão www), com a finalidade de impedir que o teu PR fiquei diluído. Muitos sites apresentam page ranks diferentes porque não fazem isto.

2.) O estrutura do teu site para um determinado tópico é http://shareminer.com/forum/viewtopic.php?id=33191, quando devia ser http://shareminer.com/forum/youtube-batch-downloader-xxxx, onde o xxxx é um número atribuído para evitar possíveis casos desastrosos onde dois tópicos tenham o mesmo título. O teu método actual está a duplicar conteúdo!

3.) Os títulos dos tópicos devem estar envolvidos entre tags <h1>

4.) O teu robot.txt está demasiado simples, quando devias bloquear as dezenas de locais onde não queres que as spiders andem. Exemplos:

http://shareminer.com/forum/userlist.php

http://shareminer.com/forum/search.php

etc..

Estas páginas são inúteis, e só confusem as spiders sobre do que se trata o teu site.

O que tu queres é que elas andem no teu conteúdo e não nestas páginas inúteis.

Eu nem olhei para keywords e outros pontos vitais por falta de tempo.

Se tiver dito alguma baboseira, perdoa-me porque fiz isto à pressa e não li os teus posts.. O meu maior conselho e arranjares uma licença do vBulletin e vBulletin SEO. Eu tinha um fórum muito tem optimizado, mas removi-o de momento porque ainda o quero optimizar mais. ;)

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

Epa... tirando o ponto 1, acerca do qual eu confesso que nem me lembrei, não fossem as referencias directas ao meu site e juraria que estvas a falar de outro site qualquer.

não sei de que é que falas no ponto 2, mas a estrutura dos urls do meu site é exactamente essa que dizes que devia ser, os urls dinamicos, como referi na primeira pagina foram excluidos como podes ver no robots.txt.

sobre o ponto 3... os títulos ESTÃO dentro de tags <h1>.

sobre o meu robots.txt, "demasiado simples" não é defeito, lá que o vbuletin venha com mil e uma coisas não quer dizer que todos os softwares sejam assim. Na verdade, quanto mais simples melhor. De qualquer das formas esse robots.txt nao pode ser o meu pois o meu exclui a lista de utilizadores tal como apontaste e bem. Quanto à pagina de pesquisas, esta não aquece nem arrefece uma vez que é só uma. Para não ter que estar a explicar isso mais tarde: é só uma porque não há links relevantes para resultados de pesquisas e para alem disso essa é um dos pontos onde o google até é eficiente: excluir resultados de pesquisas.

Estas páginas não são inuteis e não confundem as pessoas. E vou explicar porquê:

não são inuteis porque posso lá por publicidade para quem vem do google enquanto que os meus utilizadores mais fiéis não têm que a gramar.

Não confundem as pessoas, pois quem vem do google lê o que tem a ler na página e de seguida vai embora. Os visitantes oriundos de motores de busca não costumam navegar muito pelos foruns a que chegam, é um facto.

Não vou comprar o vbulletin por varias razões:

1. é pago

2. é pesado, em termos de velocidade nem aos calcanhares do punbb chega

3. não preciso de tanta funcionalidade

4. não o consigo modificar com tanta facilidade como modifico o punbb

5. adoro o punbb, é um software espectacular, simples, rapidissimo, leve e super costumizavel, para alem disso dou-me bem com o pessoal que está envolvido no seu desenvolvimento e gosto de contribuir para aquele projecto

Posso arranjar uma versão nullada do vebulletin mas não vejo o sentido disso. Não que me importe muito em estar a tirar lucro aos gajos ou que esteja a cometer uma ilegalidade. Simplesmente gosto de usar software open-source, e verdade seja dita, a usar uma versão do vbulletin prefero pagar aos gajos.

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

Ora bem... passada uma semanita, ou coisa que o valha, já há alguns resultados.

O yahoo e o msnbot passaram-se completamente e atiraram-se ao meu site que nem um cão esfomeado. O google continua na mesma como estava o mês passado, mas tambem ainda é cedo. As visitas às paginas optimizadas para os motores de busca aumentaram mas até agoranada de especial, por isso pode ter sido por mil e uma razões.

Curiosamente os bots de spam diminuiram, mas isso acho que foi por causa de um sistema anti-spam que eu instalei.

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

Cabum!

ontem recebi cerca 4000 visitantes vindos do google :) e 200 do yahoo.

O yahoo tem vindo a aumentar a ritmo constante... o google é que quase duplicou ontem!

O esquisito aqui é que as visitas para as paginas que optimizei, apesar de estarem a crescer a bom ritmo, não correspondem a este aumento.

A minha duvida neste momento é:

será que optimizar um site de forma a este ser mais se-friendly faz subir o site em geral no google ( e outros ) ?

Eles dizem que sim mas eu acho que nao, eu acho que é os google bots são mais do tipo e comer o que lhes aparece à frente do que propriamente de andar a avaliar o que é que é conteudo de boa qualidade.

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

Epa... que cena curiosa que me está a acontecer.

Nao voltei a verificar mais nenhuma avalanche de utilizadores vindos dos moteres de busca. Estava à espera que quando o google actualizasse o a indexação do meu site de forma abrupta aquilo levasse com uma porrada de utilizadores. Isso não aconteceu. Em vez disso o google foi mudando os urls indexados dos urls feinhos para o todos xpto mas... fez isso LENTAMENTE e não tudo de uma vez, o que é esquisito pois eu inclui o robots.txt com os devidos settings.... sempre pensei que estes seriam aplicados assim que fossem lidos :s

Ainda assim o tráfego do google continua a aumentar mas de forma linear.

Será que o google faz isto de forma a manter os seus critérios e métodos e evitar bombas ao mesmo tempo?

Isto surpreendeu-me, estava mais à espera de grandes mudanças.

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

Boas!

Estou prestes a colocar um site online e ando a pesquisar alguma informação acerca do funcionamento dos motores de busca, assim informação sobre os robots.txt e optimização de sites.

Pelo artigo dá para ver que voçês estão dentro do assunto, será que me podem indicar algum link sobre a matéria, pois a informação que encontrei é um pouco pobre, continuando a minha pesquisa....espero que possam partilhar a vossa sabedoria!

Cumprimentos

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

viva,

há demasiada informação sobre SEO na internet, claro que quem a oferece sob o título de especialista acaba por não partilhar a informação realmente relevante.

Depende um pouco do tipo de site que tens, por exemplo, se tiveres poucas página no teu site até acaba por ser melhor não te meteres a criar páginas por tudo e por nada pois são vão dispersar a atenção dos crawlers. Por outro lado, se tiveres muitas paginas, é importante que estas tenham conteudo de facto relevante.

Assim, de repente isto é o básico:

1-HTML ou se possivel XHTML válido em todas as páginas

2-Todas as páginas navegáveis através de links de texto, um mapa do teu site em HTML pode ser a solução para isto.

4-urls re-escritos e com significado. Tens um bom artigo aqui:

http://www.alistapart.com/articles/urls/

Mas há centenas de outros por aí.

5-Links para o teu site. Isto é o elemento mais valioso, mas é muito dificil de conseguir bons links para o teu site. Basicamente tudo se resume a conseguir links, e uma vez visivel num motor de busca, tentar agradá-lo ao máximo.

6-Troca de links não leva a praticamente nada, um link a apontar para o teu site perde toda a relevancia se o teu site tambem tiver um link para o site de origem do link.

7-Paginas com pouca relevancia, tipo os perfis das contas de utilizadores, ou coisas do estilo devem ser removidas dos olhos dos crawlers usando o robots.txt.

Um sitio com muitos links para sites de SEO é o sphinn

http://sphinn.com/

é uma especie de digg só de SEO. Pessoalmente não muito à bola com sites à imagem do digg pelo facto de o seu conteudo ser demasiado irrelevante, mas navegando nesse site encontras muitos links para paginas com muitos recursos, faz uma triagem à tua medida.

Outra coisa, não leias só um artigo sobre um determinado tema. Ouvir varias opiniões é sempre melhor, até porque isto é um tema muito especulativo.

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

Obrigado pela atenção pedro tuga!

Vou estudar melhor o assunto.

Cumprimentos

0

Partilhar esta mensagem


Link para a mensagem
Partilhar noutros sites

Crie uma conta ou ligue-se para comentar

Só membros podem comentar

Criar nova conta

Registe para ter uma conta na nossa comunidade. É fácil!


Registar nova conta

Entra

Já tem conta? Inicie sessão aqui.


Entrar Agora