Jump to content
elcsat

SEO crawl ajax

Recommended Posts

elcsat

boa noite, desenvolvi um site a base de ajax, e tenho bastantes urls com o example.com/teste/!#qualquer_coisa, e já as inserir no meu sitemap os links todos, mas ele não ta a indexar as páginas.

Não posso mudar o sistema, tenho que o manter e ajax,

contenho nas metadatas, <meta name="fragment" content="!" />

o que devo fazer mais??

obrigado.

Share this post


Link to post
Share on other sites
elcsat

boas, por acaso não tenho a parte do $_GET['_escaped_fragment_']; pensei que isso poderia ser opcional, tenho muitos resultados retornados em json e depois e que sao tratados e geridos o html. se calhar e por causa disso, vou ter que alterar um pouco a estrutura do site.

dava mais jeito a gestão feita assim como ta, do que usar o $_GET['_escaped_fragment_'];

tenho que usar exactamente esse nome nos pedidos de ajax _escaped_fragment_??? existe alguma solução em vez de ler o pedido de ajax, ler o resultado retornado e colocado na pagina??

obrigado

já sei, como vou resolver, vou adicionar umas linhas no htaccess que me redeccione sempre para o mesmo ficheiro o crawler, e retorno cada resultado necessário do ajax directo.

obrigado

Share this post


Link to post
Share on other sites
clera

nos pedidos de ajax é indiferente..

o que acontece é que quando as spiders vão ao teu site não é usado javascript, eles só vêm o que o servidor devolve,

e para tal substituem o "#!" do teu url por ?_escaped_fragment_=

o mais simples é fazeres o parser do json em php que te devolve uma div com o conteúdo certinho, por exemplo

...
<body>
<?php


$hash_frag = $_GET['_escaped_fragment_'];
if(isset($hash_frag)) {
   include('ajaxcrawl.php');
   echo getcontent($hash_frag);
}
?>
</body>
</html>

se não for a spider, então o javascript funciona e já podes atualizar a tua página à vontade com os pedidos normais de ajax..

depois depende um pouco do que queres fazer, mas o php pode-te continuar a fazer devolver HTML e vais só mudando algumas partes com o innerHTML ou fazendo append aos teus elementos.

Share this post


Link to post
Share on other sites
elcsat

já agora sabes me dizer isto do htaccess.

Para já tenho este código

RewriteEngine on

RewriteRule !\.(js|ico|txt|gif|jpg|png|css|jpeg|swf|html|htm|xml)$ default.php

e agora quero criar uma regra, do que for do crawler ir parar ao ficheiro crawl.php, acho que é assim mas não ta a funcionar

RewriteCond %{QUERY_STRING} ^_escaped_fragment_=(.*)$

RewriteRule ^$ /crawl.php$1 [L]

podia implementar o código no default.php, e criar lá as condições, mas preferia separar os ficheiros directamente no htaccess

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...

Important Information

By using this site you accept our Terms of Use and Privacy Policy. We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.