Ver Mensaje Individual
  #6 (permalink)  
Antiguo 03/06/2016, 05:40
Amiancht
 
Fecha de Ingreso: mayo-2013
Mensajes: 169
Antigüedad: 11 años
Puntos: 25
Respuesta: Reducir la frecuencia en que google accede al sitio

En el sitemap podrías poner la frecuencia con la que sueles actualizar el contenido de cada página de tu sitio.
Aunque eso no te asegura completamente de que google respete esa frecuencia.

Por otro lado, 100 accesos en una hora es mucho. Aunque depende del número de páginas que tienes en tú sitio.

¿Dónde estas mirando eso? ¿log de accesos de apache? Debes entender que cuando alguien hace una petición http de una web, sea un usuario o robot, tiene que hacer todas las peticiones a cada uno de los recursos que hay en el html, por cada una de las hojas de estilo, por cada imagen que haya en esa página. Y eso hace que una única petición de una web, parezca como 10 o 20 accesos en el log de apache.

Tal vez, ves 100 accesos en el log, pero lo más seguro que no sean más de 10. Tambien decir que los robots de google no parece que cacheen las hojas de estilo, ni los scripts como haría cualquier navegador, por lo que sus visitas a nuestra web suelen ser así de vivas y llamativas.

Otra cosa, hay un crawler de google que se salta la directiva de
User-agent: *
Deberas añadir las mismas directivas que usas en ese para
User-agent: AdsBot-Google

Esté bot se salta todas las directivas del anterior, como si con él no fuera la cosa. Y si no le especificas directamente para él, te va a visitar páginas que tenias en el robot.txt que no quieres que indexen .

Por otro lado, deberías dejar que google indexara todo aquello que es público. Excepto los formularios de contacto y acceso. Entre otras cosas.
No tiene sentido limitar la indexación solo en el contenido principal de la web. Al menos no para mí.