Ver Mensaje Individual
  #19 (permalink)  
Antiguo 07/11/2006, 07:43
sirux
 
Fecha de Ingreso: noviembre-2006
Mensajes: 5
Antigüedad: 17 años, 5 meses
Puntos: 0
Los de los robots.txt es un archivo que le dirá a google archivos y páginas que no debe visitar, por el motivo que sea. Puede que tengas páginas que no sean de interés para google, ni para ti, por no tener información relevante, y las excluyes de la indexación.

Un saludo. Ahh, y a mi también me indexó google mi página en 3 días, y en 2 semanas tengo más de 300 páginas indexadas tanto en google como en yahoo. Haciendo bien las cosas no sé el motivo por el que una página debe tardar 2 meses en ser indexada.

Y sí, soy nuevo y no tengo ni p. idea, pero si a los que no tenemos ni idea google nos indexa bien, no será tan difícil mejorar ese tiempo de 2 meses.

Última edición por sirux; 07/11/2006 a las 16:21