Ver Mensaje Individual
  #1 (permalink)  
Antiguo 14/07/2006, 03:03
JUMASOL
 
Fecha de Ingreso: noviembre-2005
Mensajes: 889
Antigüedad: 18 años, 6 meses
Puntos: 8
Pregunta sobre Robots

Hola a todos:

Me gustaría que algún entendido me informase sobre un tema sobre el que tengo una curiosidad personal.

¿Cómo se produce la catalogación e indexación de sitios web en los buscadores?

Sé lo que son los spiders, crowlers, etc.

La duda es si estos programas reptantes o lectores de contenidos son los que catalogan, valoran, indexan y determinan en qué puestos deben ir las web analizadas.

¿Son dichos programas los que hacen toda la función? ¿o son meros recolectores de datos que, después, son conducidos a un sistema central donde se realiza la labor de valoración e indexación del sitio en estudio?

¿Se trata de extensiones o tentáculos del buscador para analizar los sitios web? ¿O sólo son máquinas de recogida previa de datos para su posterior análisis por otros programas más especializados?

Son cuestiones académicas que de poco sirven a la labor que nos ocupa en el posicionamiento web, pero que pueden ser interesantes como curiosidad técnica.

Gracias por todo.