Cita:
Iniciado por internetdominus Si funcionaria pero no con no con 100, tienes que considerar user agents, ips, proxies, location, time, click en diferentes links dentro del web, tiempo gastado visitando el web ( si haces click y te vas, GYM lo nota). Asi de facil se manipula Alexa, con 20 clicks diarios puedes cambiar tu de 1,000,000 a 600,000 en Alexa.
¡Absolutamente de acuerdo! Uno de los problemas principales de los bots que he visto en alguna ocasión, es sin lugar a dudas el completo descuido por parte de los programadores en agregar una miserable línea más de código para alternar el user-agent... Una chorrada, pero recibir 1.000.000 de visitas virtuales desde "Mozilla/5.0" no es que sea algo muy normal... Alternar el user-agent es VITAL para el correcto funcionamiento de un bot de estas caracteristicas. Por otro lado, el envio DINAMICO del resto de componentes de la cabecera es fundamental para que tenga algún tipo de efecto de cara a un posible cambio en la clasificación de resultados...
Pero continuo pensando que este dato, no es del todo relevante de cara al posicionamiento en la clasificación y que Google tiene más en cuenta los enlaces entrantes.
Cita:
Iniciado por RBZ Pues ya está, añadimos unos cuantos post con una palabra clave inventada y dejamos que se indexen, posicionen y se estabilicen. Luego hacemos búsquedas manuales para un post y búsquedas por un bot para otro y observamos los resultados... yo no tengo ni idea de cómo hacer el bot. Estoy casi, casi como Chilypú (sólo le gano en que había leido sobre cURL por el foro con anterioridad).
¿Hacer la prueba en FDW? ¡NAIN! Y si lo hacemos y dentro de 3 días FDW esta en el sandbox? Ui,ui,ui,ui,uiiiiiiiiiii xD De lanzar un experimento de este tipo, yo optaria por montarlo contrar un Wordpress por las keys más competitivas que te puedas llegar a imaginar... Pero en Wordpress por supuesto.
@chilypu, tranquila! lo del cURL me toco SI o SI al desarrollar una web para una agencia de viajes en la que tenia que efectuar la captura absoluta de todos los contenidos de las ofertas desde la página de la marca blanca, con el fin de crear un contenido indexable de cara a los motores de búsqueda .oO(Un currazo super-divertido, sobretodo por el sistema de páginación de resultados por las diferentes categorias existentes de la marca blanca... un proyecto francamente interesante). De no ser por esto, te garantizo que ni habría tocado este tema.
Para que nos hagamos una idea de lo poderoso que es cURL, todos los motores de búsqueda de comparación de lo que sea en diferentes páginas, estan montados sobre cURL... Una vez te metes a jugar con este "chisme" no paras de encontrarle utilidades.
Para que los neofitos en la materia:
Todos los navegadores de Internet envían información tanto sobre su versión, motor interno - por así llamarlo -, dirección IP local de nuestro equipo, proxy empleado, etc... Toda esta información se registra en cada uno de nuestros accesos a cualquier página web. Analitycs por ejemplo, detecta toda información - en mayor o menor medida - de nuestros visitantes para confeccionar nuestras estadísticas, por eso es capaz de diferenciar no tan sólo los visitantes únicos sino también facilitarnos información sobre que tipo de navegador a utilizado nuestros visitantes al acceder a nuestras páginas.
Según RBZ, la cantidad de consultas realizadas sobre un mismo resultado de búsqueda, puede ser un factor relevante de cara a la mejora del posicionamiento de ese resultado en la clasificación de los mismos.
Si es un factor realmente relevante - algo que no lo tengo del todo claro y desconozco a ciencia cierta - cabe la posibilidad de programar un ROBOT tipo spider con el fin de que SIMULE el comportamiento de un usuario al realizar una consulta determinada en Google. Desde la paginación de resultados de búsqueda hasta el acceso y posterior navegación por distintas páginas de cualquier proyecto.
Esto, que puede parecer super-mega-chungo en realidad son unas 50 ó 70 líneas de código PHP, que se pueden llegar a prolongar un poco más con el fin de ofrecer la transmisión de cabeceras totalmente dinámicas - ver comentario de
@internetdominus o el primer apartado de esta misma respuesta xD.
¿Como? Tan sencillo como establecer un BUCLE con ciertos criterios internos para ofrecer una navegación simulada más o menos "real". Por ejemplo, establecer entradas en páginas de la competencia en un mismo proceso, para volver atrás y páginar resultados - si fuera necesario - para encontrar nuestra página y realizar una navegación interna...
Anda... que no he enrollo ni nah! Será más sencillo si pongo un ejempo?
Saludines