|    
			
				28/07/2015, 14:11
			
			
			  | 
  |   |  |  |  Fecha de Ingreso: mayo-2013 
						Mensajes: 22
					 Antigüedad: 12 años, 5 meses Puntos: 0 |  | 
  |  Dudas robots.txt  
  Buenas noches foro,
 he estado leyendo sobre las reglas para la correcta creación del archivo.txt y me surgen algunas dudas:
 
 1. El spider de Google entraría a las reglas del User-agent: Googlebot y del User-agent: *??
 
 2. Si creo una regla de disallow para una URL, cuanto tardara Google en desindexarla?  Sería conveniente borrar la URL tambien en Google Webmaster Tools??
 
 Gracias de antemano y un saludo ;)
     |