Foros del Web » Creando para Internet » HTML »

Impedir que te bajen tu Web

Estas en el tema de Impedir que te bajen tu Web en el foro de HTML en Foros del Web. Pues eso quisiera saber como puedes impedir que te bajen tu web, yo mismo he tratao de bajarme webs completas con programas como el webzip ...
  #1 (permalink)  
Antiguo 04/11/2004, 08:34
 
Fecha de Ingreso: julio-2003
Ubicación: Cochabamba Bolivia
Mensajes: 300
Antigüedad: 20 años, 9 meses
Puntos: 14
Impedir que te bajen tu Web

Pues eso quisiera saber como puedes impedir que te bajen tu web, yo mismo he tratao de bajarme webs completas con programas como el webzip o webdonwload y no se puede, claro que algunas otras lo baja al tiro. Yo pienso que esas webs que no se pueden bajar deben tener algun codigo, etc.. que impide que se baje la web , bueno lo que yo necesito es eso exactamente impedir que se bajen mi web completa, espero sus respuestas gracias.
__________________
:policia: Uno para todos y todos para uno.
  #2 (permalink)  
Antiguo 04/11/2004, 10:43
 
Fecha de Ingreso: junio-2004
Mensajes: 621
Antigüedad: 19 años, 10 meses
Puntos: 25
Spiders

A ver, efectivamente se puede controlar "a medias"...

Todos los navegadores, robots de buscadores y programitas estilo WebZip que navegan por la red, cuando solicitan un archivo para bajárselo se identifican al hacer la petición. El nombre de este campo es AGENT y puedes verlo en el log que deja tu servidor web.

Puedes hacer una lista de los agentes que quieras denegar el acceso. Los programitas que tú dices son como los que están en la siguiente lista:
- Web Downloader
- WebZIP/4.0
- WebStripper/2.16
- Offline Explorer/2.0
- Wget/1.8.2
- WebCopier v3.0
- Teleport Pro
- ImageGrabDummy
- EmailSiphon
- WebReaper v9.8
- webreaper.net
- WebZIP
- spidersoft.com
- GetPix
- WebZIP/3.65
- HTTrack
- Wget
- WebZIP/5.0
- Offline Explorer/1.3
- WebStripper
- Offline Explorer
- WebCopier
- ImageGrabDummy
- EmailSiphon
- WebReaper
- webreaper.net
- GetPix

Son muchos ¿verdad? pues seguro que se me escapa alguno. Podrías pensar que terminas antes dando sólo permiso al Mozilla, al Netscape, al Explorer, etc para navegar por tu web. Pero lo cierto, es que son muchos los agentes que visitan tu web, y en su mayoría son desconocidos, pertenecientes a buscadores, etc...

Para poder capar el permiso a estos agentes necesitas tener el control sobre el servidor. Creo que se puede hacer en los archivos de configuración de Apache haciendo unos líos, pero yo no sé. Así que te pongo cómo se haría usando un lenguaje de servidor, como PHP. En ASP o JSP sería similar...

Un saludo,
eContento
http://www.fotoMadrid.com
http://e-Contento.com


Código PHP:
<?php 
$REDIRECT_URL 
"/browseroffline.php";

$is_spider false;
$spiders=(
Web Downloader| 
WebZIP/4.0|WebStripper/2.16|Offline Explorer/2.0| 
Wget/1.8.2|WebCopier v3.0|Teleport Pro|ImageGrabDummy| 
EmailSiphon|WebReaper v9.8 |webreaper.net|WebZIP|spidersoft.com|
GetPix|WebZIP/3.65|HTTrack|Wget|WebZIP/5.0|Offline Explorer/1.3|
WebStripper|Offline Explorer|WebCopier|ImageGrabDummy|
EmailSiphon|WebReaper|webreaper.net|GetPix
"
);

//Get THE LIST IN TO AN ARRAY
$spider=explode("|",$spiders);

foreach( 
$spider as $spider_check) {
    
$spider_check=trim($spider_check);
    if (
strpos($_SERVER['HTTP_USER_AGENT'], $spider_check) !== false) {
        
$is_spider true//SPIDER DETECTED !!! ACTION ?
        
break;
    }
}

if (
$is_spider == true) {
    
header("HTTP/1.0 404 Not Found");//SEND THEM AWAY
    //header( "Location: $REDIRECT_URL" );//UNCOMMENT VIEW SPECIAL PAGE
    
$navegador $_SERVER["HTTP_USER_AGENT"]."\n";
    
$archivo fopen($_SERVER["DOCUMENT_ROOT"]."/inc/navegadores.txt""a");
    if (
$archivo) {
        
fputs ($archivo$navegador);
    }
    
fclose ($archivo);
    exit;
    
//echo "SPIDER!" ;//DEBUG
}else{
    
//echo "OK!" ; //DEBUG;
}
?>
__________________
eContento
- Mis artículos y tutoriales
- Mis jsfiddles
  #3 (permalink)  
Antiguo 05/11/2004, 05:59
 
Fecha de Ingreso: julio-2003
Ubicación: Cochabamba Bolivia
Mensajes: 300
Antigüedad: 20 años, 9 meses
Puntos: 14
Gracias por tu ayuda y una pregunta mas que no la tengo clara es necesario que tengo acceso al servidor o solo es necesario el codigo php que pones, gracias de nuevo
__________________
:policia: Uno para todos y todos para uno.
  #4 (permalink)  
Antiguo 05/11/2004, 06:58
 
Fecha de Ingreso: junio-2004
Mensajes: 621
Antigüedad: 19 años, 10 meses
Puntos: 25
Si puedes usar un lenguaje de servidor, como PHP, JSP o ASP es suficiente con eso.
Si no puedes usar un lenguaje de servidor, sería conveniente que tuvieras acceso a las directivas de Apache.
Si tampoco puedes hacer esto, y lo que quieres es que impedir que ningún spider se baje las imágenes de tu web, puedes incomodarles con JavaScript, aunque me figuro que los más sofisticados no caeran en el engaño. Me explico...

Haces tu página y cargas todas las imágenes con un gif transparente de 1x1, redimensionado al tamaño que quieres que tenga la foto que vas a cargar en su lugar. En un array de JavaScript guardas el nombre (con la ruta) del fichero de imagen que quieres cargar. Y al terminar de cargar la página, ejecutas una funcioncita que cambie las imágenes transparentes por las que quieres cargar. Ese código JavaScript no creo que lo sigan muchos spiders. Si a pesar de todo lo siguen, empieza a cambiar la ruta al directorio de imágenes por una variables, etc...

Pero lo ideal es tener acceso a un lenguaje de servidor
Espero haberte ayudado
__________________
eContento
- Mis artículos y tutoriales
- Mis jsfiddles
Atención: Estás leyendo un tema que no tiene actividad desde hace más de 6 MESES, te recomendamos abrir un Nuevo tema en lugar de responder al actual.
Respuesta




La zona horaria es GMT -6. Ahora son las 18:22.