Foros del Web » Creando para Internet » HTML »

Evitar que descarguen mi página web

Estas en el tema de Evitar que descarguen mi página web en el foro de HTML en Foros del Web. Muchachos necesito de su ayuda. Un cliente solicito un desarrollo de su sitio web mismo del que me dio un 30% de adelanto para comenzar ...
  #1 (permalink)  
Antiguo 13/08/2015, 09:19
 
Fecha de Ingreso: junio-2013
Mensajes: 6
Antigüedad: 10 años, 9 meses
Puntos: 0
Exclamación Evitar que descarguen mi página web

Muchachos necesito de su ayuda.

Un cliente solicito un desarrollo de su sitio web mismo del que me dio un 30% de adelanto para comenzar el proyecto pero ahora ya casi finalizado al parecer ha contratado a otra persona para que lo asesore de manera presencial en su oficina y me ha parecido un poco evasivo al tema del pago final del proyecto.

Estoy por enviarle la URL donde podrá ver el resultado final del sitio peeeeeeeero me he dado cuenta que con un simple "guardar como" se puede quedar con todos los archivos del sitio.

¿Como puedo hacer para proteger mis archivos de una descarga de ese tipo?

Ya probé inhabilitando el click derecho pero sigo obteniendo los archivos con CTRL+S
  #2 (permalink)  
Antiguo 13/08/2015, 09:30
Avatar de lauser
Moderator Unix/Linux
 
Fecha de Ingreso: julio-2013
Ubicación: Odessa (Ukrania)
Mensajes: 3.278
Antigüedad: 10 años, 8 meses
Puntos: 401
Respuesta: Evitar que descarguen mi página web

Todo dependera de como hayas realizado la web, en principio puedes evitar la descarga desde robots.txt.

Código :
Ver original
  1. #
  2. # robots.txt
  3. #
  4.  
  5. User-agent: Orthogaffe
  6. Disallow: /
  7.  
  8. User-agent: UbiCrawler
  9. Disallow: /
  10.  
  11. User-agent: DOC
  12. Disallow: /
  13.  
  14. User-agent: Zao
  15. Disallow: /
  16.  
  17. User-agent: sitecheck.internetseer.com
  18. Disallow: /
  19.  
  20. User-agent: Zealbot
  21. Disallow: /
  22.  
  23. User-agent: MSIECrawler
  24. Disallow: /
  25.  
  26. User-agent: SiteSnagger
  27. Disallow: /
  28.  
  29. User-agent: WebStripper
  30. Disallow: /
  31.  
  32. User-agent: WebCopier
  33. Disallow: /
  34.  
  35. User-agent: Fetch
  36. Disallow: /
  37.  
  38. User-agent: Offline Explorer
  39. Disallow: /
  40.  
  41. User-agent: Teleport
  42. Disallow: /
  43.  
  44. User-agent: TeleportPro
  45. Disallow: /
  46.  
  47. User-agent: WebZIP
  48. Disallow: /
  49.  
  50. User-agent: linko
  51. Disallow: /
  52.  
  53. User-agent: HTTrack
  54. Disallow: /
  55.  
  56. User-agent: Microsoft.URL.Control
  57. Disallow: /
  58.  
  59. User-agent: Xenu
  60. Disallow: /
  61.  
  62. User-agent: larbin
  63. Disallow: /
  64.  
  65. User-agent: libwww
  66. Disallow: /
  67.  
  68. User-agent: ZyBORG
  69. Disallow: /
  70.  
  71. User-agent: Download Ninja
  72. Disallow: /
  73.  
  74. User-agent: wget
  75. Disallow: /
  76.  
  77. User-agent: grub-client
  78. Disallow: /
  79.  
  80. User-agent: k2spider
  81. Disallow: /
  82.  
  83. User-agent: NPBot
  84. Disallow: /
  85.  
  86. User-agent: WebReaper
  87. Disallow: /

Pero lo más seguro es bloquear el acceso a cualquier ip, excepto la que tu consideres necesaria (sería en Apache mediante el .htaccess).
Código Apache:
Ver original
  1. #denegar todo acceso excepto una IP
  2. deny from all
  3. allow from 100.100.100.100
__________________
Los usuarios que te responden, lo hacen altruistamente y sin ánimo de lucro con el único fin de ayudarte. Se paciente y agradecido.
-SOLOLINUX-
  #3 (permalink)  
Antiguo 13/08/2015, 09:39
Colaborador
 
Fecha de Ingreso: septiembre-2013
Ubicación: España
Mensajes: 3.648
Antigüedad: 10 años, 6 meses
Puntos: 578
Respuesta: Evitar que descarguen mi página web

O mejor, ponle contraseña con htaccess.
  #4 (permalink)  
Antiguo 13/08/2015, 17:22
Avatar de HackID1  
Fecha de Ingreso: febrero-2013
Ubicación: En Update
Mensajes: 492
Antigüedad: 11 años, 1 mes
Puntos: 17
Respuesta: Evitar que descarguen mi página web

Si no estoy mal, si lo realizas en PHP no puede descargar nada de forma correcta, siempre que uses varias funciones etc.

Esa forma de usar el robot.txt no la conocía, y lo de las contraseñas al htaccess impide descarga?, también echaré un vistazo porque me servirá en un futuro.
__________________
Puntuar +1 es buena forma de dar las gracias. :P
Your Time is limited, so don't waste it living someone else´s life.
Por: HackID1

Etiquetas: diseño-paginas-web
Atención: Estás leyendo un tema que no tiene actividad desde hace más de 6 MESES, te recomendamos abrir un Nuevo tema en lugar de responder al actual.
Respuesta




La zona horaria es GMT -6. Ahora son las 13:42.