GNU/Linux >> Tutoriales Linux >  >> Linux

¿Por qué “wget -r -e Robots=off Http://ccachicago.org” no actúa recursivamente?

Estoy tratando de descargar recursivamente http://ccachicago.org , y obtengo exactamente un archivo, la raíz index.html , descargado.

Miré Descargar recursivamente con wget y comencé a usar el -e robots=off recomendado , pero sigue comportándose igual.

Cómo, con wget o alguna otra herramienta, ¿puedo descargar una copia del sitio?

Respuesta aceptada:

estás preguntando wget hacer un recursivo descarga de http://ccachicago.org , pero esta URL no proporciona ningún contenido directo. en cambio, es solo una redirección a http://www.ccachicago.org (que no le has dicho a wget para buscar recursivamente)..

si le dices a wget para descargar la URL correcta funcionará:

wget -r -e robots=off http://www....

Linux
  1. Linux:¿Diferencia entre /dev/console, /dev/tty y /dev/tty0?

  2. ¿Por qué /bin/sh apunta a /bin/dash y no a /bin/bash?

  3. Cómo usar wget para descargar archivos a través de proxy

  4. Los directorios estáticos http no se están sirviendo

  5. ¿Deberían vivir los sitios web en /var/ o /usr/ según el uso recomendado?

¿Cómo saber desde qué carpeta se está ejecutando un proceso?

unix:///var/run/supervisor.sock no hay tal archivo

¿Por qué poner otras cosas que no sean /home en una partición separada?

hacer eco o imprimir /dev/stdin /dev/stdout /dev/stderr

¿Por qué los directorios /home, /usr, /var, etc. tienen todos el mismo número de inodo (2)?

¿Por qué se requieren < o > para usar /dev/tcp?