Notícia publicada por brain em agosto 18, 2004 11:43 AM
| TrackBack
O wget é uma das ferramentas essenciais do mundo Linux, graças à sua versatilidade e flexibilidade em tudo o que diz respeito a obter dados e arquivos da web ou via ftp de forma automatizada ou não. Isto explica a profusão de artigos sobre o tema - e mais um deles foi publicado esta semana. Usando o wget é o seu título, em inglês, e ele explica e dá exemplos de algumas das formas mais comuns de colocar em uso este poderoso recurso.
Essa ferramenta é realmente ótima.
Eu queria fazer um espelho de um site FTP aqui na minha empresa localmente, e com o wget eu baixei todos os arquivos do FTP para cá, inclusive os subdiretórios, com suporte a continuar o download de onde parou, coisa que aconteceram várias vezes, pois a Internet aqui cai as vezes.
Eu tentei fazer o mesmo procedimento com o Windows e eu não achei ferramenta que fizesse isso.
O prozilla também é um software legal. Feito em ncurses (tem também uma versão GUI), ele faz o download de várias partes do arquivo ao mesmo tempo, como o FlashGet ou o GoZilla do concorrente.
Felipe: uma ferramenta muito boa para se utilizar no Windows para fazer esta mesma tarefa é... o próprio wget! Em http://www.gnu.org/software/wget/wget.html você encontra os links para algumas arquiteturas não-Unix e não-livres.
Link: http://prozilla.genesys.ro/
Querem ver um otimo trabalho desempenhado por esta ferramenta? Nosso sistema (www.delta5.com.br) utiliza o WGET para salvar o espelho dos sites que sofrem defacement. Nunca nos causou problemas, muito estavel.
Wget é nota 10! Já uso ele faz um bom tempo, e realmente traz bastante praticidade, especialmente para quem tem que baixar vários arquivos e subdiretórios de sites FTP. Recomendado para quem não conhece ainda!
No wget, como eu faço para o download ficar "para resumir" mais tarde?
Só pra lembrar, existe também o curl, que faz o mesmo mas tem licença BSD - http://curl.haxx.se/
para fazer resume com o wget use o parametro -c
BRIGADU JU!!!
epa... "JU" foi foda...
rsrsrsrs :D
Oh Augusto, mais óbvio impossível. E eu não sabia... hehe...
Obrigado. Tô baixando agora.
O prozilla não tem nem 1% dos recursos do wget, mas possui duas vantagem para quando você precisa baixar somente um arquivo grande: baixa em várias conexões simultâneas (vários pedaços ao mesmo tempo) para aproveitar toda a banda e possui o recurso do ftpsearch, ou procura de mirrors alternativos.
Alguém sabe como eu posso fazer para o wget funcionar aqui na minha empresa, que usa proxy?
Yourself, :)
Eu não quis comparar o prozilla com o wget, mas também não expliquei né... ;)
Mas para baixar um arquivo, ele é muito veloz.
Felipe: no arquivo de configuração /etc/wgetrc você acha o seguinte:
# You can set the default proxies for Wget to use for http and ftp.
# They will override the value in the environment.
#http_proxy = http://proxy.yoyodyne.com:18023/
#ftp_proxy = http://proxy.yoyodyne.com:18023/
Um software também muito interessante é o curl
http://curl.haxx.se/
Ele faz algumas coisas a mais do que o wget, especialmente a parte de upload.
Alexandre,
O wget e o prozilla talvez tenham objetivos diferentes mesmo... Como eu disse, eu uso o prozilla quando preciso baixar um arquivo grande, e o download acaba ficando muito mais rápido pelo fato dele criar conexões simultâneas.
O wget é mais poderoso, e é bem interessante para fazer mirrors, mesmo por http, seguindo os links, baixando imagens de uma página também, etc.
Uma dica interessante:
wget http://www.example.net/docs/2004{01,02,03,04}.pdf
Vai baixar os arquivos 200401.pdf, 200402.pdf, e assim por diante :)
Isso deve funcionar com outros programas porque quem faz a substituição é o shell... Funciona no bash aqui.
Para quem quiser também está disponível um excelente tutorial sobre o programa 'ls': http://www.redhat.com/docs/manuals/linux/RHL-7-Manual/getting-started-guide/s1-navigating-using-ls.html
Comentários desativados: Esta discussão é antiga e foi arquivada, não é mais possível enviar comentários adicionais.