COm faço download de contaúdos de URLs

:frowning: Olá a todos,

Gostaria de uma ajuda de todos…

Eu estou tentando fazer uma palicação que faça o download de todo o conteúdo de uma url (Ex.: http://www.uol.com.br).

Alguém tem idéia de como eu baixo todo o conteúdo de uma url de uma vez?
Tipo se eu passar http://www.uol.com.br o programa já baixa tudo que tem dessa url e salva numa pasta.

Agradeço a colaboração de todos.

Att,
Annibal :thumbup:

Como assim “salva todo o que tem nessa url”? Você quer baixar a página e salvar (como HTML)? Ou você quer fazer uma espécie de clone do site (baixando todos os links referenciados recursivamente)?

Olá Marco, eu preciso fazer uma aplicação que salve todo o conteúdo de uma URL em disco. Quando se entra numa página web (numa nunca entrada por você) o conteúdo dela é baixado automaticamente para seu computador, para que no próximo acesso à página seja muito mais rápido dela ser carregada.

Quando você está numa página e vai salvar ela clicando no menu “Arquivo->Salvar como…” e salva o contaúdo em disco, é isso que eu quero que minha aplicação faça ao ser informado uma URL, que ela grave o conteúdo de arquivos do site numa pasta que eu determinarei. Isso ajudará no desempenho de um servidor que utilize esta aplicação.

Agradeço a atenção.

Att,
Annibal
:slight_smile:

Conhece o comando wget do Linux, talvez lhe seja útil para fazer tal coisa.

Bom Junior, obrigado pelo retorno,

Eu preciso fazer um aplicativo mesmo entende, tem que ser algo automatizado…

Eu to tentando fazer em java porque tenho mais facilidade, mas me indicaram o Perl e Python…

Se tiverem alguma idéia que eu possa utilizar estarei aberto a sugestões… =D

Muito obrigado pela atenção…aguardo retorno de todos…

Att,
Annibal