Baixar aqruivos de um site

Galera sou totalmente novo na parte web de java e queria saber primeiro se é possível fazer isso aqui:
Eu tenho um cliente que todo dia envia para mim um link que eu tenho que entrar e baixar uns arquivos.
Eu queria fazer um programinha simples que pedisse para mim digitar o link, e após isso ele entraria no site e faz o donwload dos arquivos automaticamente.
até procurei como fazer para salvar a página em um bufferedreader, mas não sei como fazer para baixar os arquivos, são arquivos .rar que não tem um padrão de nome ou quantidade, tem dia que podem ter 4 arquivos, outros dias podem ter 6 ou 8, eu queria que após eu digitar o link no programa ele baixe TUDO que for .rar
se isso for possível alguem pode me indicar na direção certa para fazer?

obrigado desde já

A ideia básica de como resolver seu problema é:
1-Utilizar a classe URL para se conectar ao link.
2-Pegar a pagina resposta e passar um REGEX procurando estensões .rar por exemplo, adicione isso numa lista.
Faça o procedimento 1 para cada link e busque o arquivo.

Exemplo de como utilizar a classe URL para se conectar a um link

URL url;
    InputStream is = null;
    BufferedReader br;
    String line;

    try {
        url = new URL("http://www.guj.com.br/");
        is = url.openStream();  // throws an IOException
        br = new BufferedReader(new InputStreamReader(is));

        while ((line = br.readLine()) != null) {
            System.out.println(line);
        }
    } catch (MalformedURLException mue) {
         mue.printStackTrace();
    } catch (IOException ioe) {
         ioe.printStackTrace();
    } finally {
        try {
            is.close();
        } catch (IOException ioe) {
            // nothing to see here
        }
    }