ну, в принципе это должна быть программа автономной закачки. Если найдутся желающие посоучаствовать, можно такое собрать.
У меня есть работающий Perl-овый кусок, который скачивает указанную страницу с сервера и кладет в указанный каталог.
Это программка-робот, она у меня живет на сервере, и работает по крону (crond)
Легко превратить ее в cgi c web-управлением
Если нужно скачивать не файл, а сайты целиком, то не отзовется ли кто-нибудь, кто *писал функции обхода сайта со сбором ссылок?
Код:

#!/usr/local/bin/perl
use IO::Socket;
$informer="место, куда кладем на нашем сервере";
$doc="адрес документа на удаленном сервере, например /qq.txt";
$remote = IO::Socket::INET->new (Proto=> "tcp",
* * * * * * * * * * * * * * * * PeerAddr => "адрес их сервера",
* * * * * * * * * * * * * * * * PeerPort => "порт их сервера",
* * * * * * * * * * * * * * * *) or die "cannot connect to http port at localhost";
print $remote "GET $doc HTTP/1.0\n\n"; # запрос
#открываем файл на запись
open(QQ, ">$informer")|| die("cannot print to data's file $fname");
while (<$remote>)
{
if($_ eq "\n") {$start=1;}
if($start==1) {#chomp(); #$m=$_;}
*$m=$_;
*# ну, я там дальше на ходу редактирую файл,
*# у меня это все получает погодный информер,
*# переделывает и пишет себе
*# а то можно обойтись $_
* print QQ $m || die("cannot write to file"); *
*}#fi
}
close (QQ); # закрыли наш файл
close $remote; # закрыли соединение
[s]Исправлено:
mar, 0:36 6-01-2003[/s]