如何从链接列表中创建wget -在下载两个文件(exam+correction)后按顺序等待,直到它们与pdfunite合并;删除它们并保留输出并重命名为1..7.pdf 等待10秒后仅下载2个文件,直到完成所有链接,因为它们具有相同的名称math.pdf和math.c.pdf它们复制了math.pdf.1等 for link in $(cat links.txt); do
wget $link
let counter++
if ! ((counter % 2)); then
sleep 10
fi
done
do
#math.pdf is
以下内容不起作用。
wget -r -A .pdf home_page_url
它以下列信息结束:
....
Removing site.com/index.html.tmp since it should be rejected.
FINISHED
我不知道为什么它只停留在启动url中,不要进入其中的链接来搜索给定的文件类型。
任何其他方式递归下载所有pdf文件在一个网站。?