设为首页
收藏本站
用户名
Email
自动登录
找回密码
密码
登录
注册
快捷导航
平台
Portal
论坛
BBS
文库
项目
群组
Group
我的博客
Space
搜索
搜索
热搜:
shell
linux
mysql
本版
用户
LinuxSir.cn,穿越时空的Linuxsir!
»
论坛
›
Linux 综合讨论区 —— LinuxSir.cn
›
Linux 基础讨论区(新手速成)
›
** 阅尽互联网,没找到答案(关于wget)…… ...
返回列表
查看:
1181
|
回复:
4
** 阅尽互联网,没找到答案(关于wget)……
[复制链接]
xishuig
xishuig
当前离线
积分
11
IP卡
狗仔卡
发表于 2007-6-19 00:15:43
|
显示全部楼层
|
阅读模式
Linux下没有现成的离线浏览器,一般是使用wget完成的。我看了很多文档,大同小异,都是讲些-p -r 什么的。确实-p参数可以下载显示网页所需的图片,不过只限于同一个站点的,如果这个网页是引用其它网站的图片的话,就是下不下来……
请教各位大侠,有办法利用wget的参数完成上面的要求吗,不行的话难道只能写shell了,有什么现成的软件不?
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
显身卡
roamingo
roamingo
当前离线
积分
236
IP卡
狗仔卡
发表于 2007-6-20 08:07:40
|
显示全部楼层
-H, --span-hosts go to foreign hosts when recursive.
别把整个web都下下来哦 ;-)
回复
支持
反对
使用道具
举报
显身卡
xishuig
xishuig
当前离线
积分
11
IP卡
狗仔卡
楼主
|
发表于 2007-6-20 10:26:33
|
显示全部楼层
太感谢了!现在回头一看原来man手册里就有,果然还是E文水平不够啊……
回复
支持
反对
使用道具
举报
显身卡
7dehao
7dehao
当前离线
积分
4968
IP卡
狗仔卡
发表于 2007-6-20 15:00:06
|
显示全部楼层
不过网站可以拒绝下载的。
回复
支持
反对
使用道具
举报
显身卡
trocket
trocket
当前离线
积分
47
IP卡
狗仔卡
发表于 2009-10-17 03:20:45
|
显示全部楼层
-e robots=off
回复
支持
反对
使用道具
举报
显身卡
返回列表
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
注册
本版积分规则
发表回复
回帖后跳转到最后一页
Copyright © 2002-2023
LinuxSir.cn
(http://www.linuxsir.cn/) 版权所有 All Rights Reserved.
Powered by
RedflagLinux!
技术支持:
中科红旗
|
京ICP备19024520号
快速回复
返回顶部
返回列表