LinuxSir.cn,穿越时空的Linuxsir!

 找回密码
 注册
搜索
热搜: shell linux mysql
查看: 1735|回复: 2

urllib.urlretrieve()的问题

[复制链接]
发表于 2005-6-17 16:14:54 | 显示全部楼层 |阅读模式
大家好,

我正在用python写一个下载网易相册的小程序,源代码在这里 。现在遇到一个奇怪的问题。主程序执行到下面这个函数时:
  1. def download_pic ( pic ):
  2.         """Download picture.

  3.         @todo: need integrity validation and retry facility. (emergent)
  4.         """
  5.         name = pic['name']
  6.         url = pic['url']
  7.         print "download \'"+url+"\' and save as'"+name+"\'. wait...",
  8.         start_time = time.time()
  9.         urllib.urlretrieve(url,name)
  10.         run_time = time.time()-start_time
  11.         print "done! time: %.1f seconds" % run_time
复制代码

速度非常慢,我下载一个80k大小的图片需要花费约15秒的时间。而单独运行这个函数下载同样的图片(其中目录名及文件名由于隐私问题隐去):
>>> import down163
>>> pic
{'url': 'http://img109.photo.163.com/xxxxx/111111111/222222222.jpg', 'name': 'test.jpg'}
>>> down163.download_pic(pic)
download 'http://img109.photo.163.com/xxxxxx/111111111/222222222.jpg' and save as'test.jpg'. wait...
done! time: 0.2 seconds

则如输出信息所示,只需要0.2秒。现在我很迷惑,有谁能指点一下原因啊?
发表于 2005-6-17 21:04:48 | 显示全部楼层
啊…… liutao @ lilybbs? 怎么和 Lv 一样选了只猫猫做头像?python?莫非?
回复 支持 反对

使用道具 举报

 楼主| 发表于 2005-6-20 12:01:11 | 显示全部楼层
我跟Lv不是同一个人~我是学生物信息学的。
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部 返回列表