Python语言技术文档

微信小程序技术文档

php语言技术文档

jsp语言技术文档

asp语言技术文档

C#/.NET语言技术文档

html5/css技术文档

javascript

点击排行

您现在的位置:首页 > 技术文档 > Python网络爬虫

Python使用urllib2模块抓取HTML页面资源的实例分享

来源:中文源码网    浏览:148 次    日期:2024-03-27 18:07:19
【下载文档:  Python使用urllib2模块抓取HTML页面资源的实例分享.txt 】


Python使用urllib2模块抓取HTML页面资源的实例分享
先把要抓取的网络地址列在单独的list文件中
//www.zwyuanma.com/article/83440.html
//www.zwyuanma.com/article/83437.html
//www.zwyuanma.com/article/83430.html
//www.zwyuanma.com/article/83449.html
然后我们来看程序操作,代码如下:
#!/usr/bin/python
import os
import sys
import urllib2
import re
def Cdown_data(fileurl, fpath, dpath):
if not os.path.exists(dpath):
os.makedirs(dpath)
try:
getfile = urllib2.urlopen(fileurl)
data = getfile.read()
f = open(fpath, 'w')
f.write(data)
f.close()
except:
print
with open('u1.list') as lines:
for line in lines:
URI = line.strip()
if '?' and '%' in URI:
continue
elif URI.count('/') == 2:
continue
elif URI.count('/') > 2:
#print URI,URI.count('/')
try:
dirpath = URI.rpartition('/')[0].split('//')[1]
#filepath = URI.split('//')[1].split('/')[1]
filepath = URI.split('//')[1]
if filepath:
print URI,filepath,dirpath
Cdown_data(URI, filepath, dirpath)
except:
print URI,'error'

相关内容