中文源码网
欢迎您!
会员登录
会员注册
发布自媒体
发布模版
发布源码
发布模版
发布酷站
推荐源码
常用源码
帮助中心
栏目导航
热门搜索:
网站首页
免费源码
精品源码
html模版
精品模版
酷站大全
技术文档
方案大全
网络教程
站长自媒体
新闻动态
帮助中心
免费源码下载
asp源码
php源码
python源码
.net源码
jsp源码
JS特效
安卓源码
IOS源码
微信小程序下载
毕业设计源码下载
模版下载
商城模版
手机wap模版
网络教程
html5教程
asp教程
php教程
jsp教程
Python语言技术文档
python入门
Python编程技巧
Python网站web
Python网络爬虫
Python自动化运维
数据挖掘/机器学习
Python人工智能
Python多媒体
Python科学计算
Python游戏开发
Python图形界面
Python数据库相关
Python与其他语言
Python库/模块大全
Python报错处理大全
微信小程序技术文档
微信小程序开发入门
微信小程序开发技巧
微信游戏开发
微信公众号开发
微信常用源码
php语言技术文档
php入门教程
php技巧
php函数/类库
php框架
php+AJAX技巧
开源系统及二次开发
PHP内核
jsp语言技术文档
jsp入门教程
jsp技巧
jsp框架
asp语言技术文档
asp入门教程
asp技巧
asp函数/类库
C#/.NET语言技术文档
C#/.NET入门教程
C#/.NET技巧
MVC/.NET框架
C#/.NET微信开发
程序报错解决方法
html5/css技术文档
html5
CSS
javascript
javascript技巧
jquery
json
ajax
js框架/js库
点击排行
总结PHP中初始化空数组的最佳方法
在PHP中输出JS语句以及乱码问题的解决方案
原生PHP实现导出csv格式Excel文件的方法示例【附源码下载】
用PHP的反射实现委托模式的讲解
详解提高使用Java反射的效率方法
详解关于php的xdebug配置(编辑器vscode)
详解php中生成标准uuid(guid)的方法
详解php中curl返回false的解决办法
详解php用static方法的原因
详解php伪造Referer请求反盗链资源
详解PHP素材图片上传、下载功能
详解PHP实现支付宝小程序用户授权的工具类
详解PHP神奇又有用的Trait
详解PHP队列的实现
详解PHP的抽象类和抽象方法以及接口总结
您现在的位置:
首页
>
技术文档
>
Python网络爬虫
我要投稿
详解Python爬取并下载《电影天堂》3千多部电影
来源:
中文源码网
浏览:1256 次 日期:2024-04-26 00:59:36
【下载文档:
详解Python爬取并下载《电影天堂》3千多部电影.txt
】
详解Python爬取并下载《电影天堂》3千多部电影
不知不觉,玩爬虫玩了一个多月了。
我愈发觉得,爬虫其实并不是什么特别高深的技术,它的价值不在于你使用了什么特别牛的框架,用了多么了不起的技术,它不需要。它只是以一种自动化搜集数据的小工具,能够获取到想要的数据,就是它最大的价值。
我的爬虫课老师也常跟我们强调,学习爬虫最重要的,不是学习里面的技术,因为前端技术在不断的发展,爬虫的技术便会随着改变。学习爬虫最重要的是,学习它的原理,万变不离其宗。
爬虫说白了是为了解决需要,方便生活的。如果能够在日常生活中,想到并应用爬虫去解决实际的问题,那么爬虫的真正意义也久发挥出来了。
这是些闲话啦,有感而发而已。
最近有点片荒,不知道该看什么电影,而且有些电影在网上找好久也找不到资源。后来我了解到这个网站,发现最近好多不错的电影上面都有资源(这里我就先不管它的来源正不正规啦,#掩面)。
所以这次我们要爬取的网站是:《电影天堂》,屯一些电影,等无聊的时候拿出来看看,消遣消遣也是不错。
这次的网站,从爬虫的技术角度上来讲,难度不大,而且可以说是非常简单了。但是,它实用啊!你想嘛,早上上班前跑一下爬虫,晚上回家以后已经有几十部最新大片在你硬盘里等着你啦,累了一天躺床上看看电影,这种感觉是不是很爽啊。
而且正因为这个爬虫比较简单,所以我会写的稍微细一点,争取让 python 小白们也能尽可能看懂,并且能够在这个爬虫的基础上修改,得到爬取这个网站其他板块或者其他电影网站的爬虫。
写在前面的话
在编写爬虫程序之前,我先捋一捋我们的思路。
爬虫的原理,是通过给定的一个 URL(就是类似于 http://www.baidu.com 这样的,俗称网址的东东) 请求,去访问一个网页,获取那个网页上的源代码(不知道源代码的,随便打开一个网页,右键,查看网页源代码,出来的一大堆像乱码一样的东西就是网页源代码,我们需要的数据就藏在这些源代码里面)并返回来。
然后,通过一些手段(比如说json库,BeautifulSoup库,正则表达式等)从网页源代码中筛选出我们想要的数据(当然,前提是我们需要分析网页结构,知道自己想要什么数据,以及这些数据存放在网页的哪儿,存放的位置有什么特征等)。
最后,将我们获取到的数据按照一定的格式,存储到本地或者数据库中,这样就完成了爬虫的全部工作。
当然,也有一些 「骚操作」,如果你嫌爬虫效率低,可以开多线程(就是相当于几十只爬虫同时给你爬,效率直接翻了几十倍);如果担心爬取频率过高被网站封 IP,可以挂 IP 代理(相当于打几枪换个地方,对方网站就不知道你究竟是爬虫还是正常访问的用户了);如果对方网站有反爬机制,那么也有一些骚操作可以绕过反爬机制(有点黑客攻防的感觉,有木有!)。这些都是后话了。
爬虫部分
一、分析网站结构(以动作片电影为例)
1. 分析网页的 URL 的组成结构
首先,我们需要分析网页的 URL 的组成结构,主要关注两方面,一是如何切换选择的电影类型,二是网页如何翻页的。
点击网页上的电影类型的按钮,观察地址栏中的 URL ,发现网址和电影类型的关系如下:
电影类型
网址
剧情片
http://www.dy2018.com/0/
喜剧片
http://www.dy2018.com/1/
动作片
http://www.dy2018.com/2/
爱情片
http://www.dy2018.com/3/
科幻片
http://www.dy2018.com/4/
动画片
http://www.dy2018.com/5/
悬疑片
http://www.dy2018.com/6/
惊悚片
http://www.dy2018.com/7/
恐怖片
http://www.dy2018.com/8/
记录片
http://www.dy2018.com/9/
......
......
灾难片
http://www.dy2018.com/18/
武侠片
http://www.dy2018.com/19/
古装片
http://www.dy2018.com/20/
发现规律了吧,以后如果想爬其他类型的电影,只要改变 url 中的数字即可,甚至你可以写一个循环,把所有板块中的电影全部爬取下来。
随便打开一个分类,我们滚动到页面的最下面,发现这里有翻页的按钮,点击按钮翻页的同时,观察 url 的变化。
页码
URL
第一页
http://www.dy2018.com/2/index.html
第二页
http://www.dy2018.com/2/index_2.html
第三页
http://www.dy2018.com/2/index_3.html
第四页
http://www.dy2018.com/2/index_4.html
除了第一页是 「index」外,其余页码均是 「index_页码」的形式。
所以我们基本掌握了网站的 url 的构成形式,这样我们就可以通过自己构造 url 来访问任意类型电影的任意一页了,是不是很酷。
2. 分析网站的页面结构
其次,我们分析一下网站的页面结构,看一看我们需要的信息都藏在网页的什么地方(在这之前我们先要明确一下我们需要哪些数据),由于我们这个目的是下载电影,所以对我有用的数据只有两个,电影名称和下载电影的磁力链接。
按 F12 召唤出开发者工具(这个工具可以帮助你快速定位网页中的元素在 html 源代码中位置)。
然后,我们可以发现,电影列表中,每一部电影的信息存放在一个
标签里,而电影的名字,就藏在里面的一个
标签中。电影下载的磁力链接在电影的详情页面,而电影详情页面的网址也在这个
标签中( href 属性的值)。
而下载的磁力链接,存放在
标签下的
标签中,是不是很好找啊!
最后我们来缕一缕思路,一会儿我们准备这样操作:通过前面的网址的构造规则,访问到网站的某一页,然后获取到这个页面里的所有 table 标签(这里存放着电影的数据),然后从每一个 table 标签中找到存有电影名称的 a 标签(这里可以拿到电影名称以及详情页面的网址),然后通过这里获取的网址访问电影的详情页面,在详情页面挑选出
标签下的
标签(这里存放着电影的下载链接),这样我们就找到了我们所需要的全部数据了,是不是很简单啊。
二、爬虫编码阶段
爬虫的程序,我一般习惯把它分成五个部分, 一是主函数,作为程序的入口,二是爬虫调度器,三是网络请求函数,四是网页解析函数,五是数据存储函数。
get_data :其参数是目标网页 url,这个函数可以模拟浏览器访问 url,获取并将网页的内容返回。
parse_data :其参数是网页的内容,这个函数主要是用来解析网页内容,筛选提取出关键的信息,并打包成列表返回。
save_data :其参数是数据的列表,这个函数用来将列表中的数据写入本地的文件中。
main :这个函数是爬虫程序的调度器,可以根据事先分析好的 url 的规则,不断的构造新的请求 url,并调用其他三个函数,获取数据并保存到本地,直到结束。
if __name__ == '__main__' :这是主程序的入口,在这里调用 main 函数,启动爬虫调度器即可。
# 我们用到的库
import requests
import bs4
import re
import pandas as pd
1. 网络请求函数 :get_data (url)
负责访问指定的 url 网页,并将网页的内容返回,此部分功能比较简单固定,一般不需要做修改(除非你要挂代理,或者自定义请求头等,可以做一些相应的调整)。
def get_data(url):
'''
功能:访问 url 的网页,获取网页内容并返回
参数:
url :目标网页的 url
返回:目标网页的 html 内容
'''
headers = {
'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',
}
try:
r = requests.get(url, headers=headers)
r.raise_for_status()
return r.text
except requests.HTTPError as e:
print(e)
print("HTTPError")
except requests.RequestException as e:
print(e)
except:
print("Unknown Error !")
2. 网页解析函数:parse_data(html)
这个函数是整个爬虫程序的核心所在,整体思路在上一部分已经讲过了。我这里使用的库是 BeautifulSoup。
这部分的写法多种多样,有很多发挥的空间,也没有什么太多固定的模式,因为这部分的写法是要随着不同网站的页面结构来做调整的,比如说有的网站提供了数据的 api 接口,那么返回的数据就是 json 格式,我们只需要调用 json 库就可以完成数据解析,而大部分的网站只能通过从网页源代码中一层层筛选(筛选手段也多种多样,什么正则表达式,beautifulsoup等等)。
这里需要根据数据的形式来选择不同的筛选策略,所以,知道原理就可以了,习惯什么方法就用什么方法,反正最后能拿到数据就好了。
def parse_data(html):
'''
功能:提取 html 页面信息中的关键信息,并整合一个数组并返回
参数:html 根据 url 获取到的网页内容
返回:存储有 html 中提取出的关键信息的数组
'''
bsobj = bs4.BeautifulSoup(html,'html.parser')
info = []
# 获取电影列表
tbList = bsobj.find_all('table', attrs = {'class': 'tbspan'})
# 对电影列表中的每一部电影单独处理
for item in tbList:
movie = []
link = item.b.find_all('a')[1]
# 获取电影的名称
name = link["title"]
# 获取详情页面的 url
url = 'http://www.dy2018.com' + link["href"]
# 将数据存放到电影信息列表里
movie.append(name)
movie.append(url)
try:
# 访问电影的详情页面,查找电影下载的磁力链接
temp = bs4.BeautifulSoup(get_data(url),'html.parser')
tbody = temp.find_all('tbody')
# 下载链接有多个(也可能没有),这里将所有链接都放进来
for i in tbody:
download = i.a.text
movie.append(download)
#print(movie)
# 将此电影的信息加入到电影列表中
info.append(movie)
except Exception as e:
print(e)
return info
3. 数据存储函数:save_data(data)
这个函数目的是将数据存储到本地文件或数据库中,具体的写法要根据实际需要的存储形式来定,我这里是将数据存放在本地的 csv 文件中。
当然这个函数也并不只能做这些事儿,比如你可以在这里写一些简单的数据处理的操作,比如说:数据清洗,数据去重等操作。
def save_data(data):
'''
功能:将 data 中的信息输出到文件中/或数据库中。
参数:data 将要保存的数据
'''
filename = 'Data/电影天堂/动作片.csv'
dataframe = pd.DataFrame(data)
dataframe.to_csv(filename, mode='a', index=False, sep=',', header=False)
4. 爬虫调度器:main()
这个函数负责根据 url 生成规则,构造新的 url 请求,然后依次调用网络请求函数,网页解析函数,数据存储函数,爬取并保存该页数据。
所谓爬虫调度器,就是控制爬虫什么时候开始爬,多少只爬虫一起爬,爬哪个网页,爬多久休息一次,等等这些事儿。
def main():
# 循环爬取多页数据
for page in range(1, 114):
print('正在爬取:第' + str(page) + '页......')
# 根据之前分析的 URL 的组成结构,构造新的 url
if page == 1:
index = 'index'
else:
index = 'index_' + str(page)
url = 'http://www.dy2018.com/2/'+ index +'.html'
# 依次调用网络请求函数,网页解析函数,数据存储函数,爬取并保存该页数据
html = get_data(url)
movies = parse_data(html)
save_data(movies)
print('第' + str(page) + '页完成!')
5. 主函数:程序入口
主函数作为程序的入口,只负责启动爬虫调度器。
这里我一般习惯在 main() 函数前后输出一条语句,以此判断爬虫程序是否正常启动和结束。
if __name__ == '__main__':
print('爬虫启动成功!')
main()
print('爬虫执行完毕!')
三、程序运行结果
运行了两个小时左右吧,终于爬完了 113 页,共 3346 部动作片电影的数据(本来不止这些的,但是有一些电影没有提供下载链接,我在 excel 中排序后直接手动剔除了)。
然后想看什么电影的话,直接复制这些电影下载的磁力链接,到迅雷里面下载就好啦。
四、爬虫程序的一些小优化
1. 在网站提供的下载链接中,我试了一下,发现 magnet 开头的这类链接放在迅雷中可以直接下载,而 ftp 开头的链接在迅雷中总显示资源获取失败(我不知道是不是我打开的方式不对,反正就是下载不来),于是我对程序做了一些小的调整,使其只获取 magnet 这类的链接。
修改的方式也很简单,只需要调整 网页解析函数 即可(爬虫的五个部分是相对独立的,修改时只需调整相应的模块即可,其余部分无需修改)。
def parse_data(html):
'''
功能:提取 html 页面信息中的关键信息,并整合一个数组并返回
参数:html 根据 url 获取到的网页内容
返回:存储有 html 中提取出的关键信息的数组
'''
bsobj = bs4.BeautifulSoup(html,'html.parser')
info = []
# 获取表头信息
tbList = bsobj.find_all('table', attrs = {'class': 'tbspan'})
for item in tbList:
movie = []
link = item.b.find_all('a')[1]
name = link["title"]
url = 'http://www.dy2018.com' + link["href"]
try:
# 查找电影下载的磁力链接
temp = bs4.BeautifulSoup(get_data(url),'html.parser')
tbody = temp.find_all('tbody')
for i in tbody:
download = i.a.text
if 'magnet:?xt=urn:btih' in download:
movie.append(name)
movie.append(url)
movie.append(download)
#print(movie)
info.append(movie)
break
except Exception as e:
print(e)
return info
注意代码 26 行处,我加了一个 if 语句的判断,如果下载链接中包含 magnet:?xt=urn:btih 字符串,则视为有效链接,下载下来,否则跳过。
2. 我一直在想能不能有个办法让迅雷一键批量下载我们爬到的电影。使用 python 操纵第三方的软件,这其实挺难的。不过后来找到了一种方法,也算是解决了这个问题。
就是我们发现迅雷软件启动后,会自动检测我们的剪切板,只要我们复制了下载链接,它便会自动弹出下载的提示框。借助这个思路,我们可以使用代码,将下载的链接复制进入剪切板,等下载框自动出现后,手动确认开始下载(这是我目前想到的最好的办法了,不知道各位大佬有没有更好的思路,欢迎指导交流)。
import pyperclip
import os
import pandas as pd
imageData = pd.read_csv("Data/电影天堂/动作片2.csv",names=['name','link','download'],encoding = 'gbk')
# 获取电影的下载链接,并用换行符分隔
a_link = imageData['download']
links = '\n'.join(a_link)
# 复制到剪切板
pyperclip.copy(links);
print('已粘贴');
# 打开迅雷
thunder_path = r'D:\Program Files (x86)\Thunder Network\Thunder9\Program\Thunder.exe'
os.startfile(thunder_path)
亲测可以实现,但是。。。不建议尝试(你能想象迅雷打开的一瞬间创建几百个下载任务的场景吗?反正我的电脑是缓了好久好久才反应过来)。大家还是老老实实的,手动复制链接下载吧(csv文件可以用 excel 打开,竖着选中一列,然后复制,也能达到相同的效果) ,这种骚操作太蠢了还是不要试了。
写在后面的话
啰啰嗦嗦的写了好多,也不知道关键的问题讲清楚了没有。有哪里没讲清楚,或者哪里讲的不合适的话,欢迎骚扰。
其实吧,写文章,写博客,写教程,都是一个知识重新熔炼内化的过程,在写这篇博客的时候,我也一直在反复审视我学习爬虫的过程,以及我爬虫代码一步步的变化,从一开始的所有代码全部揉在主函数中,到后来把一些变动较少的功能提取出来,写成单独的函数,再到后来形成基本稳定的五大部分。
以至于在我后来学习使用 scrapy 框架时候,惊人的发现 scrapy 框架的结构跟我的爬虫结构有着异曲同工之妙,我的这个相当于是一个简易版的爬虫框架了,纯靠自己摸索达到这个效果,我感觉还是挺有成就感的。
以上所述是小编给大家介绍的Python爬取并下载《电影天堂》3千多部电影详解整合,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对中文源码网网站的支持!
上一篇:
详解Selenium+PhantomJS+python简单实现爬虫的功能
下一篇:
详解python爬虫系列之初识爬虫
相关内容
•
在scrapy中使用phantomJS实现异步爬取的方法
•
用xpath获取指定标签下的所有text的实例
•
用python爬取租房网站信息的代码
•
用Python爬取QQ音乐评论并制成词云图的实例
•
用python3 urllib破解有道翻译反爬虫机制详解
•
一步步教你用python的scrapy编写一个爬虫
•
选择Python写网络爬虫的优势和理由
•
详解用python写网络爬虫-爬取新浪微博评论
•
详解Selenium+PhantomJS+python简单实现爬虫的功能
•
详解Python爬取并下载《电影天堂》3千多部电影
•
详解python爬虫系列之初识爬虫
•
详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果
•
详解python3 + Scrapy爬虫学习之创建项目
•
详解Python 爬取13个旅游城市,告诉你五一大家最爱去哪玩?
•
详解python 爬取12306验证码
•
详解python selenium 爬取网易云音乐歌单名
•
通过python爬虫赚钱的方法
•
使用selenium和pyquery爬取京东商品列表过程解析
•
使用Scrapy爬取动态数据
•
使用python实现抓取腾讯视频所有电影的爬虫
•
使用python爬取微博数据打造一颗“心”
•
使用python爬取抖音视频列表信息
•
使用python itchat包爬取微信好友头像形成矩形头像集的方法
•
如何使用python爬虫爬取要登陆的网站
•
如何爬取通过ajax加载数据的网站
•
浅谈Scrapy网络爬虫框架的工作原理和数据采集
•
浅谈Python爬虫基本套路
•
利用selenium爬虫抓取数据的基础教程
•
利用Python检测URL状态
•
利用Pyhton中的requests包进行网页访问测试的方法
•
利用PyCharm Profile分析异步爬虫效率详解
•
检测python爬虫时是否代理ip伪装成功的方法
•
几行Python代码爬取3000+上市公司的信息
•
基于python历史天气采集的分析
•
基于python框架Scrapy爬取自己的博客内容过程详解
•
基于Python的Post请求数据爬取的方法详解
•
基于Python打造账号共享浏览器功能
•
搞定这套Python爬虫面试题(面试会so easy)
•
对python3中的RE(正则表达式)-详细总结
•
超简单的Python HTTP服务
•
windows下搭建python scrapy爬虫框架步骤
•
windows7 32、64位下python爬虫框架scrapy环境的搭建方法
•
selenium+python设置爬虫代理IP的方法
•
selenium+PhantomJS爬取豆瓣读书
•
Scrapy框架爬取西刺代理网免费高匿代理的实现代码
•
Scrapy框架爬取Boss直聘网Python职位信息的源码
•
python做反被爬保护的方法
•
python抓取网页内容并进行语音播报的方法
•
Python中利用aiohttp制作异步爬虫及简单应用
•
python中xpath爬虫实例详解
•
Python正则匹配判断手机号是否合法的方法
•
python正则爬取某段子网站前20页段子(request库)过程解析
•
python正则表达式去除两个特殊字符间的内容方法
•
Python正则表达式匹配字符串中的http链接方法
•
Python正则表达式匹配日期与时间的方法
•
Python正则表达式匹配和提取IP地址
•
python正则表达式匹配不包含某几个字符的字符串方法
•
python正则表达式匹配[]中间为任意字符的实例
•
python正向最大匹配分词和逆向最大匹配分词的实例
•
python用match()函数爬数据方法详解
•
python协程gevent案例 爬取斗鱼图片过程解析
•
Python微信爬虫完整实例【单线程与多线程】
•
Python网页正文转换语音文件的操作方法
•
Python网络爬虫之爬取微博热搜
•
Python通过requests实现腾讯新闻抓取爬虫的方法
•
Python数据抓取爬虫代理防封IP方法
•
Python使用Selenium爬取淘宝异步加载的数据方法
•
Python使用scrapy爬取阳光热线问政平台过程解析
•
python使用requests模块实现爬取电影天堂最新电影信息
•
Python使用mongodb保存爬取豆瓣电影的数据过程解析
•
python使用BeautifulSoup与正则表达式爬取时光网不同地区top100电影并对比
•
Python使用Beautiful Soup爬取豆瓣音乐排行榜过程解析
•
python实现知乎高颜值图片爬取
•
python实现爬山算法的思路详解
•
Python实现爬取亚马逊数据并打印出Excel文件操作示例
•
Python实现爬取马云的微博功能示例
•
python实现爬取百度图片的方法示例
•
python实现爬虫抓取小说功能示例【抓取金庸小说】
•
Python实现的文轩网爬虫完整示例
•
Python实现的爬取小说爬虫功能示例
•
python实现的爬取电影下载链接功能示例
•
Python实现的爬取百度文库功能示例
•
Python实现的爬取百度贴吧图片功能完整示例
•
Python实现12306火车票抢票系统
•
Python如何爬取微信公众号文章和评论(基于 Fiddler 抓包分析)
•
python如何爬取网站数据并进行数据可视化
•
Python如何爬取实时变化的WebSocket数据的方法
•
python批量爬取下载抖音视频
•
Python爬取智联招聘数据分析师岗位相关信息的方法
•
python爬取指定微信公众号文章
•
python爬取学信网登录页面的例子
•
python爬取微信公众号文章的方法
•
python爬取网易云音乐评论
•
python爬取淘宝商品销量信息
•
Python爬取数据保存为Json格式的代码示例
•
Python爬取视频(其实是一篇福利)过程解析
•
Python爬取商家联系电话以及各种数据的方法
•
python爬取盘搜的有效链接实现代码
•
python爬取内容存入Excel实例
•
python爬取酷狗音乐排行榜
•
python爬取基于m3u8协议的ts文件并合并
•
Python爬取成语接龙类网站
•
python爬取百度贴吧前1000页内容(requests库面向对象思想实现)
•
python爬取cnvd漏洞库信息的实例
•
python爬取Ajax动态加载网页过程解析
•
python爬虫租房信息在地图上显示的方法
•
Python爬虫抓取技术的一些经验
•
python爬虫之自制英汉字典
•
python爬虫之自动登录与验证码识别
•
Python爬虫之正则表达式的使用教程详解
•
python爬虫之验证码篇3-滑动验证码识别技术
•
python爬虫之爬取百度音乐的实现方法
•
python爬虫之快速对js内容进行破解
•
Python爬虫之UserAgent的使用实例
•
python爬虫之urllib库常用方法用法总结大全
•
python爬虫之urllib,伪装,超时设置,异常处理的方法
•
python爬虫增加访问量的方法
•
Python爬虫运用正则表达式的方法和优缺点
•
Python爬虫学习之获取指定网页源码
•
Python爬虫学习之翻译小程序
QQ客服
公众号
手机版
帮助中心