网站首页 > 技术文章 正文
本专栏不讲基础语法,语法可以通过官方文档去学习,没有比这更合适的了, 看懂本文,只需要学完快速上手部分即可。
或者很多作者都写了博客了,你也可以去看看,本文只针对学过requests基础语法的同学进行讲解,直接上案例,这样的效果才是最好的。
常用的抓取面的模块通常使用一个第三方模块requests, 这个模块的优势就是比urllib还要简单,并且处理各种请求都比较方便。
既然是第三方模块,那就需要我们对该模块进行安装,安装方法:
pip install requests
如果安装速度慢的话可以改用国内的源进行下载安装.
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple requests
OK. 接下来我们来看看requests能带给我们什么?我们先请求一下百度首页,一般的案例都是从这里开始的,俗称梦开始的地方:
案例1:请求百度首页源代码
import requests
url = "https://www.baidu.com/"
response = requests.get(url)
response.encoding = "utf-8"
print(response.text)
这样运行的话就把百度首页的html提取出来了。
案例2:搜狗搜索词,交互式返回结果
import requests
kw = input("请输入需要查询的内容")
url = f"https://www.sogou.com/web?query={kw}"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.102 Safari/537.36"
}
response = requests.get(url,headers = headers)
print(response.text) # 直接拿结果(文本)
with open("./sougou.html","w",encoding="utf-8") as f:
f.write(response.text)
案例3:提取百度翻译结果
接下来, 我们看一个稍微复杂那么一丢丢的, 百度翻译~注意百度翻译这个url不好弄出来. 记住, 在输入的时候, 关掉各种输入法,要用英文输入法, 然后不要回. 就能看到这个sug了
import requests
url = "https://fanyi.baidu.com/sug"
# 请注意百度翻译的sug这个url. 它是通过post方式进行提交的. 所以我们也要模拟post请求
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3884.400 QQBrowser/10.8.4560.400'
}
word = input("请输入需要查询的词")
data = {
'kw':word # 这里要和抓包工具里的参数一致.
}
response = requests.post(url,data=data)
dic_obj = response.json() # 返回值是json 那就可以直接解析成json
# print(dic_obj) # 拿到返回字典中的内容
# print(dic_obj['data'][0]["v"])
for mean in dic_obj["data"]:
print(mean["v"])
案例4:豆瓣电影ajax页面提取
是不是很顺手呢? 还有一些网站在进行请求的时候会校验你的客户端设备型号. 比如, 我们抓取豆瓣电影,我们构造了一个字典params来请求:网址是豆瓣电影分类排行榜 - 爱情片,你会发现,往下划的过程中一直都会动态加载:
import requests
url = "https://movie.douban.com/j/chart/top_list"
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3884.400 QQBrowser/10.8.4560.400'
}
for i in range(0,100,20):
params ={
'type': '13',
'interval_id': '100:90',
'action': '',
'start': f'{i}',
'limit': '20'
}
response = requests.get(url,params=params,headers=headers)
dic_obj= response.json()
for dic in dic_obj:
print(dic['title'])
案例5:爬取腾讯新闻24小时最新内容,
这个也是需要构造一个params字典,然后解析json爬取,一般动态加载的都是用的这种方法:
import requests
url = "https://i.news.qq.com/trpc.qqnews_web.kv_srv.kv_srv_http_proxy/list"
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3884.400 QQBrowser/10.8.4560.400'
}
for i in range(0,100,20):
params = {
'sub_srv_id': '24hours',
'srv_id': 'pc',
'offset': f'{i}',
'limit': '20',
'strategy': '1',
'ext': '{"pool":["top"],"is_filter":7,"check_type":true}'
}
response = requests.get(url, params=params, headers=headers)
dic_obj = response.json()
# print(dic_obj)
for dic in dic_obj["data"]["list"]:
print(dic['title'],dic["url"])
欢迎关注我,带你从零开始学爬虫。
猜你喜欢
- 2025-05-11 四个小案例,学懂Python爬虫的requests库
- 2025-05-11 干货!最简单的检测爬虫突破封禁的方法
- 2025-05-11 SNAT/DNAT实现外网访问内网
- 2025-05-11 PHP类Web网站适应移动设备十贴士
- 2025-05-11 DrissionPage:让你的 Python 爬虫和自动化脚本飞起来!
- 2025-05-11 vue 如何实现跨域
- 2025-05-11 这个前端黑科技可能是YouTube比B站、优酷、爱奇艺加载快的原因
- 2025-05-11 还在用 postman?手把手教你用 curl 提高工作效率
- 2025-05-11 搭建网站SEO优化技巧:从小白到流量高手的蜕变之路
- 2025-05-11 Selenium自动化程序被检测为爬虫,怎么屏蔽和绕过
- 05-11CSS:前端必会的flex布局,我把布局代码全部展示出来了
- 05-11Moti:React Native 动画库的新标杆
- 05-11前端开发避坑指南:每天都能用的 CSS3/Less/Sass 实战技巧
- 05-11HarmonyOS:ArkTS 多态样式自学指南
- 05-115 分钟快速上手图形验证码,防止接口被恶意刷量!
- 05-11网页五指棋游戏
- 05-11告别长文焦虑!AI帮你“秒划重点”,文章秒变知识卡片
- 05-11鸿蒙NEXT小游戏开发:数字华容道
- 最近发表
- 标签列表
-
- cmd/c (64)
- c++中::是什么意思 (83)
- 标签用于 (65)
- 主键只能有一个吗 (66)
- c#console.writeline不显示 (75)
- pythoncase语句 (81)
- es6includes (73)
- sqlset (64)
- windowsscripthost (67)
- apt-getinstall-y (86)
- node_modules怎么生成 (76)
- chromepost (65)
- localstorage.removeitem (74)
- vector线程安全吗 (70)
- & (66)
- java (73)
- org.redisson (64)
- js数组插入 (83)
- gormwherein (64)
- linux删除一个文件夹 (65)
- mac安装java (72)
- outofmemoryerror是什么意思 (64)
- eacces (67)
- 查看mysql是否启动 (70)
- 无效的列索引 (74)