warning 注意
此文章仅适用于 Python 语言,且仅用于学习交流
啥玩应是爬虫?
爬虫,又称为网页蜘蛛或网络机器人,是一种按照一定的规则,自动地抓取网络上信息的程序或者脚本。
被折叠的内容
keyboard_arrow_down可能带点东北口音,见谅! ❗
requests

requests是 Python 的一个第三方网络请求库,为避免错误,可以模拟浏览器的行为,进行网络请求,获取网络数据。
查看响应数据的三种方法
response.json() 键值对形式
response.text 字符串数据-获取文本
response.content 二进制数据-获取图片
关于 BeautifulSoup 库
BeautifulSoup 是一个可以从 HTML 文件中抓取数据的 Python 库

BeautifulSoup 对象的查找数据的方法
1.find() 方法:返回第一个符合条件的内容
2.find all() 方法:查找到所有符合条件的内容,返回一个列表
3.select() 方法:查找有特定标签、属性的元素,返回一个列表
一般来说,find all() 和 find() 方法较为普遍,select() 方法比较简洁
soup. select('标签名.class 值')
例:使用 Python 获取豆瓣某网页的源代码
以下代码可能用到的第三方库名 (已使用英文逗号隔开)
requests,bs4,lxml
'''
邮箱:hamo#return2017.cn(用 @替换 #)
如果有问题我很乐意让您联系!
您的设备可能需要装有 Python3.6 或更高版本
'''
#导入 requests 库和 bs4 库等 (非 Python 自带)
import requests
from bs4 import BeautifulSoup
#HTTP 请求头 (以系统 Windows10,Edge 浏览器为例)
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36 Edg/107.0.1418.56'}
#把豆瓣相关网址赋值到 url
url='https://music.douban.com/tag/民谣'
#使用 requests 模块获取网页源代码
response=requests.get(url,headers=headers)
#使用 print 函数显示豆瓣网页的源代码
print(response.text)
#创建 BeautifulSoup 对象,使用'lxml'解析方法
soup=BeautifulSoup(response.text,'lxml')
listResult=soup.select('tr.item')
#使用 print 函数显示含有'tr'标签的名为'item'的 class 的值
print(listResult)
#定义音乐名列表
musicNames=[]
#遍历 listResult 列表,使用 for in 循环,获取所有'a'标签里含有'title'的值
for result in listResult:
musicNames.append(result.select('a')[0]['title'])
#完成上述内容,并以列表的形式显示出爬虫获取到的内容
print(musicNames)
结尾
最后,送你一个练习题,可以试试看。
import requests
headers1 = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36 Edg/107.0.1418.56'}
#题目:使用 requests 发送 get 请求, 获取 url 为' http://www.baidu.com '的数据,
#并将响应数据的文本内容打印在控制台上哦
对了,如果有错误的地方,欢迎各位大佬指正
发表回复