1、准备环境
工欲善其事,必先装好环境,耐心地把下面的环境装好。
pip install pandas
pip install bs4
pip install selenium
2、详细爬取过程
2.1 分析待爬取网页
2.2 利用Selenium提取数据
(1)打开网页
运行下面代码,会自动弹出Chrome浏览器的窗口;如果用的
browser = webdriver.PhantomJS()
,则没有窗口出来。浏览器的窗口出来后,可以看到,它加载出我们的页面了。
import datetime
import pandas as pd
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
'''
想要学习Python?Python学习交流群:1004391443满足你的需求,资料都已经上传群文件,可以自行下载!
'''
# 打开chrome浏览器(需提前安装好chromedriver)
browser = webdriver.Chrome()
# browser = webdriver.PhantomJS()
print("正在打开网页...")
browser.get("http://123.127.175.45:8082/")
(2)得到页面源码
网页完成后打开完成后,还需要等待一下它的加载,只有等数据加载完成,我们才能去获取它的HTML页面源码。
print("等待网页响应...")
# 需要等一下,直到页面加载完成
wait = WebDriverWait(browser, 10)
wait.until(EC.presence_of_element_located((By.CLASS_NAME, "grid")))
print("正在获取网页数据...")
soup = BeautifulSoup(browser.page_source, "lxml")
browser.close()
(3)定位数据
通过CSS选择器定位到我们的表头数据和表数据
# 表头和表数据
data_head = soup.select(".panel-heading")[0]
grid_data = soup.select(".grid")[0]
# 得到表头数据
data_colhead = data_head.findAll("td")
data_rows = grid_data.findAll("tr")
# 据表头生成数据表
water_df = pd.DataFrame(columns=[c.text for c in data_colhead])
我们查看
water_df
可以得到如下数据表头:
(4)提取数据
上面我们从表数据中的
tr
标签获得所有数据行后,将其所有数据提取出来,添加到我们前面定义好的
water_df
中。
print("提取网页数据中...")
for i, data_row in enumerate(data_rows):
# 以名字为地名和时间标识符,以防止数据重复
water_loc = water_df.iloc[:, 0].values
water_date = water_df.iloc[:, 1].values
row_dat = [r.text for r in data_row]
water_df.loc[i] = row_dat
查看我获取的数据前5行,如下表
断面名称 | 测量时间 | pH | 溶解氧 | 氨氮 | 高锰酸盐指数 | 总有机碳 | 水质类别 | 断面属性 | 站点情况 | |
---|---|---|---|---|---|---|---|---|---|---|
0 | 四川攀枝花龙洞 | 2019-01-22 12:00 | 7.98 | 10.72 | 0.05 | — | — | I | 仪器故障 | |
1 | 四川宜宾凉姜沟 | 2019-01-22 12:00 | 7.75 | 10.77 | 0.07 | 2.18 | — | II | 入长江前 | 正常 |
2 | 云南红河州河口 | 2019-01-22 12:00 | 7.41 | 9.09 | 0.21 | 3.4 | — | II | 中-越出境 | 仪器故障 |
3 | 云南昆明观音山 | 2019-01-22 12:00 | 8.51819 | 8.69207 | 0.27 | 7.51 | — | IV | 湖体 | 正常 |
4 | 云南昆明西苑隧道 | 2019-01-22 12:02 | 7.9 | 8.7 | 0.24 | 3.5 | — | II | 湖体 | 正常 |
(5)保存数据
得到数据后,一般要保存我们的数据,
pandas
给我们提供了非常方便的方法,可以保存为各种常见格式的数据,下面我们将其保存为
.csv
文件格式,由于这里面有中文编码,所以另外还保存了一个
GB18030
编码格式的文件,这样直接用excel打开,不会出现乱码。平时如果处理数据,还里建议用下面的
utf-8
编码的文件。
data_str = datetime.datetime.now().strftime('%Y_%m_%d')
water_df.to_csv("data_water_%s_ch.csv" % (data_str),
index=None, encoding="GB18030")
water_df.to_csv("data_water_%s.csv" % (data_str), index=None)
print("数据提取完成!!")
数据提取完成后,可以看到下面2个文件:data_water_2019_01_22.csv、data_water_2019_01_22_ch.csv,直接用
excel
打开第2个文件,可以看到如下图。