python爬虫如何使用Selenium

今天就跟大家聊聊有关python爬虫如何使用Selenium,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。

创新互联是一家朝气蓬勃的网站建设公司。公司专注于为企业提供信息化建设解决方案。从事网站开发,网站制作,网站设计,网站模板,微信公众号开发,软件开发,小程序制作,十多年建站对成都垃圾桶等多个领域,拥有多年设计经验。

简介

Selenium是一个用于Web应用程序测试的工具。Selenium可以直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等。

Selenium最初是一个自动化测试工具,而爬虫中使用它主要是为了解决requests无法直接执行JavaScript代码的问题 selenium本质是通过驱动浏览器,完全模拟浏览器的操作,比如跳转、输入、点击、下拉等,来拿到网页渲染之后的结果。

环境安装

安装selenium:pip install selenium

下载浏览器驱动程序:http://chromedriver.storage.googleapis.com/index.html

简单使用/效果展示

from selenium import webdriver
from time import sleep
driver = webdriver.Chrome(r'chromedriver.exe')         # 加载驱动程序
driver.get("http://www.baidu.com")                     # 用get打开百度页面
driver.find_elements_by_link_text('设置')[0].click()    # 查找页面的“设置”选项,并进行点击
sleep(2)
driver.find_elements_by_link_text('搜索设置')[0].click() # 打开设置后找到“搜索设置”选项,设置为每页显示50条
sleep(2)
m = driver.find_element_by_id('nr')   # 找到搜索设置中的选中条目
sleep(2)
m.find_element_by_xpath('//*[@id="nr"]/option[3]').click()  # 点击显示条目选择框
m.find_element_by_xpath('.//option[3]').click()             # 选中最后一项每页显示50条
sleep(2)
driver.find_elements_by_class_name("prefpanelgo")[0].click()    # 点击保存设置
sleep(2)
driver.switch_to_alert().accept()  # 处理弹出的警告页面   确定accept() 和 取消dismiss()
sleep(2)
driver.find_element_by_id('kw').send_keys('美女')  # 找到百度的输入框,并输入 美女
sleep(2)
driver.find_element_by_id('su').click()           # 点击搜索按钮
sleep(2)
driver.find_elements_by_link_text('美女_百度图片')[0].click()  # 在打开的页面中找到“美女_百度图片”,并打开这个页面
sleep(3)
# 关闭浏览器
driver.quit()

元素定位

webdriver 提供了一系列的元素定位方法,常用的有以下几种:

find_element_by_id()
find_element_by_name()
find_element_by_class_name()
find_element_by_tag_name()
find_element_by_link_text()
find_element_by_partial_link_text()
find_element_by_xpath()
find_element_by_css_selector()

注意:

1、find_element_by_xxx找的是第一个符合条件的标签,find_elements_by_xxx找的是所有符合条件的标签。

2、根据ID、CSS选择器和XPath获取,它们返回的结果完全一致。

3、另外,Selenium还提供了通用方法find_element(),它需要传入两个参数:查找方式By和值。实际上,它就是find_element_by_id()这种方法的通用函数版本,比如find_element_by_id(id)就等价于find_element(By.ID, id),二者得到的结果完全一致。

动作链

在上面的实例中,一些交互动作都是针对某个节点执行的。比如,对于输入框,我们就调用它的输入文字和清空文字方法;对于按钮,就调用它的点击方法。其实,还有另外一些操作,它们没有特定的执行对象,比如鼠标拖曳、键盘按键等,这些动作用另一种方式来执行,那就是动作链。

比如,现在实现一个节点的拖曳操作,将某个节点从一处拖曳到另外一处,可以这样实现:

from selenium import webdriver
from selenium.webdriver import ActionChains
from time import sleep
# 实例化了一个谷歌浏览器对象且将驱动程序进行了加载
bro = webdriver.Chrome(executable_path='chromedriver.exe')
bro.get('https://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
bro.switch_to.frame('iframeResult')            # 基于动作链实现拖动操作
div_tag = bro.find_element_by_id('draggable')  # 定位即将被拖动的标签
# 实例化一个动作链对象,将当前浏览器对象作为参数进行传入
action = ActionChains(bro)
action.click_and_hold(div_tag)   # 点击且长按的操作
for i in range(5):
    action.move_by_offset(20, 0).perform()   # perform()表示立即执行动作链
    sleep(0.5)
action.release()
sleep(2)
bro.quit()

执行JavaScript

对于某些操作,Selenium API并没有提供。比如,下拉进度条,它可以直接模拟运行JavaScript,此时使用execute_script()方法即可实现,代码如下:

from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.jd.com/')
browser.execute_script('window.scrollTo(0, document.body.scrollHeight)')
browser.execute_script('alert("123")')

获取页面源码数据

通过page_source属性可以获取网页的源代码,接着就可以使用解析库(如正则表达式、Beautiful Soup、pyquery等)来提取信息了。

前进和后退 

import time
from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.get('https://www.taobao.com')
browser.back()
time.sleep(5)
browser.forward()
browser.close()

Cookie处理

使用Selenium,还可以方便地对Cookies进行操作,例如获取、添加、删除Cookies等。示例如下:

from selenium import webdriver
browser = webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')
print(browser.get_cookies())
browser.add_cookie({'name': 'name', 'domain': 'www.zhihu.com', 'value': 'germey'})
print(browser.get_cookies())
browser.delete_all_cookies()
print(browser.get_cookies()

异常处理

from selenium import webdriver
from selenium.common.exceptions import TimeoutException,NoSuchElementException,NoSuchFrameException
try:
    browser=webdriver.Chrome()
    browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')
    browser.switch_to.frame('iframssseResult')
except TimeoutException as e:
    print(e)
except NoSuchFrameException as e:
    print(e)
finally:
    browser.close()

谷歌无头浏览器

由于PhantomJs最近已经停止了更新和维护,所以推荐大家可以使用谷歌的无头浏览器,是一款无界面的谷歌浏览器。

from selenium import webdriver
from selenium.webdriver.chrome.options import Options
import time
# 创建一个参数对象,用来控制chrome以无界面模式打开
chrome_options = Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu')
# 驱动路径
path = r'./chromedriver.exe'
# 创建浏览器对象
browser = webdriver.Chrome(executable_path=path, chrome_options=chrome_options)
# 访问百度
url = 'http://www.baidu.com/'
browser.get(url)
time.sleep(3)
browser.save_screenshot('baidu.png')  # 截取图片
browser.quit()

登录qq空间,爬取数据

import requests
from selenium import webdriver
from lxml import etree
import time
driver = webdriver.Chrome(executable_path=r'./chromedriver')
driver.get('https://qzone.qq.com/')
# 在web 应用中经常会遇到frame 嵌套页面的应用,使用WebDriver 每次只能在一个页面上识别元素,对于frame 嵌套内的页面上的元素,直接定位是定位是定位不到的。
# 这个时候就需要通过switch_to_frame()方法将当前定位的主体切换了frame 里。
driver.switch_to.frame('login_frame')
driver.find_element_by_id('switcher_plogin').click()
# driver.find_element_by_id('u').clear()
driver.find_element_by_id('u').send_keys('1233333')  # 这里填写你的QQ号
# driver.find_element_by_id('p').clear()
driver.find_element_by_id('p').send_keys('XXXXXX')  # 这里填写你的QQ密码
driver.find_element_by_id('login_button').click()
time.sleep(2)
driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')
time.sleep(2)
driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')
time.sleep(2)
driver.execute_script('window.scrollTo(0,document.body.scrollHeight)')
time.sleep(2)
page_text = driver.page_source
tree = etree.HTML(page_text)
# 执行解析操作
li_list = tree.xpath('//ul[@id="feed_friend_list"]/li')
for li in li_list:
    text_list = li.xpath('.//div[@class="f-info"]//text()|.//div[@class="f-info qz_info_cut"]//text()')
    text = ''.join(text_list)
    print(text + '\n\n\n')
driver.close()

selenium规避被检测识别

现在不少大网站有对selenium采取了监测机制。比如正常情况下我们用浏览器访问淘宝等网站的 window.navigator.webdriver的值为 

undefined。而使用selenium访问则该值为true。那么如何解决这个问题呢?

只需要设置Chromedriver的启动参数即可解决问题。在启动Chromedriver之前,为Chrome开启实验性功能参数excludeSwitches,它的值为['enable-automation'],完整代码如下:

from selenium.webdriver import Chrome
from selenium.webdriver import ChromeOptions
option = ChromeOptions()
option.add_experimental_option('excludeSwitches', ['enable-automation'])
driver = Chrome(options=option)

看完上述内容,你们对python爬虫如何使用Selenium有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注创新互联行业资讯频道,感谢大家的支持。


当前题目:python爬虫如何使用Selenium
当前链接:http://scyanting.com/article/gsppii.html