十二、爬虫之多线程

1. 引入

我们之前写的爬虫都是单个线程的?这怎么够?一旦一个地方卡到不动了,那不就永远等待下去了?为此我们可以使用多线程或者多进程来处理。
不建议你用这个,不过还是介绍下了,如果想看可以看看下面,不想浪费时间直接看

2. 如何使用

爬虫使用多线程来处理网络请求,使用线程来处理URL队列中的url,然后将url返回的结果保存在另一个队列中,其它线程在读取这个队列中的数据,然后写到文件中去

3. 主要组成部分

3.1 URL队列和结果队列

将将要爬去的url放在一个队列中,这里使用标准库Queue。访问url后的结果保存在结果队列中

初始化一个URL队列

        from queue import Queue
urls_queue = Queue()
out_queue = Queue()

3.2 类包装

使用多个线程,不停的取URL队列中的url,并进行处理:

        import threadingclass ThreadCrawl(threading.Thread):def __init__(self, queue, out_queue):threading.Thread.__init__(self)self.queue = queueself.out_queue = out_queuedef run(self):while True:item = self.queue.get()

如果队列为空,线程就会被阻塞,直到队列不为空。处理队列中的一条数据后,就需要通知队列已经处理完该条数据

3.3 函数包装

        from threading import Thread
def func(args)pass
if __name__ == '__main__':info_html = Queue()t1 = Thread(target=func,args=(info_html,)

3.4 线程池

        # 简单往队列中传输线程数
import threading
import time
import queueclass Threadingpool():def __init__(self,max_num = 10):self.queue = queue.Queue(max_num)for i in range(max_num):self.queue.put(threading.Thread)def getthreading(self):return self.queue.get()def addthreading(self):self.queue.put(threading.Thread)def func(p,i):time.sleep(1)print(i)p.addthreading()if __name__ == "__main__":p = Threadingpool()for i in range(20):thread = p.getthreading()t = thread(target = func, args = (p,i))t.start()

4. Queue模块中的常用方法:

Python的Queue模块中提供了同步的、线程安全的队列类,包括FIFO(先入先出)队列Queue,LIFO(后入先出)队列LifoQueue,和优先级队列PriorityQueue。这些队列都实现了锁原语,能够在多线程中直接使用。可以使用队列来实现线程间的同步

  • Queue.qsize() 返回队列的大小
  • Queue.empty() 如果队列为空,返回True,反之False
  • Queue.full() 如果队列满了,返回True,反之False
  • Queue.full 与 maxsize 大小对应
  • Queue.get([block[, timeout]])获取队列,timeout等待时间
  • Queue.get_nowait() 相当Queue.get(False)
  • Queue.put(item) 写入队列,timeout等待时间
  • Queue.put_nowait(item) 相当Queue.put(item, False)
  • Queue.task_done() 在完成一项工作之后,Queue.task_done()函数向任务已经完成的队列发送一个信号
  • Queue.join() 实际上意味着等到队列为空,再执行别的操作

十三、Selenium与PhantomJS

1. Selenium

Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,类型像我们玩游戏用的按键精灵,可以按指定的命令自动操作,不同是Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器)。

Selenium 可以根据我们的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生。

Selenium 自己不带浏览器,不支持浏览器的功能,它需要与第三方浏览器结合在一起才能使用。但是我们有时候需要让它内嵌在代码中运行,所以我们可以用一个叫 PhantomJS 的工具代替真实的浏览器。

PyPI网站下载 Selenium库 https://pypi.python.org/simple/selenium ,也可以用 第三方管理器

pip用命令安装:pip install selenium

Selenium 官方参考文档:http://selenium-python.readthedocs.io/index.html

2. PhantomJS

PhantomJS 是一个基于Webkit的“无界面”(headless)浏览器,它会把网站加载到内存并执行页面上的 JavaScript,因为不会展示图形界面,所以运行起来比完整的浏览器要高效

如果我们把 Selenium 和 PhantomJS 结合在一起,就可以运行一个非常强大的网络爬虫了,这个爬虫可以处理 JavaScrip、Cookie、headers,以及任何我们真实用户需要做的事情

2.1注意:PhantomJS(python2)

只能从它的官方网站http://phantomjs.org/download.html) 下载。 因为 PhantomJS 是一个功能完善(虽然无界面)的浏览器而非一个 Python 库,所以它不需要像 Python 的其他库一样安装,但我们可以通过Selenium调用PhantomJS来直接使用。

PhantomJS 官方参考文档:http://phantomjs.org/documentation

2.2 python3使用的浏览器

随着Python3的普及,Selenium3也跟上了行程。而Selenium3最大的变化是去掉了Selenium RC,另外就是Webdriver从各自浏览器中脱离,必须单独下载

2.1.1 安装Firefox geckodriver

安装firefox最新版本,添加Firefox可执行程序到系统环境变量。记得关闭firefox的自动更新

firefox下载地下:https://github.com/mozilla/geckodriver/releases

将下载的geckodriver.exe 放到path路径下 D:\Python\Python36\

2.1.2 安装ChromeDriver

http:// chromedriver.storage.googleapis.com /index.html

注意版本号要对应
下载下来的文件解压到Python36\Scripts
chrome59版本以后可以变成无头的浏览器,加以下参数

        options = webdriver.ChromeOptions()
options.add_argument('--headless')
chrome = webdriver.Chrome(chrome_options=options)
chrome.get("http://ww.baidu.com")

代理模式

        from selenium import webdriver
option = webdriver.ChromeOptions()
option.add_argument("--proxy-server=http://61.138.33.20:808")
chrome = webdriver.Chrome(chrome_options=option)
chrome.get('http://httpbin.org/get')
info = chrome.page_source
​
print(info)

3. 使用方式

Selenium 库里有个叫 WebDriver 的 API。WebDriver 有点儿像可以加载网站的浏览器,但是它也可以像 BeautifulSoup 或者其他 Selector 对象一样用来查找页面元素,与页面上的元素进行交互 (发送文本、点击等),以及执行其他动作来运行网络爬虫

3.1 简单例子

        # 导入 webdriver
from selenium import webdriver
​
# 要想调用键盘按键操作需要引入keys包
from selenium.webdriver.common.keys import Keys
​
# 调用环境变量指定的PhantomJS浏览器创建浏览器对象
driver = webdriver.PhantomJS()
​
# 如果没有在环境变量指定PhantomJS位置
# driver = webdriver.PhantomJS(executable_path="./phantomjs"))
​
# get方法会一直等到页面被完全加载,然后才会继续程序,通常测试会在这里选择 time.sleep(2)
driver.get("http://www.baidu.com/")
​
# 获取页面名为 wrapper的id标签的文本内容
data = driver.find_element_by_id("wrapper").text
​
# 打印数据内容
print(data)
​
# 打印页面标题 "百度一下,你就知道"
print(driver.title)
​
# 生成当前页面快照并保存
driver.save_screenshot("baidu.png")
​
# id="kw"是百度搜索输入框,输入字符串"长城"
driver.find_element_by_id("kw").send_keys("尚学堂")
​
# id="su"是百度搜索按钮,click() 是模拟点击
driver.find_element_by_id("su").click()
​
# 获取新的页面快照
driver.save_screenshot("尚学.png")
​
# 打印网页渲染后的源代码
print(driver.page_source)
​
# 获取当前页面Cookie
print(driver.get_cookies())
​
# ctrl+a 全选输入框内容
driver.find_element_by_id("kw").send_keys(Keys.CONTROL,'a')
​
# ctrl+x 剪切输入框内容
driver.find_element_by_id("kw").send_keys(Keys.CONTROL,'x')
​
# 输入框重新输入内容
driver.find_element_by_id("kw").send_keys("python爬虫")
​
# 模拟Enter回车键
driver.find_element_by_id("su").send_keys(Keys.RETURN)
​
# 清除输入框内容
driver.find_element_by_id("kw").clear()
​
# 生成新的页面快照
driver.save_screenshot("python爬虫.png")
​
# 获取当前url
print(driver.current_url)
​
# 关闭当前页面,如果只有一个页面,会关闭浏览器
# driver.close()
​
# 关闭浏览器
driver.quit()

4 页面操作

4.1 页面交互

仅仅抓取页面没有多大卵用,我们真正要做的是做到和页面交互,比如点击,输入等等。那么前提就是要找到页面中的元素。WebDriver提供了各种方法来寻找元素。例如下面有一个表单输入框

        <input type="text" name="passwd" id="passwd-id" />

4.1.1 获取

        element = driver.find_element_by_id("passwd-id")
element = driver.find_element_by_name("passwd")
element = driver.find_elements_by_tag_name("input")
element = driver.find_element_by_xpath("//input[@id='passwd-id']")

注意:

  • 文本必须完全匹配才可以,所以这并不是一个很好的匹配方式
  • 在用 xpath 的时候还需要注意的如果有多个元素匹配了 xpath,它只会返回第一个匹配的元素。如果没有找到,那么会抛出 NoSuchElementException 的异常

4.1.2 输入内容

        element.send_keys("some text")

4.1.3 模拟点击某个按键

        element.send_keys("and some", Keys.ARROW_DOWN)

4.1.4 清空文本

        element.clear()

4.1.5 元素拖拽

要完成元素的拖拽,首先你需要指定被拖动的元素和拖动目标元素,然后利用 ActionChains 类来实现

以下实现元素从 source 拖动到 target 的操作

        element = driver.find_element_by_name("source")
target = driver.find_element_by_name("target")from selenium.webdriver import ActionChains
action_chains = ActionChains(driver)
action_chains.drag_and_drop(element, target).perform()

4.1.6 历史记录

操作页面的前进和后退功能

        driver.forward()
driver.back()

5 API

5.1 元素选取

5.1.1 单个元素选取

  • find_element_by_id
  • find_element_by_name
  • find_element_by_xpath
  • find_element_by_link_text
  • find_element_by_partial_link_text
  • find_element_by_tag_name
  • find_element_by_class_name
  • find_element_by_css_selector

5.1.2 多个元素选取

  • find_elements_by_name
  • find_elements_by_xpath
  • find_elements_by_link_text
  • find_elements_by_partial_link_text
  • find_elements_by_tag_name
  • find_elements_by_class_name
  • find_elements_by_css_selector

5.1.3 利用 By 类来确定哪种选择方式

        from selenium.webdriver.common.by import Bydriver.find_element(By.XPATH, '//button[text()="Some text"]')
driver.find_elements(By.XPATH, '//button')

By 类的一些属性如下

  • ID = "id"
  • XPATH = "xpath"
  • LINK_TEXT = "link text"
  • PARTIAL_LINK_TEXT = "partial link text"
  • NAME = "name"
  • TAG_NAME = "tag name"
  • CLASS_NAME = "class name"
  • CSS_SELECTOR = "css selector"

6 等待

6.1 隐式等待

到了一定的时间发现元素还没有加载,则继续等待我们指定的时间,如果超过了我们指定的时间还没有加载就会抛出异常,如果没有需要等待的时候就已经加载完毕就会立即执行

        from selenium import webdriver
url = 'https://www.guazi.com/nj/buy/'
driver = webdriver.Chrome()
driver.get(url)
driver.implicitly_wait(100)
print(driver.find_element_by_class_name('next'))
print(driver.page_source)

6.2 显示等待

指定一个等待条件,并且指定一个最长等待时间,会在这个时间内进行判断是否满足等待条件,如果成立就会立即返回,如果不成立,就会一直等待,直到等待你指定的最长等待时间,如果还是不满足,就会抛出异常,如果满足了就会正常返回

            url = 'https://www.guazi.com/nj/buy/'driver = webdriver.Chrome()driver.get(url)wait = WebDriverWait(driver,10)wait.until(EC.presence_of_element_located((By.CLASS_NAME, 'next')))print(driver.page_source)

  • presence_of_element_located

    • 元素加载出,传入定位元组,如(By.ID, 'p')
  • presence_of_all_elements_located

    • 所有元素加载出
  • element_to_be_clickable

    • 元素可点击
  • element_located_to_be_selected

    • 元素可选择,传入定位元组

6.3 强制等待

使用 time.sleep

十四、Selenium 处理滚动条

Selenium 处理滚动条

selenium并不是万能的,有时候页面上操作无法实现的,这时候就需要借助JS来完成了

  当页面上的元素超过一屏后,想操作屏幕下方的元素,是不能直接定位到,会报元素不可见的。这时候需要借助滚动条来拖动屏幕,使被操作的元素显示在当前的屏幕上。滚动条是无法直接用定位工具来定位的。selenium里面也没有直接的方法去控制滚动条,这时候只能借助J了,还好selenium提供了一个操作js的方法:execute_script(),可以直接执行js的脚本

一. 控制滚动条高度

1.1滚动条回到顶部:

        js="var q=document.getElementById('id').scrollTop=0"
driver.execute_script(js)

1.2滚动条拉到底部

        js="var q=document.documentElement.scrollTop=10000"
driver.execute_script(js)

可以修改scrollTop 的值,来定位右侧滚动条的位置,0是最上面,10000是最底部

以上方法在Firefox和IE浏览器上上是可以的,但是用Chrome浏览器,发现不管用。Chrome浏览器解决办法:

        js = "var q=document.body.scrollTop=0"
driver.execute_script(js)

二.横向滚动条

2.1 有时候浏览器页面需要左右滚动(一般屏幕最大化后,左右滚动的情况已经很少见了)

2.2 通过左边控制横向和纵向滚动条scrollTo(x, y)

        js = "window.scrollTo(100,400)"
driver.execute_script(js)

三.元素聚焦

虽然用上面的方法可以解决拖动滚动条的位置问题,但是有时候无法确定我需要操作的元素在什么位置,有可能每次打开的页面不一样,元素所在的位置也不一样,怎么办呢?这个时候我们可以先让页面直接跳到元素出现的位置,然后就可以操作了

同样需要借助JS去实现。 具体如下:

        target = driver.find_element_by_xxxx()
driver.execute_script("arguments[0].scrollIntoView();", target)

四. 参考代码

        from selenium import webdriver
from lxml import etree
import timeurl = "https://search.jd.com/Search?keyword=%E7%AC%94%E8%AE%B0%E6%9C%AC&enc=utf-8&wq=%E7%AC%94%E8%AE%B0%E6%9C%AC&pvid=845d019c94f6476ca5c4ffc24df6865a"
# 加载浏览器
wd = webdriver.Firefox()
# 发送请求
wd.get(url)
# 要执行的js
js = "var q = document.documentElement.scrollTop=10000"
# 执行js
wd.execute_script(js)time.sleep(3)
# 解析数据
e = etree.HTML(wd.page_source)
# 提取数据的xpath
price_xpath = '//ul[@class="gl-warp clearfix"]//div[@class="p-price"]/strong/i/text()'
# 提取数据的
infos = e.xpath(price_xpath)print(len(infos))
# 关闭浏览器
wd.quit()

十五、Python下Tesseract Ocr引擎及安装介绍

1. Tesseract介绍

tesseract 是一个google支持的开源ocr项目

其项目地址:https://github.com/tesseract-ocr/tesseract

目前最新的源码可以在这里下载

2. Tesseract安装包下载

Tesseract的release版本下载地址:https://github.com/tesseract-ocr/tesseract/wiki/Downloads,这里需要注意这一段话:

Currently, there is no official Windows installer for newer versions

意思就是官方不提供最新版windows平台安装包,只有相对略老的3.02.02版本,其下载地址:https://sourceforge.net/projects/tesseract-ocr-alt/files/

最新版3.03和3.05版本,都是三方维护和管理的安装包,有好几个发行机构,分别是:

  • https://www. dropbox.com/s/8t54mz39i 58qslh/tesseract-3.05.00dev-win32-vc19.zip?dl=1
  • https:// github.com/UB-Mannheim/ tesseract/wiki
  • http:// domasofan.spdns.eu/tess eract/

3. 小结

  1. 官方发布的3.02版本下载地址
    http://downloads.sourceforge.net/project/tesseract-ocr-alt/tesseract-ocr-setup-3.02.02.exe?r=https%3A%2F%2Fsourceforge.net%2Fprojects%2Ftesseract-ocr-alt%2Ffiles%2F&ts=1464880498&use_mirror=jaist
  2. 德国曼海姆大学发行的3.05版本下载地址
    http://digi.bib.uni-mannheim.de/tesseract/tesseract-ocr-setup-3.05.00dev.exe
  3. imon Eigeldinger (@DomasoFan) 维护的另一个版本
    http://3.onj.me/tesseract/ 值得称道的是,这个网址里还有一个比较详细的说明

4. Tesseract ocr使用

安装之后,默认目录C:\Program Files (x86)\Tesseract-OCR,你需要把这个路径放到你操作系统的path搜索路径中,否则后面使用起来会不方便。

在安装目录C:\Program Files (x86)\Tesseract-OCR下可以看到 tesseract.exe这个命令行执行程序

        tesseract 1.png output-l eng -psm 7

-psm 7 表示用单行文本识别 pagesegmode值:

  • 0 =定向和脚本检测(OSD)。
  • 1 =带OSD的自动页面分割。
  • 2 =自动页面分割,但没有OSD或OCR
  • 3 =全自动页面分割,但没有OSD。(默认)
  • 4 =假设一列可变大小的文本。
  • 5 =假设一个统一的垂直对齐文本块。
  • 6 =假设一个统一的文本块。
  • 7 =将图像作为单个文本行处理。
  • 8 =把图像当作一个单词。
  • 9 =把图像当作一个圆圈中的一个词来对待。
  • 10 =将图像作为单个字符处理

#-l eng 代表使用英语识别

Day059 爬虫(三)相关推荐

  1. JAVA爬虫三种方法

    文章目录 前言 一.JDK 二.HttpClient 三.Jsoup 总结 前言 记录JAVA爬虫三种方式 一.JDK 使用JDK自带的URLConnection实现网络爬虫. public void ...

  2. python爬虫——三步爬得电影天堂电影下载链接,30多行代码即可搞定:

    python爬虫--三步爬得电影天堂电影下载链接,30多行代码即可搞定: 本次我们选择的爬虫对象是:https://www.dy2018.com/index.html 具体的三个步骤:1.定位到202 ...

  3. python定时爬虫三种方法

    python定时爬虫三种方法 第一种 import timefrom scrapy import cmdlinedef doSth():# 把爬虫程序放在这个类里 zhilian_spider 是爬虫 ...

  4. 爬虫三(Bs4搜索、Selenium基本使用、无界面浏览器、Selenium自动登录百度案例、自动获取12306登录验证码案例、切换选项卡、浏览器前进后退、登录Cnblogs获取Cookie自动点赞)

    文章标题 一.Bs4搜索文档树 二.CSS选择器 三.selenium基本使用 四.无界面浏览器 五.selenium其他使用 1)自动登录百度案例 2)获取位置属性大小.文本 3)自动获取12306 ...

  5. Python爬虫三:抓取链家已成交二手房信息(58W数据)

    环境:Windows7+python3.6+Pycharm2017 目标:抓取链家北京地区已成交二手房信息(无需登录),如下图,户型.朝向.成交时间价格等,保存到csv.最后一共抓取约58W数据,程序 ...

  6. 反爬虫三:检测鼠标移动轨迹

    python学习交流公众号 Hello Python上线啦,欢迎关注 一:检测鼠标移动轨迹场景 部分爬虫使用selenium,airtest等,模拟用户点击等操作,以及在滑块验证码等,这时候通过检测鼠 ...

  7. python定时爬虫三种方法_Python爬虫定时计划任务的几种常见方法

    记得以前的Windows任务定时是可以正常使用的,今天试了下,发现不能正常使用了,任务计划总是挂起.接下来记录下Python爬虫定时任务的几种解决方法. 1.方法一.while True 首先最容易的 ...

  8. chromedp网络监听_动态爬虫三:监听网络事件 + 监听js事件

    一: 概述 上两篇文章介绍了cdp协议和chromedp库,从这篇文章开始动手实战一下,我们要拿到页面上更多的网络请求,最直接的想法就是类似于开发者工具里的network,只有一有网络请求就显示在列表 ...

  9. Python爬虫(三)_urllib2:get和post请求

    urllib.urlencode() urllib和urllib2都是接受URL请求的相关参数,但是提供了不同的功能.两个最显著的不同如下: urllib仅可以接受URL,不能创建设置了headers ...

最新文章

  1. Linux学习(七)---组管理和权限管理
  2. 独家|OpenCV 1.6 改变图像的对比度和亮度!
  3. C语言函数--atoi
  4. SAP UI5 应用开发教程之三十四 - SAP UI5 应用基于设备类型的页面适配功能(Device Adaptation)试读版
  5. 开放平台_XAuth
  6. C#winform控制textbox输入只能为数字
  7. SSM-水果商城-导入项目-学习-2
  8. Java序列化技术性能分析(JDK原生与Protostuff)
  9. mysql 覆盖索引_MySQL 覆盖索引
  10. ESP8266与ESP8285开发时有什么区别
  11. 计算机网络教室建设方案,计算机网络教室设计方案汇总.doc
  12. date time 分开存储如何合并_关于TDateTime的TDate与TTime合并的问题 | 菲菲的家
  13. PDF阅读软件哪个好用?思路提供
  14. Java架构师之旅(二十九 附录《MyBatis3 用户指南》中文版)
  15. python 用selenium获取好友空间说说及时间写入txt
  16. java人品计算器,‎App Store 上的“围棋死活大全”
  17. 信息学奥赛一本通C++语言-----1087:级数求和
  18. NS3 Tutorial 中文版:第四章 概念概述
  19. 2、虚拟机的快照与克隆
  20. 16-内存分配与回收策略-对象优先分配Eden+大对象进老年代

热门文章

  1. 差分隐私(背景介绍)
  2. 牛客 最小互质数(筛法求解)
  3. java web 开发之道_《Java Web开发之道》PDF 下载
  4. TMS Sphinx Alexandria Full Source
  5. 实时时钟系统设计c语言,基于PC机的实时时钟实现
  6. 印刷方式——标识丝印工艺
  7. What?一周内咸鱼疯转2.4W次,最终被封杀!
  8. JXTA介绍【转摘】
  9. 蓝桥杯 c++ 勾股定理
  10. 2016届蓝桥杯省赛B组 第5题 勾股定理