# 使用selenium+phantomJS模拟浏览器爬取淘宝商品信息
# 思路:
# 第一步:利用selenium驱动浏览器,搜索商品信息,得到商品列表
# 第二步:分析商品页数,驱动浏览器翻页,并得到商品信息
# 第三步:爬取商品信息
# 第四步:存储到mongodb

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC from selenium.common.exceptions import TimeoutException from config import * import re

browser = webdriver.PhantomJS(executable_path='/usr/bin/phantomjs',service_args=SERVICE_ARGS)

# 表示给browser浏览器一个10秒的加载时间
wait = WebDriverWait(browser,10)# 使用webdriver打开chrome,打开淘宝页面,搜索美食关键字,返回总页数
def search():print('正在搜索……')try:# 打开淘宝首页browser.get('http://www.taobao.com')# 判断输入框是否已经加载input = wait.until(EC.presence_of_element_located((By.ID,'q')))# < selenium.webdriver.remote.webelement.WebElement(session="d575fc60-91a9-11e8-917b-3dd730d5073d",element=":wdc:1532701944023") ># 判断搜索按钮是否可以进行点击操作submit = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR,'#J_TSearchForm > div.search-button > button')))# 输入美食input.send_keys(KEYWORD)# 点击搜索按钮submit.click()# 使用css_selector找到显示总页面的元素total = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,'#mainsrp-pager > div > div > div > div.total')))return total.textexcept TimeoutException:print('超时')return search()def main():total = search()print(total)total = int(re.compile('(\d+)').search(total).group(1))print(total)if __name__ == '__main__':main()

phantomJS爬数据比较慢,下面的测试结果,大概经过5分多钟才返回结果,正在搜索和超时提示返回比较慢

phantojs的其他配置方法:

# 引入配置对象DesiredCapabilities
from selenium.webdriver.common.desired_capabilities import DesiredCapabilitiesdcap = dict(DesiredCapabilities.PHANTOMJS)
# 从USER_AGENTS列表中随机选一个浏览器头,伪装浏览器
dcap["phantomjs.page.settings.userAgent"] = USER_AGENTS
# 不载入图片,爬页面速度会快很多
dcap["phantomjs.page.settings.loadImages"] = False
# 设置代理
service_args = ['--disk-cache=true','--load-images=false']
# 打开带配置信息的phantomJS浏览器
browser = webdriver.PhantomJS(executable_path='/usr/bin/phantomjs', desired_capabilities=dcap, service_args=service_args)
# 隐式等待5秒,可以自己调节
browser.implicitly_wait(5)
# 设置10秒页面超时返回,类似于requests.get()的timeout选项,driver.get()没有timeout选项
# 以前遇到过driver.get(url)一直不返回,但也不报错的问题,这时程序会卡住,设置超时选项能解决这个问题。
browser.set_page_load_timeout(10)
# 设置10秒脚本超时时间
browser.set_script_timeout(10)

完整代码

# 使用selenium+phantomJS模拟浏览器爬取淘宝商品信息
# 思路:
# 第一步:利用selenium驱动浏览器,搜索商品信息,得到商品列表
# 第二步:分析商品页数,驱动浏览器翻页,并得到商品信息
# 第三步:爬取商品信息
# 第四步:存储到mongodb
from selenium import webdriver
from config import *
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException
import re
from pyquery import PyQuery as pq
import pymongo# client = pymongo.MongoClient(MONGO_URL)
client = pymongo.MongoClient(host='192.168.33.12', port=27017)
db = client[MONGO_DB_SELENIUM]browser = webdriver.PhantomJS(executable_path=EXECUTABLE_PATH,service_args=SERVICE_ARGS)
browser.set_window_size(1400, 1000)# 表示给browser浏览器一个10秒的加载时间
wait = WebDriverWait(browser,10)# 使用webdriver打开chrome,打开淘宝页面,搜索美食关键字,返回总页数
def search():print('正在搜索……')try:# 打开淘宝首页browser.get('http://www.taobao.com')# 判断输入框是否已经加载input = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,'#q')))# 判断搜索按钮是否可以进行点击操作submit = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR,'#J_TSearchForm > div.search-button > button')))# 输入美食input.send_keys(KEYWORD_SELENIUM)# 点击搜索按钮submit.click()# 使用css_selector找到显示总页面的元素total = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR,'#mainsrp-pager > div > div > div > div.total')))# 获取商品信息get_products()return total.textexcept TimeoutException:print('超时')return search()# 跳转到下一页
def next_page(page_number):try:# 输入要跳转的页数input = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > input")))# 确认进行跳转submit = wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit")))input.clear()input.send_keys(page_number)submit.click()# 判断当前的页数与网页的高亮显示是否对应得上wait.until(EC.text_to_be_present_in_element((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > ul > li.item.active > span"), str(page_number)))# 获取商品信息get_products()except TimeoutException:next_page(page_number)# 获取商品信息
def get_products():# 判断商品是否加载成功wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-itemlist .items .item")))# 获取页面信息html = browser.page_source    # 使用PyQuery来解析htmldoc = pq(html)  items = doc("#mainsrp-itemlist .items .item").items()for item in items:product = {# 去掉价格中的换行符"price": item.find(".price").text().replace("\n", ""),"image": item.find(".pic .img").attr("src"),"name": item.find(".title").text(),"location": item.find(".location").text(),"shop": item.find(".shop").text(),}"""
            需要保存的商品信息:(1)商品的图片(2)商品的价格(3)商品的名字(4)商品来源(5)商品店铺"""
        # print(product)# {'price': '¥32.80',#  'image': '//g-search1.alicdn.com/img/bao/uploaded/i4/imgextra/i4/95948676/TB2IdzpcnnI8KJjSszbXXb4KFXa_!!0-saturn_solar.jpg_230x230.jpg',#  'name': '南萃坊流心蛋黄饼20个800克传统糕点办公室网红零食小吃美食整箱', 'location': '浙江 杭州', 'shop': '南萃坊旗舰店'}save_products(product)# print("=" * 30)# == == == == == == == == == == == == == == ==# 将商品的信息存储到MongoDB数据库、txt文件中
def save_products(result):try:# 尝试将结果集插入到数据库中if db[MONGO_TABLE_SELENIUM].insert(result):print("存储到MongoDB数据库成功!", result)# 存储到MongoDB数据库成功! {'price': '¥33.00',#                   'image': '//g-search1.alicdn.com/img/bao/uploaded/i4/i2/110202222/TB2k.9bhcj_B1NjSZFHXXaDWpXa_!!110202222.jpg_230x230.jpg',#                   'name': '陕西特产红星软香酥小吃美食零食礼包早餐糕点豆沙西安网红千层饼', 'location': '陕西 咸阳', 'shop': '红星软香酥专卖',#                   '_id': ObjectId('5b5dd570e138231772e2ef5d')}# == == == == == == == == == == == == == == ==# {'price': '¥24.90',#  'image': '//g-search1.alicdn.com/img/bao/uploaded/i4/imgextra/i1/13621870/TB2V3LhX56guuRjy1XdXXaAwpXa_!!0-saturn_solar.jpg_230x230.jpg',#  'name': '卜珂椰丝球椰蓉球美食早餐糕点心好吃的点心休闲零食品批发店小吃', 'location': '江苏 苏州', 'shop': '卜珂巧克力旗舰店'}# 存储到MongoDB数据库成功! {'price': '¥24.90',#                   'image': '//g-search1.alicdn.com/img/bao/uploaded/i4/imgextra/i1/13621870/TB2V3LhX56guuRjy1XdXXaAwpXa_!!0-saturn_solar.jpg_230x230.jpg',#                   'name': '卜珂椰丝球椰蓉球美食早餐糕点心好吃的点心休闲零食品批发店小吃', 'location': '江苏 苏州', 'shop': '卜珂巧克力旗舰店',#                   '_id': ObjectId('5b5dd575e138231772e2ef5e')}# == == == == == == == == == == == == == == ==# 将结果集存储到txt文件中if result:with open("products.txt", "a", encoding="utf-8") as f:f.write(str(result) + "\n")f.close()except Exception:print("存储失败!", result)def main():try:total = search()# print(total)total = int(re.compile('(\d+)').search(total).group(1))# print(total)for i in range(2, total + 1):next_page(i)except Exception:print("出错啦!")finally:browser.close()  # 最后一定都要关闭浏览器if __name__ == '__main__':main()

参考博文:

Selenium分手PhantomJS

盘点selenium phantomJS使用的坑

转载于:https://www.cnblogs.com/zouke1220/p/9375276.html

3.使用Selenium模拟浏览器抓取淘宝商品美食信息相关推荐

  1. python爬虫:Selenium模拟浏览器爬取淘宝商品信息

    1.数据提取前期网页分析 分析:淘宝网页数据也是通过Ajax技术获取的,但是淘宝的API接口参数比较复杂,可能包含加密密匙等参数:所以,想要通过自己构造API接口获取完整网页信息很难实现(可能只有部分 ...

  2. python获取登录按钮_Python:Selenium模拟Chrome浏览器抓取淘宝商品信息

    对于采用异步加载技术的网页,有时候想通过逆向工程的方式来设计爬虫进行爬取会比较困难,因此,要想通过python获取异步加载数据往往可以使用Selenium模拟浏览器的方式来获取. Selenium是一 ...

  3. Python爬虫实战03:用Selenium模拟浏览器爬取淘宝美食

    1 目标站点分析 淘宝页面信息很复杂的,含有各种请求参数和加密参数,如果直接请求或者分析Ajax请求的话会很繁琐.所以我们可以用Selenium来驱动浏览器模拟点击来爬取淘宝的信息.这样我们只要关系操 ...

  4. 用selenium模拟浏览器爬取淘宝订单信息

    用selenium模拟浏览器登录淘宝爬取自己购买商品的订单信息,代码不是十分完善,但是亲测可用,后期还可以进一步优化. 链接:https://pan.baidu.com/s/1aGwWCFaWPfOU ...

  5. 模拟浏览器抓取淘宝书籍数据

    淘宝的html是动态加载的,直接用requests请求并不能找到想要的数据,这里用selenium库模拟浏览器登录并操作 导库 from selenium import webdriver 淘宝的ur ...

  6. Python爬虫:Selenium模拟Chrome浏览器爬取淘宝商品信息

    对于采用异步加载技术的网页,有时候想通过逆向工程的方式来设计爬虫进行爬取会比较困难,因此,要想通过python获取异步加载数据往往可以使用Selenium模拟浏览器的方式来获取. Selenium是一 ...

  7. python 爬虫动态网页的区别_Python开发爬虫之动态网页抓取篇:爬取博客评论数据——通过Selenium模拟浏览器抓取...

    区别于上篇动态网页抓取,这里介绍另一种方法,即使用浏览器渲染引擎.直接用浏览器在显示网页时解析 HTML.应用 CSS 样式并执行 JavaScript 的语句. 这个方法在爬虫过程中会打开一个浏览器 ...

  8. 网络爬虫pyppeteer、selenium模拟浏览器抓取数据

    项目场景: 1.抓取数据时,响应状态码为412,即状态码412含义为:Precondition Failed,服务器在验证在请求的头字段中给出先决条件时,没能满足其中的一个或多个.这个状态码允许客户端 ...

  9. 【爬虫】selenium+webdrive抓取淘宝商品评价

    [爬虫]selenium+webdrive抓取淘宝商品评价 爬虫小白入门 (声明:本人只是处于突如其来的兴趣学习一点点,水平实在不高,但在这个过程中也或多或少地解决了一些问题,所以对同为小白的朋友们或 ...

最新文章

  1. Windows全能终端神器MobaXterm
  2. 招程序员不要信中医的? | 极客视频
  3. 互联网1分钟 |1217
  4. JS 内置对象DATE的方法
  5. VS2008(SP1)资源编译错误:fatal error RC1015: cannot open include file 'afxres.h'.
  6. [vue] 有在vue中使用过echarts吗?踩过哪些坑?如何解决的?
  7. UVA 10055(Hashmat the brave warrior )
  8. 废品机械师双脚机器人教程_废品机械师自动寻物机器人图文教程_快吧单机游戏...
  9. 拆轮子系列--RxJava理解(三)--observeOn
  10. java的多线程学习,第四记
  11. Java + selenium 元素定位(3)之By TagName
  12. 如何使用QQ快速截屏
  13. 洛谷Java入门级代码之分汽水
  14. python梯形公式面积_梯形面积公式
  15. 华为nova2s云相册在哪里_华为nova2s截频图片在哪个文件夹 | 手游网游页游攻略大全...
  16. word怎么删除参考文献的横线_word2016怎么去掉引用参考文献的横线?
  17. 计算机应用专业书本推荐,计算机应用基础
  18. Git下载代码--git clone命令
  19. 3399使用GPIO口模拟i2c升级NT68411
  20. [ZJOI2007]Hide 捉迷藏(数据结构)

热门文章

  1. php 云端桌面,开源云桌面程序DZZ v1.2新版功能预览
  2. Java学习笔记-对IoC(Inversion of Control)的基本认识
  3. 广告roi怎么计算公式_二类电商信息流广告投放注意这几方面
  4. python全部语法_python基本语法
  5. 大学计算机学生成绩综合管理系统,大学综合测评成绩管理系统的研究 计算机专业毕业论文.doc...
  6. linux比较小数大小,带有小数点的数值对比大小
  7. blast2go mysql_Blast2go本地化教程
  8. android使用perfetto工具步骤
  9. 八、JQurey总结
  10. VSCODE 一键编译运行