最近手又有点闲,闲着无聊就爬取了携程的信息,这个爬虫是我随手写的,各位可以看看。

# -*- encoding=utf-8 -*-

#爬取携程旅游信息

#2017/8/14

from bs4 import BeautifulSoup

from selenium import webdriver

from selenium.common.exceptions import NoSuchElementException, TimeoutException

from selenium.webdriver.common.by import By

from selenium.webdriver.support import expected_conditions as EC

from selenium.webdriver.support.ui import WebDriverWait

import os

import csv

import time

driver = webdriver.Chrome()

#打开网页

def gethtml(place):

try:

driver.get('http://vacations.ctrip.com/')

welcome = WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.CSS_SELECTOR, "body > div.jewel_pop_box > div.jewel_pop > span")))

welcome.click()

seaech = driver.find_element_by_css_selector('#searchpanel > div.search_wrap > div.new_search_content > div > input')

check = driver.find_element_by_css_selector('#searchpanel > div.search_wrap > a.main_search_btn')

seaech.send_keys(place)

check.click()

return driver.page_source

except TimeoutException:

gethtml(place)

#换页

def changepage(page):

try:

time.sleep(4)

js="var q=document.documentElement.scrollTop=10000"

driver.execute_script(js)

p = WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.CSS_SELECTOR,'#ipt_page_txt')))

submit = WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.CSS_SELECTOR,'#ipt_page_btn')))

p.clear()

p.send_keys(page)

submit.click()

return driver.page_source

except:

return changepage(page)

#解析页面

def checkpage(html):

soup = BeautifulSoup(html,'lxml')

links = soup.find_all('div',class_='main_mod product_box flag_product ')

for link in links:

name =link.h2.get_text()

href = 'http:' + link.h2.a['href']

price = link.find('span',class_='sr_price').get_text()[:-1]

try:

agree = link.find('p',class_='grade').get_text()[:-1]

except:

agree = ''

try:

alp = link.find('div',class_='comment')

people = alp.em.string[:-3]

about = alp.a.get_text()[:-3]

except:

people = ''

about = ''

yield {

'产品':name,

'链接':href,

'价格':price,

'评分':agree,

'人数':people,

'点评':about,

}

#创建文件夹

def make(place):

path = 'D:/数据/'

if not os.path.exists:

os.makedirs(path)

with open(path + place +'旅游信息.csv','w') as f:

writer = csv.writer(f)

writer.writerow(['产品','链接','价格','评分','人数','点评'])

f.close()

def save_to_csv(i):

with open(path + place +'旅游信息.csv','a') as f:

writer = csv.writer(f)

try:

writer.writerow([ i['产品'],i['链接'],i['价格'],i['评分'], i['人数'],i['点评'] ])

except:

pass

f.close()

return save_to_csv

#主函数

def main(place):

save = make(place)

html = gethtml(place)

for i in checkpage(html):

save(i)

print(i)

for i in range(2,101):

html = changepage(i)

for fil in checkpage(html):

save(fil)

print(fil)

driver.quit()

#执行程序

if __name__ == '__main__':

place = input('请输入要查询的地点:')

main(place)

u=4098028651,4134268318&fm=202.jpg

python爬取携程网旅游_爬虫之携程网旅游信息爬取相关推荐

  1. easyui datalist 不显示数据_爬虫练习——豆瓣电影信息爬取及数据可视化

    最近自学了简单的爬虫项目,简单记录下自己的小白学习路径. 本次爬取的是豆瓣电影TOP250数据,主要用到beautifulsoup.re.urllib库.SQLite包,数据可视化方面主要用到flas ...

  2. Python带进度条的小说爬虫(笔趣网爬小说—简约版)

    Python带进度条的小说爬虫(笔趣网爬小说-简约版) 准备: BeautifulSoup.selenium.PhantomJS 注意PhantomJS安装方式 这里附上安装方式连接: https:/ ...

  3. python爬去百度图片_爬虫篇| 爬取百度图片(一)

    什么是爬虫 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本.另外一些不常使用的名字还有蚂蚁.自动索引.模 ...

  4. python爬取二级页面_爬虫代码改进(二)|多页抓取与二级页面

    本文是下面两篇文章的续篇 本系列包括如下内容抓取豆瓣top250一页多个字段 整合成列表 存储为json文件 定义成函数形式 多页抓取之构造url 多页抓取之翻页 抓取二级页面数据 通过生成器优化代码 ...

  5. Python 爬虫“王者”:微博信息爬取

    这里的微博爬虫,我主要实现的是输入你关心的某个大 V 的微博名称,以及某条微博的相关内容片段,即可自动爬取相关该大 V 一段时间内发布的微博信息和对应微博的评论信息. Cookie 获取 与上面的 B ...

  6. python爬取百度地图_python 爬虫百度地图的信息界面的实现方法

    python 爬虫百度地图的信息界面的实现方法 发布时间:2020-09-23 00:02:08 来源:脚本之家 阅读:78 作者:猫苘 在爬虫百度地图的期间,就为它做了一个界面,运用的是PyQt5. ...

  7. 爬虫python和c语言区别_爬虫概述 - Python教程 - C语言网

    网络爬虫(又称为网页蜘蛛,网络机器人,更经常的称为网页追逐者),它按照一定的规则自动地抓取网络信息. 1. 产生背景 随着时代的进步,互联网上拥有大量的信息,但是我们该如何高效的获取这些信息成为了一个 ...

  8. python爬取快手粉丝榜_[Python] 【原创开源】快手爬虫,根据id批量爬取用户的所有图集和视频...

    分享 写在前面代码功能如题,根据快手用户的id来爬取用户所有公开作品,包括图集和视频. 原理:其实就是利用基于chromium内核的浏览器自带的devtools对所有请求进行排查找出包含作品链接的请求 ...

  9. python爬虫项目描述怎么写_爬虫项目咋写,爬取什么样的数据可以作为项目写在简历上?...

    看样子,主要目的是上简历 如果你想要爬虫的offer,那么你的项目应该有这么几个特征: 能用常用的框架,必要时有能力修改框架甚至自己写一个 熟悉多线程多进程分布式等,对爬虫任务调度有很好的解决办法 采 ...

最新文章

  1. python2.7升3.7_升级python2.7至python3.7
  2. JavaScript的Array一些非常规玩法
  3. 伯乐:一个易用、强大的PyTorch推荐系统开源库
  4. php在html中生成option,php-如何为使用laravel表单生成器创建的select标签的选项指定HTML属性?...
  5. Base64 四种方式的编码和解码
  6. 新的实现上下文对话的方法
  7. 微课|玩转Python轻松过二级(1.1节):Python命令式编程与函数式编程模式
  8. linux tintin 中文,linux下的mud客户端ytin和tintin++
  9. 第21篇 项目进度管理__关键路径法
  10. Dorado 7 使用到的 注释
  11. JAVA设计模式之中介者模式
  12. 接触webGl(three.js)之全景(VR)看房的实现旅程总结
  13. c语言编译星座测试,用c语言编写程序,判断输入的日期(月,日)属于哪个星座?...
  14. linux重启搜狗输入法命令
  15. 转:人的认识如何自我超越
  16. 四则运算——结对项目报告
  17. 二面泛微成都Java岗 (2022.3.23)
  18. ActiViz学习点滴(二)——设置背景色(纯色+渐变色)
  19. 体验QQ2009 Beta1(多图)
  20. 华为eNSP:DHCP的配置(接口dhcp和全局dhcp)

热门文章

  1. GEM5中运行parsec 2.1
  2. 开发票服务器返回信息为空,使用 getinvoicebatch 批量接口获取发票信息,返回成功,但数据是空的...
  3. HIVE 列转行 字段分组截取随笔#collect_list/collect_set
  4. LINUX新手入门及安装配置FAQ(http://bbs.blueidea.com/viewthread.php?tid=635906amp;page=)
  5. 开发游戏的老王博客常见问题总汇(4月16日更新)
  6. MATLAB常用快捷键:自动补全、自动排版、注释、去掉注释
  7. 天龙八部TLBB从0到1搭建教程-中
  8. microduino实现红外线发送与接收
  9. 【机器学习】盘点常见的自动机器学习(AutoML)工具库
  10. java中遍历一个对象的所有属性