用python实现的抓取腾讯视频所有电影的爬虫

1.  # -*- coding: utf-8 -*-2.  import re3.  import urllib24.  from bs4 import BeautifulSoup5.  import string, time6.  import pymongo8.  NUM = 0 #全局变量,电影数量9.  m_type = u'' #全局变量,电影类型10.  m_site = u'qq' #全局变量,电影网站12.  #根据指定的URL获取网页内容13.  def gethtml(url):14.  req = urllib2.Request(url)15.  response = urllib2.urlopen(req)16.  html = response.read()17.  return html18.  '''19.  在学习过程中有什么不懂得可以加我的python学习交流扣扣qun,784758214,群里有不错的学习教程与开发工具。20.  '''22.  #从电影分类列表页面获取电影分类23.  def gettags(html):24.  global m_type25.  soup = BeautifulSoup(html) #过滤出分类内容26.  #print soup27.  #<ul class="clearfix _group" gname="mi_type" gtype="1">28.  tags_all = soup.find_all('ul', {'class' : 'clearfix _group' , 'gname' : 'mi_type'})29.  #print len(tags_all), tags_all30.  #print str(tags_all[1]).replace('\n', '')32.  #<a _hot="tag.sub" class="_gtag _hotkey" href="http://v.qq.com/list/1_0_-1_-1_1_0_0_20_0_-1_0.html"title="动作" tvalue="0">动作</a>33.  re_tags = r'<a _hot=\"tag\.sub\" class=\"_gtag _hotkey\" href=\"(.+?)\" title=\"(.+?)\" tvalue=\"(.+?)\">.+?</a>'34.  p = re.compile(re_tags, re.DOTALL)36.  tags = p.findall(str(tags_all[0]))37.  if tags:38.  tags_url = {}39.  #print tags40.  for tag in tags:41.  tag_url = tag[0].decode('utf-8')42.  #print tag_url43.  m_type = tag[1].decode('utf-8')44.  tags_url[m_type] = tag_url46.  else:47.  print "Not Find"48.  return tags_url50.  #获取每个分类的页数51.  def get_pages(tag_url):52.  tag_html = gethtml(tag_url)53.  #div class="paginator54.  soup = BeautifulSoup(tag_html) #过滤出标记页面的html55.  #print soup56.  #<div class="mod_pagenav" id="pager">57.  div_page = soup.find_all('div', {'class' : 'mod_pagenav', 'id' : 'pager'})58.  #print div_page #len(div_page), div_page[0]60.  #<a class="c_txt6" href="http://v.qq.com/list/1_2_-1_-1_1_0_24_20_0_-1_0.html" title="25"><span>25</span></a>61.  re_pages = r'<a class=.+?><span>(.+?)</span></a>'62.  p = re.compile(re_pages, re.DOTALL)63.  pages = p.findall(str(div_page[0]))64.  #print pages65.  if len(pages) > 1:66.  return pages[-2]67.  else:68.  return 171.  def getmovielist(html):72.  soup = BeautifulSoup(html)74.  #<ul class="mod_list_pic_130">75.  divs = soup.find_all('ul', {'class' : 'mod_list_pic_130'})76.  #print divs77.  for div_html in divs:78.  div_html = str(div_html).replace('\n', '')79.  #print div_html80.  getmovie(div_html)83.  def getmovie(html):84.  global NUM85.  global m_type86.  global m_site88.  re_movie = r'<li><a class=\"mod_poster_130\" href=\"(.+?)\" target=\"_blank\" title=\"(.+?)\"><img.+?</li>'89.  p = re.compile(re_movie, re.DOTALL)90.  movies = p.findall(html)91.  if movies:92.  conn = pymongo.Connection('localhost', 27017)93.  movie_db = conn.dianying94.  playlinks = movie_db.playlinks95.  #print movies96.  for movie in movies:97.  #print movie98.  NUM += 199.  print "%s : %d" % ("=" * 70, NUM)100.  values = dict(101.  movie_title = movie[1],102.  movie_url = movie[0],103.  movie_site = m_site,104.  movie_type = m_type105.  )106.  print values107.  playlinks.insert(values)108.  print "_" * 70109.  NUM += 1110.  print "%s : %d" % ("=" * 70, NUM)112.  #else:113.  # print "Not Find"115.  def getmovieinfo(url):116.  html = gethtml(url)117.  soup = BeautifulSoup(html)119.  #pack pack_album album_cover120.  divs = soup.find_all('div', {'class' : 'pack pack_album album_cover'})121.  #print divs[0]123.  #<a href="http://www.tudou.com/albumplay/9NyofXc_lHI/32JqhiKJykI.html" target="new" title="《血滴子》独家纪录片" wl="1"> </a>124.  re_info = r'<a href=\"(.+?)\" target=\"new\" title=\"(.+?)\" wl=\".+?\"> </a>'125.  p_info = re.compile(re_info, re.DOTALL)126.  m_info = p_info.findall(str(divs[0]))127.  if m_info:128.  return m_info129.  else:130.  print "Not find movie info"132.  return m_info135.  def insertdb(movieinfo):136.  global conn137.  movie_db = conn.dianying_at138.  movies = movie_db.movies139.  movies.insert(movieinfo)141.  if __name__ == "__main__":142.  global conn144.  tags_url = "http://v.qq.com/list/1_-1_-1_-1_1_0_0_20_0_-1_0.html"145.  #print tags_url146.  tags_html = gethtml(tags_url)147.  #print tags_html148.  tag_urls = gettags(tags_html)149.  #print tag_urls152.  for url in tag_urls.items():153.  print str(url[1]).encode('utf-8') #,url[0]154.  maxpage = int(get_pages(str(url[1]).encode('utf-8')))155.  print maxpage157.  for x in range(0, maxpage):158.  #http://v.qq.com/list/1_0_-1_-1_1_0_0_20_0_-1_0.html159.  m_url = str(url[1]).replace('0_20_0_-1_0.html', '')160.  movie_url = "%s%d_20_0_-1_0.html" % (m_url, x)161.  print movie_url162.  movie_html = gethtml(movie_url.encode('utf-8'))163.  #print movie_html164.  getmovielist(movie_html)165.  time.sleep(0.1)

大工告成,以上代码大家都看明白了没?

Python爬虫实现抓取腾讯视频所有电影-源码【实战必学】相关推荐

  1. 用python实现的抓取腾讯视频所有电影的爬虫

    原文地址:http://www.pythontab.com/html/2013/pythonhexinbiancheng_0823/547.html

  2. 基于python实现的抓取腾讯视频所有电影的爬虫

    我搜集了国内10几个电影网站的数据,里面近几十W条记录,用文本没法存,mongodb学习成本非常低,安装.下载.运行起来不会花你5分钟时间. # -*- coding: utf-8 -*- # by ...

  3. python抓取视频违法吗,科学网—【python爬虫】抓取B站视频相关信息(一) - 管金昱的博文...

    昨天我在B站上写了这么一篇文章,但是被他们锁住了.无奈之下我复制到知乎上先保存起来 在这篇名为<三天学会用python进行简单地爬取B站网页视频数据>文章中我主要提到了两点在已知aid的情 ...

  4. Python爬虫项目--爬取某宝男装信息 附带源码

    本次爬取用到的知识点有: 1. selenium 2. pymysql 3  pyquery 正文 1. 分析目标网站 1. 打开某宝首页, 输入"男装"后点击"搜索&q ...

  5. Python爬虫实战,requests模块,Python实现抓取腾讯视频弹幕评论

    前言 利用Python实现抓取腾讯视频弹幕,废话不多说. 让我们愉快地开始吧~ 开发工具 Python版本: 3.6.4 相关模块: requests模块: pandas模块 以及一些Python自带 ...

  6. python抓取腾讯视频弹幕_Python实战 | 如何抓取腾讯视频弹幕

    原标题:Python实战 | 如何抓取腾讯视频弹幕 当代年轻人的快乐是网络给的. 如果有人吐槽周末太无聊,他们一定会反驳: 是追剧不香吗? 是吃鸡不好玩吗? 周末辣么短,怎么会无聊呢? 诚然,追剧和游 ...

  7. python爬网页数据用什么_初学者如何用“python爬虫”技术抓取网页数据?

    原标题:初学者如何用"python爬虫"技术抓取网页数据? 在当今社会,互联网上充斥着许多有用的数据.我们只需要耐心观察并添加一些技术手段即可获得大量有价值的数据.而这里的&quo ...

  8. Python爬虫:抓取智联招聘岗位信息和要求(进阶版)

    本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理 以下文章来源于腾讯云 作者:王强 ( 想要学习Python?Python学习交流群 ...

  9. python抓取网页电话号码_利用正则表达式编写python 爬虫,抓取网页电话号码!...

    利用正则表达式编写python 爬虫,抓取网页联系我们电话号码!这里以九奥科技(www.jiuaoo.com)为例,抓取'联系我们'里面的电话号码,并输出. #!/usrweilie/bin/pyth ...

最新文章

  1. NLP 笔记: 序列标注与BIO标注
  2. tarjan算法_【朝夕的ACM笔记】树上问题-最近公共祖先-倍增算法
  3. pytorch Tensor操作(二)
  4. where does watchers in scope come from
  5. primefaces_通过OmniFaces缓存组件以编程方式缓存PrimeFaces图表
  6. 面试官:你给我画一下秒杀系统的架构图!
  7. sed for windows 双引号内部内容的替换
  8. 写给小白的WordPress详细安装步骤
  9. Unity3D基础39:人物角色模型
  10. 【音乐拼接】WAV格式
  11. 联想笔记本修复计算机还原系统失败,联想笔记本电脑重装系统不成功,联想笔记本系统恢复...
  12. 一文学会「内存映射」
  13. 12306 终于随随便便撑起洪峰流量了,全面拥抱Redis 6.x!
  14. STL容器之vector
  15. contour()函数的理解
  16. android -- 蓝牙 bluetooth (一) 入门
  17. 3Dcnn 降假阳性模型调试(一)
  18. flex布局(弹性盒子三)
  19. linux下默认国外源下载过慢的解决方法
  20. 艾略特波段理论(转载)

热门文章

  1. Python在Eclipse下的的开发插件PyDev使用教程
  2. java课程设计简单计算器_JAVA课程设计--简易计算器(201521123022 黄俊麟)
  3. 中国高速铁路信号系统发展与思考
  4. oracle经纬度精确查询位置,用NodeJS实现批量查询地理位置的经纬度接口
  5. 2017年1月6日 星期五 --出埃及记 Exodus 21:32
  6. 机器学习算法(一):k-近邻理论与python实现+经典应用(约会网站匹配、手写识别系统)
  7. 空间计量经济学 Spatial Econometrics
  8. brave浏览器_“隐私至上” Brave浏览器退出测试版
  9. 云鲸扫拖一体机器人说明书_Narwal云鲸拖地机器人拥有五项黑科技,真扫拖一体...
  10. LaTeX之tcolorbox宏包应用示例