01前言

今年给大家爬取『大年初一』上映的几部热门数据(评分时长类型)以及相关网友评论等数据

对评分、时长、类型进行图表可视化

采用不同词云图案对七部电影『评论』词云秀!!!!

02数据获取

1.评分数据

网页分析

查看网页源代码,可以见到目标数据在标签<ul class="lists">,通过xpath解析就可以获取。下面直接上代码!

编程实现

headers = {'Host':'movie.douban.com','user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3947.100 Safari/537.36','cookie':'bid=uVCOdCZRTrM; douban-fav-remind=1; __utmz=30149280.1603808051.2.2.utmcsr=google|utmccn=(organic)|utmcmd=organic|utmctr=(not%20provided); __gads=ID=7ca757265e2366c5-22ded2176ac40059:T=1603808052:RT=1603808052:S=ALNI_MYZsGZJ8XXb1oU4zxzpMzGdK61LFA; dbcl2="165593539:LvLaPIrgug0"; push_doumail_num=0; push_noty_num=0; __utmv=30149280.16559; ll="118288"; __yadk_uid=DnUc7ftXIqYlQ8RY6pYmLuNPqYp5SFzc; _vwo_uuid_v2=D7ED984782737D7813CC0049180E68C43|1b36a9232bbbe34ac958167d5bdb9a27; ct=y; ck=ZbYm; __utmc=30149280; __utmc=223695111; __utma=30149280.1867171825.1603588354.1613363321.1613372112.11; __utmt=1; __utmb=30149280.2.10.1613372112; ap_v=0,6.0; _pk_ref.100001.4cf6=%5B%22%22%2C%22%22%2C1613372123%2C%22https%3A%2F%2Fwww.douban.com%2Fmisc%2Fsorry%3Foriginal-url%3Dhttps%253A%252F%252Fmovie.douban.com%252Fsubject%252F34841067%252F%253Ffrom%253Dplaying_poster%22%5D; _pk_ses.100001.4cf6=*; __utma=223695111.788421403.1612839506.1613363340.1613372123.9; __utmb=223695111.0.10.1613372123; __utmz=223695111.1613372123.9.4.utmcsr=douban.com|utmccn=(referral)|utmcmd=referral|utmcct=/misc/sorry; _pk_id.100001.4cf6=e2e8bde436a03ad7.1612839506.9.1613372127.1613363387.',}url="https://movie.douban.com/cinema/nowplaying/zhanjiang/"
r = requests.get(url,headers=headers)
r.encoding = 'utf8'
s = (r.content)
selector = etree.HTML(s)
li_list = selector.xpath('//*[@id="nowplaying"]/div[2]/ul/li')dict = {}
for item in li_list:name = item.xpath('.//*[@class="stitle"]/a/@title')[0].replace(" ","").replace("\n","")rate = item.xpath('.//*[@class="subject-rate"]/text()')[0].replace(" ", "").replace("\n", "")dict[name] = float(rate)print("电影="+name)print("评分="+rate)print("-------")

电影名评分数据已经爬取下来,并且降序排序,后面会进行可视化。

2.时长和电影类型

网页分析

在页面源码中,电影时长的网页标签是roperty="v:runtime",电影类型的网页标签对应是property="v:genre"

编程实现

###时长
def getmovietime():url = "https://movie.douban.com/cinema/nowplaying/zhanjiang/"r = requests.get(url, headers=headers)r.encoding = 'utf8's = (r.content)selector = etree.HTML(s)li_list = selector.xpath('//*[@id="nowplaying"]/div[2]/ul/li')for item in li_list:title = item.xpath('.//*[@class="stitle"]/a/@title')[0].replace(" ", "").replace("\n", "")href = item.xpath('.//*[@class="stitle"]/a/@href')[0].replace(" ", "").replace("\n", "")r = requests.get(href, headers=headers)r.encoding = 'utf8's = (r.content)selector = etree.HTML(s)times = selector.xpath('//*[@property="v:runtime"]/text()')type = selector.xpath('//*[@property="v:genre"]/text()')print(title)print(times)print(type)print("-------")

3.评论数据

网页分析

查看网页代码,评论数据的目标标签是<div class="mod-bd" id="comments">

(不知道如何分析,可以看上一篇文章python爬取44130条用户观影数据,分析挖掘用户与电影之间的隐藏信息!,这篇文章也是分析豆瓣电影,里面有详细介绍)。

下面开始爬取这七部电影的评论数据!!!!

编程实现

###评论数据
def getmoviecomment():url = "https://movie.douban.com/cinema/nowplaying/zhanjiang/"r = requests.get(url, headers=headers)r.encoding = 'utf8's = (r.content)selector = etree.HTML(s)li_list = selector.xpath('//*[@id="nowplaying"]/div[2]/ul/li')for item in li_list:title = item.xpath('.//*[@class="stitle"]/a/@title')[0].replace(" ", "").replace("\n", "")href = item.xpath('.//*[@class="stitle"]/a/@href')[0].replace(" ", "").replace("\n", "").replace("/?from=playing_poster", "")print("电影=" + title)print("链接=" + href)###with open(title+".txt","a+",encoding='utf-8') as f:for k in range(0,200,20):url = href+"/comments?start="+str(k)+"&limit=20&status=P&sort=new_score"r = requests.get(url, headers=headers)r.encoding = 'utf8's = (r.content)selector = etree.HTML(s)li_list = selector.xpath('//*[@class="comment-item "]')for items in  li_list:text = items.xpath('.//*[@class="short"]/text()')[0]f.write(str(text)+"\n")print("-------")time.sleep(4)

将这些评论数据分别保存到文本文件中,后面将这些评论数据采用不同的图形进行可视化展示!!!!

03数据可视化

1.评分数据可视化

###画图
font_size = 10  # 字体大小
fig_size = (13, 10)  # 图表大小data = ([datas])# 更新字体大小
mpl.rcParams['font.size'] = font_size
# 更新图表大小
mpl.rcParams['figure.figsize'] = fig_size
# 设置柱形图宽度
bar_width = 0.35index = np.arange(len(data[0]))
# 绘制评分
rects1 = plt.bar(index, data[0], bar_width, color='#0072BC')# X轴标题
plt.xticks(index + bar_width, itemNames)
# Y轴范围
plt.ylim(ymax=10, ymin=0)
# 图表标题
plt.title(u'豆瓣评分')
# 图例显示在图表下方
plt.legend(loc='upper center', bbox_to_anchor=(0.5, -0.03), fancybox=True, ncol=5)# 添加数据标签
def add_labels(rects):for rect in rects:height = rect.get_height()plt.text(rect.get_x() + rect.get_width() / 2, height, height, ha='center', va='bottom')# 柱形图边缘用白色填充,纯粹为了美观rect.set_edgecolor('white')add_labels(rects1)# 图表输出到本地
plt.savefig('豆瓣评分.png')

分析

在热映的这七部电影中,《你好,李焕英》评分最高(8.3),《唐人街探案3》最低(5.8),这有点出乎意料(唐人街探案3热度远比你好,李焕英热度要高)。

2.时长和类型可视化

时长数据可视化

#####时长可视化
itemNames.reverse()
datas.reverse()# 绘图。
fig, ax = plt.subplots()
b = ax.barh(range(len(itemNames)), datas, color='#6699CC')# 为横向水平的柱图右侧添加数据标签。
for rect in b:w = rect.get_width()ax.text(w, rect.get_y() + rect.get_height() / 2, '%d' %int(w), ha='left', va='center')# 设置Y轴纵坐标上的刻度线标签。
ax.set_yticks(range(len(itemNames)))
ax.set_yticklabels(itemNames)
plt.title('电影时长(分钟)', loc='center', fontsize='15',fontweight='bold', color='red')#plt.show()
plt.savefig("电影时长(分钟)")

分析

  1. 图中的电影时长均在120分钟左右

  2. 最长的电影《唐人街探案3》(136分钟),时长最短的是《熊出没·狂野大陆》(99分钟)

电影类型数据可视化

#####2.类型可视化
###从小到大排序
dict = sorted(dict.items(), key=lambda kv: (kv[1], kv[0]))
print(dict)itemNames = []
datas = []
for i in range(len(dict) - 1, -1, -1):itemNames.append(dict[i][0])datas.append(dict[i][1])x = range(len(itemNames))
plt.plot(x, datas, marker='o', mec='r', mfc='w', label=u'电影类型')
plt.legend()  # 让图例生效
plt.xticks(x, itemNames, rotation=45)
plt.margins(0)
plt.subplots_adjust(bottom=0.15)
plt.xlabel(u"类型")  # X轴标签
plt.ylabel("数量")  # Y轴标签
plt.title("电影类型统计")  # 标题
plt.savefig("电影类型统计.png")

分析

将这七部电影的类型进行统计(有的电影属于多个类型,比如'动作', '奇幻', '冒险')。

  1. 七部电影中其中有四部是属于喜剧。

  2. 科幻、犯罪、悬疑、冒险均属于其中一部。

3.评论数据词云可视化

使用七种不同的图案进行词云可视化,因此将绘图的代码封装成函数!!!

####词云代码
def jieba_cloud(file_name, icon):with open(file_name, 'r', encoding='utf8') as f:text = f.read()text = text.replace('\n',"").replace("\u3000","").replace(",","").replace("。","")word_list = jieba.cut(text)result = " ".join(word_list)  # 分词用 隔开# 制作中文云词icon_name = ""if icon == "1":icon_name ='fas fa-envira'elif icon == "2":icon_name = 'fas fa-dragon'elif icon == "3":icon_name = 'fas fa-dog'elif icon == "4":icon_name = 'fas fa-cat'elif icon == "5":icon_name = 'fas fa-dove'elif icon == "6":icon_name = 'fab fa-qq'elif icon == "7":icon_name = 'fas fa-cannabis'"""# icon_name='',#国旗# icon_name='fas fa-dragon',#翼龙icon_name='fas fa-dog',#狗# icon_name='fas fa-cat',#猫# icon_name='fas fa-dove',#鸽子# icon_name='fab fa-qq',#qq"""picp = file_name.split('.')[0] + '.png'if icon_name is not None and len(icon_name) > 0:gen_stylecloud(text=result, icon_name=icon_name, font_path='simsun.ttc', output_name=picp)  # 必须加中文字体,否则格式错误else:gen_stylecloud(text=result, font_path='simsun.ttc', output_name=picp)  # 必须加中文字体,否则格式错误return picp

开始对这七部电影评论数据进行绘图

###评论数据词云
def commentanalysis():lists = ['刺杀小说家','你好,李焕英','人潮汹涌','侍神令','唐人街探案3','新神榜:哪吒重生','熊出没·狂野大陆']for i in range(0,len(lists)):title =lists[i]+".txt"jieba_cloud(title , (i+1))

分析

废话不多说了,下面开始词云』!!!!!!!

1.刺杀小说家

2.人潮汹涌

3.熊出没·狂野大陆

4.新神榜:哪吒重生

5.唐人街探案3

6.你好,李焕英

7.侍神令

04总结

  1. 爬取豆瓣『大年初一』上映电影数据(评分时长类型评论

  2. 对评分、时长、类型进行图表可视化

  3. 采用不同词云图案对七部电影『评论』词云秀!!!!

如果大家对本文代码源码感兴趣,扫码关注Python爬虫数据分析挖掘后台回复:豆瓣热映 ,获取完整代码以及数据。

各种开源源码获取方式

识别文末二维码,回复:开源源码

------------- 推荐文章 -------------

1.python爬取44130条用户观影数据,分析挖掘用户与电影之间的隐藏信息!


2.python爬取淘宝全部『螺蛳粉』数据,看看你真的了解螺蛳粉吗?


3.爬取淘宝热卖商品并可视化分析,看看大家都喜欢买什么!


4.爬虫遇到反爬机制怎么办? 看看我是如何解决的!


5.花一天时间做了一个福利资源网站!免费分享给大家


python爬取『大年初一』热映电影,以『可视化及词云秀』方式带你了解热映电影...相关推荐

  1. python爬取网易云音乐飙升榜音乐_python爬取网易云音乐热歌榜 python爬取网易云音乐热歌榜实例代码...

    想了解python爬取网易云音乐热歌榜实例代码的相关内容吗,FXL在本文为您仔细讲解python爬取网易云音乐热歌榜的相关知识和一些Code实例,欢迎阅读和指正,我们先划重点:python,网易热歌榜 ...

  2. Python爬取网易云音乐热歌榜(爬虫)

    Python爬取网易云音乐热歌榜歌曲,并下载到本地 找到要下载歌曲排行榜的链接,这里用的是: https://music.163.com/discover/toplist?id=3778678 然后更 ...

  3. python爬取天气与微博热搜自动发给微信好友

    python爬取天气与微博热搜自动发给微信好友 前言 系统环境 正文 爬取中国天气网 爬取微博热搜 微信自动发送消息 源代码 总结 github地址 前言 忙着毕设与打游戏之余,突然想着写个爬虫练练手 ...

  4. python爬取 过去的微博热搜(热搜神器)

    python爬取热搜神器(可以查找关键字热搜or过去的热搜) hello,因为老师给了任务,希望我们爬取一些微博上的数据,所以就想到了要爬取热搜,再根据热搜爬取评论.因为微博对过往的热搜不能根据时间进 ...

  5. python爬取网易云音乐热评_python爬取网易云音乐评论

    本文实例为大家分享了python爬取网易云音乐评论的具体代码,供大家参考,具体内容如下 import requests import bs4 import json def get_hot_comme ...

  6. 用python爬取全国和全球疫情数据,并进行可视化分析(过程详细代码可运行)

    用Python爬取最新疫情数据 这次重大疫情,每时每刻数据都有可能变化,这篇博文将为大家讲解如何爬取实时疫情数据,并且分析数据,作出数据可视化的效果. 报告梗概: 对中国疫情分析 1.1 展示各省疫情 ...

  7. Python爬取‘跌妈不认’股票数据,绘制可视化图

    前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理. 以下文章来源于可以叫我才哥 ,作者才哥 大家好,上次我们试着用vba在excel中绘制树状热 ...

  8. 利用python爬取历代中国行政图,从先周到中华人民共和国,jpg格式边框带经纬度,可自行配准矢量化

    古代地图,对于历史相关研究人员,是需要的工具,本想找到历代矢量的历史地图数据,但是发现很难有资源,因此只能找到已经公开制图了jpg数据,如果你有耐心,可以配准后矢量化,获取历代矢量数据,不够工作量浩大 ...

  9. Python爬取全国大学排名 用pyecharts进行大屏可视化

    爬取全国大学排名 用pyecharts进行可视化 院校网址:http://college.gaokao.com/schlist/p F12 先找到对应的全部list 需要先安装requests,lxm ...

  10. 用Python爬取《王者荣耀》英雄皮肤数据并可视化分析,用图说话

    大家好,我是辰哥~ 今天辰哥带大家分析一波当前热门手游<王者荣耀>英雄皮肤,比如皮肤上线时间.皮肤类型(勇者:史诗:传说等).价格. 获取数据 数据来源于<王者荣耀官方网站>, ...

最新文章

  1. node中模块、AMD与CMD、ES6模块,node中使用ES6
  2. 网页瀑布流效果实现的几种方式
  3. win10 64 安装VSS2005报错,解决方法。
  4. 返乡大迁徙,任正非说了两个“不要忘了”
  5. linux boot空间分多少,/boot分区空间不足,清理老内核所占空间
  6. Go进阶(9): For Range 性能研究
  7. hbuilderx能开发vue吗_学会就能接项目!Vue + Spring Boot 实现全栈商城项目开发
  8. (4opencv)OpenCV PR 成功的收获和感悟
  9. php本地怎么接受小程序图片,怎么把本地图片当作小程序背景
  10. oracle取位置,获取oracle trace文件路径
  11. 2017上海金马五校赛 丢史蒂芬妮 博弈问题
  12. ado.net操作数据库
  13. 华为xs第几批升级鸿蒙,华为鸿蒙升级名单已确认!这44款机型将优先升级,花粉有福了...
  14. [Vue.js] 模块化 -- 前端模块化
  15. 10_官方例子程序01
  16. 【totti】一道weblogic认证考题所想到的
  17. c++图书管理系统_我用Python帮学校写了一款图书管理系统!教导员居然请我吃饭
  18. STDN:Scale-Transferrable Object Detection 论文解析
  19. Layui在表格中无法显示进度条(layui-progress)的值
  20. 爬虫:如何爬取国家行政区划代码

热门文章

  1. 【方法篇】S-棕榈酰化蛋白修饰质谱鉴定方法
  2. STM32F407单片机移植ADS1115驱动程序
  3. GPU共享内存:pycuda使用教程
  4. css 头像外圈白_如何使用css实现一个圆形头像框
  5. 3ds Max 实验十 熟悉材质编辑器
  6. 耐得住寂寞,拥得了繁华
  7. mysql 取月份天数_mysql 之 获取指定月份天数和指定月份上月天数
  8. 极兔快递电子面单打印API接口-极兔快递
  9. 计算机专业选择银行必须知道的20个问题
  10. Home Assistant -ESP Home接入homekit篇