这几天朋友圈,微博都被《哪吒之魔童降世》这部电影刷屏了,有人说它是“国漫之光”,上映4天,票房已经突破9亿了。口碑上,影片自点映开分以来,口碑连续十天稳居所有在映影片榜首之位,收获无数观众喜爱与支持。这部电影是不是真的如网友们所说呢?事实还是要靠数据来说话,接下来将用Python爬取豆瓣上的影评,分析影评给出一个准确答案。

爬虫分为:爬取网页,分析网页,存储数据,分析数据这四步。我将一步一步演示。

第一步,爬取单页的豆瓣网《哪吒之魔童降世》短评的页面:要传递headers,豆瓣是有反爬虫措施的,如果不传递headers,它是不让我们爬的。Headers里有Cookie,Referer,user-agent,Cookie维持当前的访问对话,Referer标识请求来源的页面,user-agent可以将爬虫伪装成浏览器,然后传入url即可。

def get_page(url):headers = {'Referer':'https://movie.douban.com/subject/26794435/reviews?start=60','Cookie':'bid=DxHhSB_-Zes; ll="118230"; __yadk_uid=H4SrCzj2ByHOg7fX30crzR3NU4YkFTkW; _vwo_uuid_v2=D63BD3ECABD38BCB6F51C5168C4F56A53|92b1e241a5634c49f107ed6246293470; __gads=ID=d52de5866790ac5c:T=1563240246:S=ALNI_MZq6g6AMWrsRhzMI17NTHSXoo2c_g; trc_cookie_storage=taboola%2520global%253Auser-id%3D55735cb5-56c7-45cd-834d-f50a9d37cb97-tuct425fa8a; gr_user_id=8e2a15f1-e815-4d60-89a3-327e94ef029f; viewed="33442264"; push_noty_num=0; push_doumail_num=0; __utmv=30149280.18138; __utmc=30149280; __utmc=223695111; ps=y; ap_v=0,6.0; __utma=30149280.570724812.1563160554.1564395173.1564403664.19; __utmb=30149280.0.10.1564403664; __utmz=30149280.1564403664.19.12.utmcsr=baidu|utmccn=(organic)|utmcmd=organic; __utma=223695111.985218115.1563160554.1564387882.1564403664.17; __utmb=223695111.0.10.1564403664; __utmz=223695111.1564403664.17.11.utmcsr=baidu|utmccn=(organic)|utmcmd=organic; _pk_ref.100001.4cf6=%5B%22%22%2C%22%22%2C1564403664%2C%22https%3A%2F%2Fwww.baidu.com%2Flink%3Furl%3DZY44JoMA5t-V1-xpReFdXSZYMuJmYaaIXjgPkPgX8Xari5rfXaYZ6F01rE1bUUmL%26wd%3D%26eqid%3Dd36d559c000bc439000000025d3ee7cb%22%5D; _pk_ses.100001.4cf6=*; dbcl2="181384057:8I818hPqXwg"; ck=YL4Y; _pk_id.100001.4cf6=6f5f12305430b1f3.1563160554.16.1564405190.1564388517.','User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'}try:r = requests.get(url,headers=headers)if r.status_code == 200:return r.contentreturn Noneexcept RequestException:return None

第二步分析网页:这里小编用比较常用的解析库BeautifulSoup来解析网页,当然也可以用XPath,pyquery解析库来解析。解析网页的过程,只需要知道要爬取的数据在那个节点下即可,然后获取属性或者文本。废话不多说,直接上代码。

def parse_page(html):soup = BeautifulSoup(html.decode('utf-8'),'lxml')all_comments = soup.find('div',class_='mod-bd')#print(all_comments)for each_comment in all_comments.find_all('div',class_='comment'):authors = each_comment.find('a',class_="")author = authors.text#scores = each_comment.find('span',class_="rating")#score = scores['title']all_span_tag = each_comment.find_all('span')score = all_span_tag[4]['title']comment_times = each_comment.find('span', class_="comment-time")comment_time = comment_times.textcomments = each_comment.find('span', class_="short")comment = comments.text

第三步存储数据:文本存储,数据库,向数据库插入数据,要用字典的形式,下面代码分别保存在文本文档里和MongoDB数据库中。

neirong = '作者:{},评分:{},评分时间:{},影评:{}'.format(author.strip(), score.strip(), comment_time.strip(), comment.strip())with open('哪吒之魔童降世.txt','a',encoding='gb18030') as file:file.write(neirong)text = {'作者': author.strip(),'评分': score.strip(),'评分时间': comment_time.strip(),'影评': comment.strip(),}save_to_mongo(text)client = MongoClient()
db = client.Text
collection = db.commentdef save_to_mongo(result):try:if collection.insert_one(result):print('存储成功')except Exception:print("存储失败")

PS:上面是爬取一页的影评,因为要爬取所有的影评,所以需要分页爬取,通过切换页面可以发现,控制页面切换参数是start,只要设置不同的start值就可以爬取所有的影评了,遍历一下就行。

def main(offest):url = "https://movie.douban.com/subject/26794435/comments?start="+str(offest)html = get_page(url)parse_page(html)if __name__ == '__main__':for i in range(0, 25):print("正在爬取第", i, "页影评")time.sleep(1)main(i * 20)

第四步分析数据,这里做一个影评的词云,以及满意度的饼图。从文本读取爬取的数据,生成词云。

from wordcloud import WordCloud,ImageColorGenerator
import matplotlib.pyplot as plt
import numpy as np
from PIL import Image
import jieba
#读取文本
text = open('哪吒之魔童降世.txt',encoding='gb18030').read()
#分词
text = ''.join(jieba.cut(text))
#mask
mask = np.array(Image.open('哪吒.jpg'))
#数据清洗
stopwords = ['评分','评分时间','影评','作者']
#生成词云
wc = WordCloud(mask=mask,stopwords=stopwords).generate(text)
#颜色
color = ImageColorGenerator(mask)
wc.recolor(color_func=color)
#显示词云
plt.imshow(wc)
plt.axis('off')
plt.show()
#保存图片
wc.to_file('魔童降世.jpg')

对于生成饼图的过程我就不多说了,因为我刚接触爬虫,对一些知识点还很模糊,就直接上代码了。

from pymongo import MongoClient
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = Falseindex = ['力荐','推荐','还行','较差','很差']
client = MongoClient('mongodb://127.0.0.1:27017/')
db = client.Text
comment = db.commentvalue = []
for i in index:num = comment.count_documents({'评分':i})value.append(num)print(value)
plt.bar(x=index,height=value,color='red',width=0.5)
#plt.pie(x=value,labels=index, autopct='%.0d%%')
#plt.title('满意度')
plt.show()

大家感兴趣的话,可以关注我的公众号,刚开始做,记录自己学习爬虫的一些经验。

Python爬取豆瓣《哪吒之魔童降世》影评相关推荐

  1. 用 Python 爬取 500 条豆瓣影评,看看《蚁人2》是否有看点?

    作者 | 量化小白H 责编 | 郭芮 "不以大小论英雄."<蚁人2>已热映多天,本文就来看看豆瓣电影上的这部片子评分如何,从代码和数据层面给出最客观的解读. 作为练手, ...

  2. 基于selenium+scrapy爬取复仇者联盟4豆瓣影评数据

    基于selenium+scrapy爬取复仇者联盟4豆瓣影评数据 参考资料: 黑马程序员爬虫教程 静觅爬虫教程 mac下anaconda安装selenium+PhantomJS scrapy下载中间件结 ...

  3. python爬取豆瓣影评理论依据_我用Python爬取了豆瓣的影评

    使用Python爬取豆瓣的影评,比爬取网易云简单,因为不需要设置特定的headers,关于网易云说几句,很难爬取,对请求头有着严格的要求,前几年那会还好些. 爬取结果分为:用户名,评价的星级,评论的内 ...

  4. 用python爬取豆瓣影评及影片信息(评论时间、用户ID、评论内容)

    爬虫入门:python爬取豆瓣影评及影片信息:影片评分.评论时间.用户ID.评论内容 思路分析 元素定位 完整代码 豆瓣网作为比较官方的电影评价网站,有很多对新上映影片的评价,不多说,直接进入正题. ...

  5. Python爬取豆瓣网影评展示

    Python爬取豆瓣网影评展示 需要的库文件 requests beautifulsoup wordcloud jieba matplotlib 本文思想 1.访问指定的网页 #获取指定url的内容 ...

  6. 完全小白篇-用python爬取豆瓣电影影评

    完全小白篇-用python爬取豆瓣影评 打开豆瓣电影 随机电影的所有影评网页 跳转逻辑 分析影评内容获取方法 逐一正则提取影评 针对标签格式过于多样的处理 针对提出请求的频率的限制 存储方式(本次sq ...

  7. Python爬取唐人街探案3豆瓣短评并生成词云

    爬取唐人街探案3短评过程 要爬取的URL: https://movie.douban.com/subject/27619748/comments?start=20&limit=20&s ...

  8. python爬取豆瓣电影评论_python 爬取豆瓣电影评论,并进行词云展示及出现的问题解决办法...

    def getHtml(url): """获取url页面""" headers = {'User-Agent':'Mozilla/5.0 ( ...

  9. Python爬取豆瓣Top250电影中2000年后上映的影片信息

    Python爬取豆瓣Top250电影中2000年后上映的影片信息 前言 双十一前加在京东购物车的一个东西,价格330,Plus会员用券后差不多310.双十一当天打开看了下399,还得去抢满300减10 ...

最新文章

  1. vue-cli脚手架(框架)
  2. 使用laravel框架的eloquent\DB模型连接多个数据库
  3. Tomcat启动之异常java.lang.IllegalStateException
  4. React UI 库:React Suite 3.7.8 版本更新
  5. 20165203第四周考试
  6. linux设备驱动学习(三)——并发控制
  7. php 公众号验证回调方法_微信公众号关键词自动回复设置方法!
  8. 【转载】python两个列表获取交集,并集,差集
  9. mysql中主键的用法_MySQL中的主键以及设置其自增的用法教程
  10. python colorbar 0变白色_Python matplotlib更改超过colorbar范围的值的默认颜色
  11. C程序设计语言现代方法14:预处理器
  12. [SHELL进阶] (转)最牛B的 Linux Shell 命令 (三)
  13. Hibernate之HQL查询
  14. 无法退休的董小姐?董明珠继任格力董事长
  15. wps word文字样式管理
  16. Unity学习笔记------用Unity2D制作打地鼠游戏
  17. 【Redis踩坑日记】Redis由于目标计算机积极拒绝,无法连接
  18. jsp文件打开为记事本怎么办
  19. 月考勤报表的TSQL查询
  20. 电脑所有的文件打开很慢

热门文章

  1. JS数组删除指定下标元素 JS删除对象指定元素
  2. linux系统中ps和top,linux中PS和TOP命令用法详解.docx
  3. RK 平台MIPI 点屏注意事项
  4. jQuery使用手册(4)
  5. 使用POI写入和读取Excel文件中的数据
  6. 用python爬取3dm上的单机游戏评测信息
  7. 初中孩子做作业能用计算机吗,作业帮,帮孩子还是害孩子?
  8. java @Target@Retention @Documented 注解的含义
  9. 2021年广工大第十五届文远知行杯-B找山坡-栈
  10. 购买计算机一定要追求独立显卡,客户花200买GTX1060显卡,用了一周就坏了了,这种卡你还敢买吗?...