python大作业数据_python 爬虫初探和简单数据分析及可视化,帮学妹写个大作业...
学妹期末大作业
基于Python的十年(2009年~2018年)电影票房前25位分析
根据URL“http://www.cbooo.cn” 通过代码爬取2009-2018每年票房排名前25的影片名称、类型、总票房(万)、平均票价、场均人次及国家及地区的信息,并按照以下要求完成分析。
1. 按年统计
1) 不同类型电影的平均票房
2) 不同国家及地区电影在前25排名中的占比
2. 分析十年间
1) 每年票房冠军的票房走势,并找出十年票房总冠军
2) 不同类型的票房分冠军
3) 同一类型电影平均票房走势,分别找出上升、下降最厉害的两种类型
4) 同一地区在前25排名中占比的变化趋势,分别找出占比上升、下降最厉害的两个地区
5) 探究是否有一种或多种类型的电影在十年间票房震荡非常厉害
3. 分析总票房和平均票价、场均人次、排片场数之间的关系。
4.撰写word文档完成本分析题,所有的结论和分析都需要配图或表加以支撑。并将十年间共250部电影名称作成词云烘托主题。
大作业分析
1.环境,建议使用anaconda3(环境集成,不用再去安装依赖包,之类的)
官网地址:https://www.anaconda.com/download/
2.分为爬取数据和分析两个部分
下面直接上代码
爬虫部分,爬取数据并存放到data.csv中
#!/usr/bin/python
# -*- coding: utf-8 -*-
import requests
import time
import re
import csv
from bs4 import BeautifulSoup
#设置URL固定部分
url='http://www.cbooo.cn/year?year='
#设置请求头部信息
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'
}
#循环抓取列表页信息
for year in range(2009,2019):
if year == 2009:
year=str(year)
a=(url+year)
r=requests.get(url=a,headers=headers)
html=r.content
else:
year=str(year)
a=(url+year)
r=requests.get(url=a,headers=headers)
html2=r.content
html = html + html2
#每次间隔0.5秒
time.sleep(0.5)
lj=BeautifulSoup(html,'html.parser')
#print(lj)
#提取名称、类型、总票房(万)、平均票价、场均人次及国家及地区
result=lj.find_all('td')
#print(result)
#print(len(result))
mname=[]
title=""
index=1
year=2009
for i in result:
i=str(i)
title=re.findall(r'(.*?)',i,re.I|re.M)
if len(title)>0:
mname.append(index)
index=index+1
mname.append(title[0])
else:
info=re.findall(r'(.*?)',i,re.I|re.M)
mname.append(info[0])
#print(len(mname))
#print(mname)
k=0
data=[]
while k<2000:
year=2009
year=year+(k//200)
data.append([mname[k],mname[k+1],mname[k+2],mname[k+3],mname[k+4],mname[k+5],mname[k+6],mname[k+7],year,1])
k=k+8
#print(data)
print(len(data))#一共250条数据
#将结果存到CSV文件
with open('./data.csv','w') as fout:
cin= csv.writer(fout,lineterminator='\n')
#写入row_1 cin.writerow(["index","name","type","zpf","mantimes","price","area","datatime","year","mark"])
for item in data:
cin.writerow(item)
结果,生成一个data.csv文件,我们打开看一下
image.png
一共250行数据,也就是近10年的电影
接下来,我们进行分析部分的代码
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
data1 = pd.read_csv('./data.csv',encoding='gbk')
#data
# 1.1 按年统计 不同类型电影的平均票房
data=data1
data = data.groupby(['type','year']).zpf.mean().unstack()
#没有的补0
data.fillna(0,inplace = True)
data
image.png
# 1.2 按年统计 不同国家及地区电影在前25排名中的占比
data=data1
data.mark = data.mark/25
data = data.groupby(['area','year']).mark.sum().unstack()
data.fillna(0,inplace = True)
data
image.png
# 2.1 分析十年间 每年票房冠军的票房走势,并找出十年票房总冠军
data=data1
df_empty = pd.DataFrame()
i=0
while i
image.png
# 2.2 分析十年间 不同类型的票房分冠军---失败待解决
data=data1
data=data.groupby('type').agg({'zpf':['max']}).reset_index()
data
# 2.3 分析十年间 同一类型电影平均票房走势,分别找出上升、下降最厉害的两种类型
data=data1
data = data.groupby(['type','year']).zpf.mean().unstack()
data.fillna(0,inplace = True)
#设置识别中文
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus']=False
#设置画布大小
plt.figure(figsize=(12,6))
plt.title('同一类型电影平均票房走势',fontsize=20)
plt.xlabel('年份')
plt.ylabel('平均票房(万)')
plt.plot(data.T)
data.T.plot()
#data
# 2.4 分析十年间 同一地区在前25排名中占比的变化趋势,分别找出占比上升、下降最厉害的两个地区
data=data1
#mark设置为1/25,方便后边算比例
data.mark=0.04
data = data.groupby(['area','year']).mark.sum().unstack()
data.fillna(0,inplace = True)
#设置画布大小
plt.figure(figsize=(12,6))
plt.title('同一地区在前25排名中占比的变化趋势',fontsize=20)
plt.xlabel('年份')
plt.ylabel('占比')
plt.plot(data.T)
data.T.plot()
#data
# 2.5 分析十年间 探究是否有一种或多种类型的电影在十年间票房震荡非常厉害
data=data1
data = data.groupby(['type','year']).zpf.sum().unstack()
data.fillna(0,inplace = True)
#设置画布大小
plt.figure(figsize=(12,6))
plt.title('电影类型在十年间总票房变化',fontsize=20)
plt.xlabel('年份')
plt.ylabel('总票房(万)')
plt.plot(data.T)
data.T.plot()
#data
#3.分析总票房和平均票价之间的关系
data=data1
#设置画布大小
plt.figure(figsize=(12,6))
plt.title('总票房和平均票价的关系',fontsize=20)
plt.xlabel('平均票价')
plt.ylabel('总票房(万)')
plt.scatter(data.price,data.zpf,c='r')
#data
image.png
#3.分析总票房和场均人次的关系
data=data1
#设置画布大小
plt.figure(figsize=(12,6))
plt.title('总票房和场均人次的关系',fontsize=20)
plt.xlabel('场均人次')
plt.ylabel('总票房(万)')
plt.scatter(data.mantimes,data.zpf,c='g')
image.png
#3.分析总票房和排片场数之间的关系
data=data1
#设置画布大小
plt.figure(figsize=(12,6))
plt.title('总票房和排片场数的关系',fontsize=20)
plt.xlabel('排片场数(万)')
plt.ylabel('总票房(万)')
plt.scatter(data.zpf,(data.zpf/data.price/data.mantimes),c='b')
image.png
#4.将十年间共250部电影名称作成词云烘托主题-----待解决
from PIL import Image,ImageSequence
import numpy as np
import matplotlib.pyplot as plt
from wordcloud import WordCloud,ImageColorGenerator
image= Image.open('./tim.jpg')
graph = np.array(image)
wc = WordCloud(font_path='./fonts/simhei.ttf',background_color='White',max_words=50,mask=graph)
wc.generate_from_frequencies(keywords)
image_color = ImageColorGenerator(graph)
plt.imshow(wc)
plt.imshow(wc.recolor(color_func=image_color))
plt.axis("off")
plt.show()
wc.to_file('dream.png')
有问题的地方后期会更新一下,总的来说,这是五个月前,第一次写python爬虫,然后做数据分析
请大家多多提些宝贵意见!
感谢阅读~
python大作业数据_python 爬虫初探和简单数据分析及可视化,帮学妹写个大作业...相关推荐
- python 正则表达式提取数据_Python爬虫教程-19-数据提取-正则表达式(re)
本篇主页内容:match的基本使用,search的基本使用,findall,finditer的基本使用,匹配中文,贪婪与非贪婪模式 Python爬虫教程-19-数据提取-正则表达式(re) 正则表达式 ...
- python爬表格数据_python爬虫,爬取表格数据
python爬虫,爬取表格数据 python爬虫,爬取表格数据 python爬虫,爬取全国空气质量指数 编程环境:Jupyter Notebook 所要爬取的网页数据内容如下图 python爬虫代码及 ...
- 如何用python爬股票数据_python爬虫股票数据,如何用python 爬虫抓取金融数据
Q1:如何用python 爬虫抓取金融数据 获取数据是数据分析中必不可少的一部分,而网络爬虫是是获取数据的一个重要渠道之一.鉴于此,我拾起了Python这把利器,开启了网络爬虫之路. 本篇使用的版本为 ...
- python解析网页数据_python爬虫——爬取网页数据和解析数据
1.网络爬虫的基本概念 网络爬虫(又称网络蜘蛛,机器人),就是模拟客户端发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序. 只要浏览器能够做的事情,原则上,爬虫都能够做到. ...
- python 搜索网页数据_python爬虫爬取网页所有数据
技术文档 主体内容:可以认为是页面最想表达的内容总和.对于内容详情页来说,主体内容指从标题开始至正文内容结束,翻页区域也被视为主体内容,文章后的评论.分享.推荐等不视为主体内容. 首屏:用户点击搜索结 ...
- python基金预测分析_Python爬虫抓取基金数据分析、预测系统设计与实现
版权声明:本文为博主原创文章,如果转载请给出原文链接:http://doofuu.com/article/4156231.html 目前在开发一款基于Python的基金爬取.分析.预测系统,目前已经开 ...
- python numpy读取数据_python机器学习(七)数据分析利器,NumPy,pandas与Matplotlib
image.png 一.Numpy NumPy库名字来源于"Numerical Python" 的缩写. 1.1.数组的概念 a为定义的一个列表,b为定义的一个数组. import ...
- python处理金融数据_Python之获取与简单处理金融数据
Python的功能不可以说不大,在金融数据分析里面有着很方便的应用.本篇文章给大家分享的内容是Python之获取与简单处理金融数据,有着一定的参考价值,有需要的朋友可以参考一下 1.数据获取panda ...
- 慕课《用Python玩转数据》之B站弹幕数据分析
慕课<用Python玩转数据>之B站弹幕数据分析 1.源代码 # -*- coding: utf-8 -*- """ Created on Wed May 1 ...
- python中的网页解析器_python爬虫初探(三):HTML解析器
爬虫初探系列一共4篇,耐心看完,我相信你就能基本了解爬虫是怎样工作的了,目录如下: 代码已上传至github,在python2.7下测试成功(请原谅我浓浓的乡村非主流代码风格)summerliehu/ ...
最新文章
- Go 学习笔记(37)— 标准命令(go build 跨平台编译、交叉编译、go clean、go run、go fmt、go install、go get)
- 机器学习(14)逻辑回归(理论)
- QIIME 2用户文档. 9数据导出Exporting data(2018.11)
- php怎么复制变量,php - 将用户名保留在变量/函数中供以后使用[复制] - SO中文参考 - www.soinside.com...
- 显示驱动包含在Linux内核层,驱动程序层(上) - Linux内核--网络栈实现分析_Linux编程_Linux公社-Linux系统门户网站...
- 2021亚太内容分发大会 阿里云荣获三项大奖
- 大话设计模式笔记 享元模式
- SMOTE/SMOTEEN 处理不平衡数据集
- python 3d渲染_python老司机带你玩玩炫酷的3D渲染,酷毙了!
- CSS 背景图片 设置居中
- 使用现有模板制作一个简单的H5页面
- FreeType需要libpng的说明(编译时可以用参数去掉,2.12已支持svg)
- 浅谈前端JavaScript编程风格
- mac 字幕生成工具
- I3D【Inflated 3D ConvNet】——膨胀卷积网络用于行为识别
- PDF拆分技巧——如何在线拆分PDF
- jquery的$().each(function(i){})和和$.each(,function(i,n){})的区别和用法
- 六款高效学习软件——程序员必备
- Oracle Advanced Queuing 触发器入列和异步通知消息出列
- mysql安装bus error_如何解决mysql安装bus error问题