Python实现爬虫爬取NBA数据功能示例

本文实例讲述了Python实现爬虫爬取NBA数据功能。分享给大家供大家参考,具体如下:

爬取的网站为:stat-nba.com,这里爬取的是NBA2016-2017赛季常规赛至2017年1月7日的数据

改变url_header和url_tail即可爬取特定的其他数据。

源代码如下:

#coding=utf-8

import sys

reload(sys)

sys.setdefaultencoding('utf-8')

import requests

import time

import urllib

from bs4 import BeautifulSoup

import re

from pyExcelerator import *

def getURLLists(url_header,url_tail,pages):

"""

获取所有页面的URL列表

"""

url_lists = []

url_0 = url_header+'0'+url_tail

print url_0

url_lists.append(url_0)

for i in range(1,pages+1):

url_temp = url_header+str(i)+url_tail

url_lists.append(url_temp)

return url_lists

def getNBAAllData(url_lists):

"""

获取所有2017赛季NBA常规赛数据

"""

datasets = ['']

for item in url_lists:

data1 = getNBASingleData(item)

datasets.extend(data1)

#去掉数据里的空元素

for item in datasets[:]:

if len(item) == 0:

datasets.remove(item)

return datasets

def getNBASingleData(url):

"""

获取1个页面NBA常规赛数据

"""

# url = 'http://stat-nba.com/query_team.php?QueryType=game&order=1&crtcol=date_out&GameType=season&PageNum=3000&Season0=2016&Season1=2017'

# html = requests.get(url).text

html = urllib.urlopen(url).read()

# print html

soup = BeautifulSoup(html)

data = soup.html.body.find('tbody').text

list_data = data.split('\n')

# with open('nba_data.txt','a') as fp:

# fp.write(data)

# for item in list_data[:]:

# if len(item) == 0:

# list_data.remove(item)

return list_data

def saveDataToExcel(datasets,sheetname,filename):

book = Workbook()

sheet = book.add_sheet(sheetname)

sheet.write(0,0,u'序号')

sheet.write(0,1,u'球队')

sheet.write(0,2,u'时间')

sheet.write(0,3,u'结果')

sheet.write(0,4,u'主客')

sheet.write(0,5,u'比赛')

sheet.write(0,6,u'投篮命中率')

sheet.write(0,7,u'命中数')

sheet.write(0,8,u'出手数')

sheet.write(0,9,u'三分命中率')

sheet.write(0,10,u'三分命中数')

sheet.write(0,11,u'三分出手数')

sheet.write(0,12,u'罚球命中率')

sheet.write(0,13,u'罚球命中数')

sheet.write(0,14,u'罚球出手数')

sheet.write(0,15,u'篮板')

sheet.write(0,16,u'前场篮板')

sheet.write(0,17,u'后场篮板')

sheet.write(0,18,u'助攻')

sheet.write(0,19,u'抢断')

sheet.write(0,20,u'盖帽')

sheet.write(0,21,u'失误')

sheet.write(0,22,u'犯规')

sheet.write(0,23,u'得分')

num = 24

row_cnt = 0

data_cnt = 0

data_len = len(datasets)

print 'data_len:',data_len

while(data_cnt< data_len):

row_cnt += 1

print '序号:',row_cnt

for col in range(num):

# print col

sheet.write(row_cnt,col,datasets[data_cnt])

data_cnt += 1

book.save(filename)

def writeDataToTxt(datasets):

fp = open('nba_data.txt','w')

line_cnt = 1

for i in range(len(datasets)-1):

#球队名称对齐的操作:如果球队名字过短或者为76人队是 球队名字后面加两个table 否则加1个table

if line_cnt % 24 == 2 and len(datasets[i]) < 5 or datasets[i] == u'费城76人':

fp.write(datasets[i]+'\t\t')

else:

fp.write(datasets[i]+'\t')

line_cnt += 1

if line_cnt % 24 == 1:

fp.write('\n')

fp.close()

if __name__ == "__main__":

pages = int(1132/150)

url_header = 'http://stat-nba.com/query_team.php?page='

url_tail = '&QueryType=game&order=1&crtcol=date_out&GameType=season&PageNum=3000&Season0=2016&Season1=2017#label_show_result'

url_lists = getURLLists(url_header,url_tail,pages)

datasets = getNBAAllData(url_lists)

writeDataToTxt(datasets)

sheetname = 'nba normal data 2016-2017'

str_time = time.strftime('%Y-%m-%d',time.localtime(time.time()))

filename = 'nba_normal_data'+str_time+'.xls'

saveDataToExcel(datasets,sheetname,filename)

更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》

希望本文所述对大家Python程序设计有所帮助。

以上就是本次给大家分享的关于java的全部知识点内容总结,大家还可以在下方相关文章里找到相关文章进一步学习,感谢大家的阅读和支持。

java爬虫抓取nba_利用Python爬虫爬取NBA数据功能实例分享相关推荐

  1. python爬网站数据实例-利用Python爬虫爬取NBA数据功能实例分享

    Python实现爬虫爬取NBA数据功能示例 本文实例讲述了Python实现爬虫爬取NBA数据功能.分享给大家供大家参考,具体如下: 爬取的网站为:stat-nba.com,这里爬取的是NBA2016- ...

  2. python为啥爬取数据会有重复_利用Python来爬取“吃鸡”数据,为什么别人能吃鸡?...

    原标题:利用Python来爬取"吃鸡"数据,为什么别人能吃鸡? 首先,神装镇楼 背景 最近老板爱上了吃鸡(手游:全军出击),经常拉着我们开黑,只能放弃午休的时间,陪老板在沙漠里奔波 ...

  3. 利用python+selenium爬取derwent数据库上的patents

    利用python+selenium爬取derwent数据库上的patents 需求: 登陆web of science,并进入derwent数据库,按照公司excel列表依次进行搜索,并将所有搜索道德 ...

  4. [爬虫实战]利用python快速爬取NCBI中参考基因组assembly的相关信息

    1.问题导向 最近在做某个课题的时候,按老师的要求需要从NCBI中批量下载不同物种的参考基因组,同时收集相应参考基因组的一些组装信息,基因组非常多,导致工作量巨大,一个一个手动收集的话,既费时又费力, ...

  5. python爬虫怎么赚钱-个人利用Python爬虫技术怎么挣钱-10万被动收入...

    我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...

  6. python爬虫怎么赚钱-个人利用Python爬虫技术怎么挣钱-10万被动收入

    我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...

  7. python爬虫赚钱途径-如何利用python爬虫挣钱

    Python爬虫是用Python编程语言实现的网络爬虫,主要用于网络数据的抓取和处理,相比于其他语言,Python是一门非常适合开发网络爬虫的编程语言,大量内置包,可以轻松实现网络爬虫功能.那么使用p ...

  8. python爬虫怎么赚钱-如何利用python爬虫挣钱

    Python爬虫是用Python编程语言实现的网络爬虫,主要用于网络数据的抓取和处理,相比于其他语言,Python是一门非常适合开发网络爬虫的编程语言,大量内置包,可以轻松实现网络爬虫功能.那么使用p ...

  9. python每隔一段时间保存网页内容_利用Python轻松爬取网页题库答案!教孩子不怕尴尬了!...

    大家有没有遇到这种令人尴尬的情况:"好不容易在网上找到需要的资源数据,可是不容易下载下来!"如果是通过一页一页的粘贴复制来下载,真的让人难以忍受,特别是像我这种急性子,真得会让人窒 ...

最新文章

  1. Android Studio中RecycerView依赖库加载问题
  2. php按比例截图,php 按比例生成小图函数
  3. Linux命令——find详解
  4. Spring MVC-01循序渐进之Model 2和MVC
  5. Innodb锁系统 Insert/Delete 锁处理及死锁示例分析
  6. 解析高校网络管理员如何制作网络电视墙
  7. 开关造成的毛刺_模具清洗机干冰清洗机干冰去毛刺机安全注意事项
  8. mysql数据库备份shell_mysql数据库备份shell脚本分享
  9. 自动化测试--实现一套完全解耦的简单测试框架
  10. 代码快速“检”“修”不是梦,阿里云MaxCompute Studio 2.9.0 新版本发布
  11. java决策树算法_零基础学习大数据开发技术需要哪些基础知识(1)Java、大数据基础...
  12. Julia: Dict中元素的顺序:是无序的!
  13. matlab假设网格颜色,MATLAB 画颜色网格图
  14. 计算机mac地址设置路由器,MAC地址修改教程
  15. 中坚力量:Isilon
  16. html中文输入转换成英文,中英文转换,键盘如何中英文切换!
  17. mysql查询下个月过生日的说说_查询优化:说说一个数据库的查询方法
  18. python模拟登陆GDUFE教学一体化平台
  19. html文件设置成mac屏保,如何将视频设置为Mac上的屏幕保护程序 | MOS86
  20. 地铁3D可视化,让一切尽在掌握

热门文章

  1. 《读九章算术学Python》如何用Python编程实现盈不足术?附图解分析、代码实现和习题解答
  2. Numpy IO:npy、npz
  3. python通过指定网卡发包_Python选择网卡发包及接收数据包
  4. Nestjs模块机制的概念和实现原理
  5. Ext3、Ext4、FAT、FAT32、NTFS、exFAT、Sparse、Raw
  6. TCP/IP协议知识梳理
  7. STM32独立按键实现单击双击长按功能
  8. 像素级分层语义图像分割
  9. 有什么小号音准测试软件,小号演奏家对小号初学者的一些建议 | 悦趣音乐中心...
  10. 备战面试日记(3.3) - (设计模式.23种设计模式之结构型模式)