大家好,本次为大家带来的项目是计算大学本学期绩点。首先说明的是,博主来自山东大学,有属于个人的学生成绩管理系统,需要学号密码才可以登录,不过可能广大读者没有这个学号密码,不能实际进行操作,所以最主要的还是获取它的原理。最主要的是了解cookie的相关操作。本篇目标

1.模拟登录学生成绩管理系统

2.抓取本学期成绩界面

3.计算打印本学期成绩

1.URL的获取

恩,博主来自山东大学~

先贴一个URL,让大家知道我们学校学生信息系统的网站构架,主页是 http://jwxt.sdu.edu.cn:7890/zhxt_bks/zhxt_bks.html,山东大学学生个人信息系统,进去之后,Oh不,他竟然用了frame,一个多么古老的而又任性的写法,真是惊出一身冷汗~

算了,就算他是frame又能拿我怎么样?我们点到登录界面,审查一下元素,先看看登录界面的URL是怎样的?

恩,看到了右侧的frame名称,src=”xk_login.html”,可以分析出完整的登录界面的网址为 http://jwxt.sdu.edu.cn:7890/zhxt_bks/xk_login.html,点进去看看,真是棒棒哒,他喵的竟然是清华大学选课系统,醉了,你说你抄袭就抄袭吧,改改名字也不错啊~

算了,就不和他计较了。现在,我们登录一下,用浏览器监听网络。

我用的是猎豹浏览器,审查元素时会有一个网络的选项,如果大家用的Chrome,也有相对应的功能,Firefox需要装插件HttpFox,同样可以实现。

这个网络监听功能可以监听表单的传送以及请求头,响应头等等的信息。截个图看一下,恩,我偷偷把密码隐藏了,你看不到~

大家看到的是登录之后出现的信息以及NetWork监听,显示了hearders的详细信息。

最主要的内容,我们可以发现有一个表单提交的过程,提交方式为POST,两个参数分别为stuid和pwd。

请求的URL为 http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login,没错,找到表单数据和目标地址就是这么简单。

在这里注意,刚才的 http://jwxt.sdu.edu.cn:7890/zhxt_bks/xk_login.html 只是登录界面的地址,刚刚得到的这个地址才是登录索要提交到的真正的URL。希望大家这里不要混淆。

不知道山大这个系统有没有做headers的检查,我们先不管这么多,先尝试一下模拟登录并保存Cookie。

2.模拟登录

好,通过以上信息,我们已经找到了登录的目标地址为 http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login

有一个表单提交到这个URL,表单的两个内容分别为stuid和pwd,学号和密码,没有其他的隐藏信息,提交方式为POST。

好,现在我们首先构造以下代码来完成登录。看看会不会获取到登录之后的提示页面。__author__ = 'CQC'

# -*- coding:utf-8 -*-

import urllib

import urllib2

import cookielib

import re

#山东大学绩点运算

class SDU:

def __init__(self):

self.loginUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login'

self.cookies = cookielib.CookieJar()

self.postdata = urllib.urlencode({

'stuid':'201200131012',

'pwd':'xxxxxx'

})

self.opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(self.cookies))

def getPage(self):

request  = urllib2.Request(

url = self.loginUrl,

data = self.postdata)

result = self.opener.open(request)

#打印登录内容

print result.read().decode('gbk')

sdu = SDU()

sdu.getPage()

测试一下,竟然成功了,山大这网竟然没有做headers检查,很顺利就登录进去了。

说明一下,在这里我们利用了前面所说的cookie,用到了CookieJar这个对象来保存cookies,另外通过构建opener,利用open方法实现了登录。如果大家觉得这里有疑惑,请看 Python爬虫入门六之Cookie的使用,这篇文章说得比较详细。

好,我们看一下运行结果

酸爽啊,接下来我们只要再获取到本学期成绩界面然后把成绩抓取出来就好了。

3.抓取本学期成绩

让我们先在浏览器中找到本学期成绩界面,点击左边的本学期成绩。

重新审查元素,你会发现这个frame的src还是没有变,仍然是xk_login.html,引起这个页面变化的原因是在左边的本学期成绩这个超链接设置了一个目标frame,所以,那个页面就显示在右侧了。

所以,让我们再审查一下本学期成绩这个超链接的内容是什么~

恩,找到它了,本学期成绩

那么,完整的URL就是 http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bkscjcx.curscopre,好,URL已经找到了,我们继续完善一下代码,获取这个页面。__author__ = 'CQC'

# -*- coding:utf-8 -*-

import urllib

import urllib2

import cookielib

import re

#山东大学绩点运算

class SDU:

def __init__(self):

#登录URL

self.loginUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login'

#本学期成绩URL

self.gradeUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bkscjcx.curscopre'

self.cookies = cookielib.CookieJar()

self.postdata = urllib.urlencode({

'stuid':'201200131012',

'pwd':'xxxxxx'

})

#构建opener

self.opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(self.cookies))

#获取本学期成绩页面

def getPage(self):

request  = urllib2.Request(

url = self.loginUrl,

data = self.postdata)

result = self.opener.open(request)

result = self.opener.open(self.gradeUrl)

#打印登录内容

print result.read().decode('gbk')

sdu = SDU()

sdu.getPage()

上面的代码,我们最主要的是增加了result = self.opener.open(self.gradeUrl)

这句代码,用原来的opener 访问一个本学期成绩的URL即可。运行结果如下

恩,本学期成绩的页面已经被我们抓取下来了,接下来用正则表达式提取一下,然后计算学分即可

4.抓取有效信息

接下来我们就把页面内容提取一下,最主要的便是学分以及分数了。

平均绩点 = ∑(每科学分*每科分数)/总学分

所以我们把每科的学分以及分数抓取下来就好了,对于有些课打了良好或者优秀等级的,我们不进行抓取。

我们可以发现每一科都是TR标签,然后是一系列的td标签

对象技术">

0133201310

面向对象技术

1

2.5

20150112

94

必修

我们用下面的正则表达式进行提取即可,部分代码如下page = self.getPage()

myItems = re.findall('

.*?(.*?).*?(.*?).*?',page,re.S)

for item in myItems:

self.credit.append(item[0].encode('gbk'))

self.grades.append(item[1].encode('gbk'))

主要利用了findall方法,这个方法在此就不多介绍了,前面我们已经用过多次了。

得到的学分和分数我们都用列表list进行存储,所以用了 append 方法,每获取到一个信息就把它加进去。

5.整理计算最后绩点

恩,像上面那样把学分绩点都保存到列表list中了,所以我们最后用一个公式来计算学分绩点就好了,最后整理后的代码如下:# -*- coding: utf-8 -*-

import urllib

import urllib2

import cookielib

import re

import string

#绩点运算

class SDU:

#类的初始化

def __init__(self):

#登录URL

self.loginUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bks_login2.login'

#成绩URL

self.gradeUrl = 'http://jwxt.sdu.edu.cn:7890/pls/wwwbks/bkscjcx.curscopre'

#CookieJar对象

self.cookies = cookielib.CookieJar()

#表单数据

self.postdata = urllib.urlencode({

'stuid':'201200131012',

'pwd':'xxxxx'

})

#构建opener

self.opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(self.cookies))

#学分list

self.credit = []

#成绩list

self.grades = []

def getPage(self):

req  = urllib2.Request(

url = self.loginUrl,

data = self.postdata)

result = self.opener.open(req)

result = self.opener.open(self.gradeUrl)

#返回本学期成绩页面

return result.read().decode('gbk')

def getGrades(self):

#获得本学期成绩页面

page = self.getPage()

#正则匹配

myItems = re.findall('

.*?(.*?).*?(.*?).*?',page,re.S)

for item in myItems:

self.credit.append(item[0].encode('gbk'))

self.grades.append(item[1].encode('gbk'))

self.getGrade()

def getGrade(self):

#计算总绩点

sum = 0.0

weight = 0.0

for i in range(len(self.credit)):

if(self.grades[i].isdigit()):

sum  = string.atof(self.credit[i])*string.atof(self.grades[i])

weight  = string.atof(self.credit[i])

print u"本学期绩点为:",sum/weight

sdu = SDU()

sdu.getGrades()

好,最后就会打印输出本学期绩点是多少,小伙伴们最主要的了解上面的编程思路就好。

最主要的内容就是Cookie的使用,模拟登录的功能。

众多python培训视频,尽在python学习网,欢迎在线学习!

本文转自:https://cuiqingcai.com/997.html

python做爬虫选课_Python2爬虫:以爬取大学本学期绩点为例(实战)相关推荐

  1. 怎么用python做我的世界皮肤_Python爬取mc皮肤【爬虫项目】

    首先,找到一个皮肤网站,其中一个著名的皮肤网站就是 A fast, reliable, free Minecraft skin hosting server. .进入网站,我们就会见到一堆皮肤,这就是 ...

  2. 利用python做一个游戏主播_Python爬取2000万直播数据——看20万游戏主播能否月入100万...

    作者 | 朱小五and王小九 来源 | 凹凸数读 她那时候还太年轻,不知道命运赠送的礼物,早已暗中标好了价格. --茨威格 社会在发展,时代在进步.伴随着未曾停息的拥护声和反对声,电竞行业逐渐被接受, ...

  3. python 写csv scrapy_scrapy爬虫框架实例一,爬取自己博客

    本篇就是利用scrapy框架来抓取本人的博客,博客地址:http://www.cnblogs.com/shaosks scrapy框架是个比较简单易用基于python的爬虫框架,相关文档:http:/ ...

  4. python爬虫影评_Python爬虫(二十)_动态爬取影评信息

    本案例介绍从JavaScript中采集加载的数据.更多内容请参考:Python学习指南 #-*- coding:utf-8 -*- import requests import re import t ...

  5. Python爬虫利用18行代码爬取虎牙上百张小姐姐图片

    Python爬虫利用18行代码爬取虎牙上百张小姐姐图片 下面开始上代码 需要用到的库 import request #页面请求 import time #用于时间延迟 import re #正则表达式 ...

  6. Python爬虫笔记(3)- 爬取丁香园留言

    Python爬虫笔记(3)- 爬取丁香园留言 爬取丁香园留言:主要用到了模拟登录 爬取丁香园留言:主要用到了模拟登录 import requests, json, re, random,time fr ...

  7. Python新手爬虫训练小项目《爬取彼岸图网》(超详细讲解版)

    Python新手爬虫训练小项目<爬取彼岸图网>(超详细讲解版) 这是我的第一篇文章,作为一名新手爬虫,这个算是我这几天来的努力成果,虽然代码寥寥几行但花费了大半天,新手上路还是不能只看视频 ...

  8. Python网络爬虫(九):爬取顶点小说网站全部小说,并存入MongoDB

    前言:本篇博客将爬取顶点小说网站全部小说.涉及到的问题有:Scrapy架构.断点续传问题.Mongodb数据库相关操作. 背景: Python版本:Anaconda3 运行平台:Windows IDE ...

  9. python爬斗鱼直播_Python爬虫:利用API实时爬取斗鱼弹幕

    原标题:Python爬虫:利用API实时爬取斗鱼弹幕 这些天一直想做一个斗鱼爬取弹幕,但是一直考试时间不够,而且这个斗鱼的api接口虽然开放了但是我在github上没有找到可以完美实现连接.我看了好多 ...

最新文章

  1. 160个Crackme040
  2. Error:Unable to resolve target android-19
  3. 阿里云消息队列 RocketMQ 5.0 全新升级:消息、事件、流融合处理平台
  4. 在服务器上用Fiddler抓取HTTPS流量
  5. mysql语法与decode语法的不同
  6. pom.xml中的artifactId是什么意思?
  7. robotframework笔记5
  8. 记一次生产频繁出现 Full GC 的 GC日志定位
  9. Html5中的徽章,CSS 常见样式 特殊用法 贯穿线徽章箭头
  10. uni-app条件编译:#ifdef #ifndef #endif
  11. kali linux 网络命令,Kali Linux系统连接Wifi无线网络命令:
  12. 微积分经典概念:极限、连续与函数
  13. chm文件打开出现已取消该网页的导航
  14. word尝试打开文件时遇到错误 解决方法
  15. win10python安装配置selenium
  16. Node.js 微服务实践:基于容器的一站式命令行工具链
  17. Python:环境变量设置PYTHONPATH解决impor导入模块报错
  18. 笔记本屏幕亮度随着显示内容而变,时亮时暗
  19. 用C语言编写贪吃蛇代码(难度可选)
  20. 单片机按键启停c语言,ZigBee-CC2530单片机 - 按键控制跑马灯的启停

热门文章

  1. 计算机solidwork实训报告,SolidWorks实训报告.doc
  2. Spring切入点表达式
  3. linux时间间隔计算
  4. unraid虚拟linux系统,UNRAID教程:3分钟 用unraid自带的虚拟机 安装 黑群晖NAS DSM系统 很强大!...
  5. 系统安装部署系列教程(一):安装原版系统镜像
  6. 区块链、NFT 与元宇宙中的稀缺性技术
  7. OPC 、OPC DA、OPC UA介绍
  8. R语言学习20150414
  9. 汽车控制器ECU安全校验算法实现
  10. ABAP VF01 / VF04销售开票增强 增加校验