cookie被我注释了,可以加上后运行

#!/usr/bin/env python

# -*- coding: utf-8 -*-

"""

# @Time : 2019/1/30 19:53

# @Author : Spareribs

# @File : 知识星球.py

# @Software : PyCharm

# @Description :

"""

import json

import re

import urllib

import requests

headers = {

'accept': "application/json, text/plain, */*",

'origin': "https://wx.zsxq.com",

'x-version': "1.10.14",

'user-agent': "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36",

'x-request-id': "73d45154-0e02-14c7-245c-cbe1cc083ee9",

'referer': "https://wx.zsxq.com/dweb/",

'accept-encoding': "gzip, deflate, br",

'accept-language': "en,zh-CN;q=0.9,zh;q=0.8,zh-TW;q=0.7",

'cookie': "***********************",

}

def get_likes(headers):

url = "https://api.zsxq.com/v1.10/topics/544455541888154/likes"

querystring = {"count": "30"}

response = requests.request("GET", url, headers=headers, params=querystring)

# print(json.dumps(json.loads(response.text.decode("utf-8")), indent=4, separators=(',', ': ')))

res_dict = json.loads(response.text)

if res_dict.get("resp_data").get("likes"):

for _link in res_dict.get("resp_data").get("likes"):

print(_link.get("owner").get("name"))

def get_topics(headers):

url = "https://api.zsxq.com/v1.10/topics/544455541888154"

response = requests.request("GET", url, headers=headers)

print(json.dumps(json.loads(response.text.decode("utf-8")), indent=4, separators=(',', ': ')))

def get_comments(headers):

reg_digital = "[1-9]\d*"

url = "https://api.zsxq.com/v1.10/topics/544455541888154/comments"

querystring = {"count": "30", "sort": "asc"}

response = requests.request("GET", url, headers=headers, params=querystring)

res_dict = json.loads(response.text)

comments = res_dict.get("resp_data").get("comments")

if comments:

for _comment in comments:

_create_time = _comment.get("create_time")

_text = _comment.get("text").encode("utf-8")

_id = re.match(reg_digital, _text.split("

_url = urllib.unquote(urllib.unquote(re.findall(r'href="(.*?)"', _text.split("

print("学号: {0} 打卡时间:{1} 链接:{2}".format(_id, _create_time, _url))

if __name__ == "__main__":

# get_likes(headers)

# get_topics(headers)

get_comments(headers)

输入的结果:

学号: 11 打卡时间:2019-01-26T19:22:46.579+0800 链接:https://mp.csdn.net/mdeditor/86660060#

学号: 38 打卡时间:2019-01-26T19:27:19.441+0800 链接:https://blog.csdn.net/ArmanAbdu/article/details/86658591

学号: 15 打卡时间:2019-01-26T20:08:30.696+0800 链接:https://blog.csdn.net/m0_38019841/article/details/86660438

学号: 13 打卡时间:2019-01-26T20:27:05.194+0800 链接:https://blog.csdn.net/kyolxs/article/details/86660659

学号: 24 打卡时间:2019-01-26T20:47:38.126+0800 链接:https://blog.csdn.net/weixin_43955166/article/details/86660044

学号: 10 打卡时间:2019-01-26T21:05:22.195+0800 链接:https://blog.csdn.net/baidu_36697353/article/details/86660909

学号: 30 打卡时间:2019-01-26T21:18:37.292+0800 链接:https://blog.csdn.net/qq_35547281/article/details/86660702

学号: 16 打卡时间:2019-01-26T21:32:31.842+0800 链接:https://blog.csdn.net/weixin_43569867/article/details/86661356

学号: 34 打卡时间:2019-01-26T21:45:00.445+0800 链接:https://blog.csdn.net/duffon_ze/article/details/86661478

学号: 41 打卡时间:2019-01-26T21:45:39.040+0800 链接:https://blog.csdn.net/weixin_44412976/article/details/86661520

学号: 42 打卡时间:2019-01-26T21:52:35.368+0800 链接:https://blog.csdn.net/submarineas/article/details/86660028

学号: 14 打卡时间:2019-01-26T22:09:41.117+0800 链接:https://blog.csdn.net/devcy/article/details/86661535

学号: 22 打卡时间:2019-01-26T23:55:29.683+0800 链接:https://shanjin.github.io/2019/01/26/leetcode-001-towsum/

学号: 40 打卡时间:2019-01-27T01:12:44.690+0800 链接:https://blog.csdn.net/xavierzz/article/details/86663117

学号: 26 打卡时间:2019-01-27T01:36:41.447+0800 链接:http://ywtail.github.io/2019/01/26/leetcode-1-两数之和/

学号: 47 打卡时间:2019-01-27T02:09:36.145+0800 链接:https://github.com/allen119/leetcode

学号: 20 打卡时间:2019-01-27T10:02:17.681+0800 链接:https://blog.csdn.net/Better_Y0808/article/details/86662671

学号: 48 打卡时间:2019-01-27T10:07:35.231+0800 链接:https://www.cnblogs.com/statlearning2019/p/10325665.html

学号: 35 打卡时间:2019-01-27T10:23:45.513+0800 链接:https://blog.csdn.net/weixin_43183978/article/details/86663814

学号: 9 打卡时间:2019-01-27T11:05:10.579+0800 链接:https://blog.csdn.net/Icy_D/article/details/86664049

学号: 19 打卡时间:2019-01-27T11:58:59.081+0800 链接:https://blog.csdn.net/lty159753/article/details/86661901

学号: 44 打卡时间:2019-01-27T12:38:31.554+0800 链接:http://zzyydd.com/2019/01/27/LeetCode_01_TwoSum/

学号: 28 打卡时间:2019-01-27T13:35:26.293+0800 链接:https://www.jianshu.com/p/41f677b2f47d

学号: 23 打卡时间:2019-01-27T15:09:09.342+0800 链接:https://blog.csdn.net/weixin_43399785/article/details/86665432

学号: 32 打卡时间:2019-01-27T15:12:42.511+0800 链接:https://blog.csdn.net/qq_33616637/article/details/86666281

学号: 24 打卡时间:2019-01-27T15:22:31.940+0800 链接:https://blog.csdn.net/qq_43701034/article/details/86654846

学号: 17 打卡时间:2019-01-27T15:48:00.008+0800 链接:https://blog.csdn.net/qq_23936173/article/details/86666642

学号: 39 打卡时间:2019-01-27T16:01:55.978+0800 链接:https://www.jianshu.com/p/b505ab32e416

学号: 33 打卡时间:2019-01-27T16:33:28.395+0800 链接:https://blog.csdn.net/weixin_44370010/article/details/86667077

学号: 43 打卡时间:2019-01-27T16:35:08.952+0800 链接:https://blog.csdn.net/qq_34778922/article/details/86663524

python爬知识星球付费数据_Python 知识星球爬虫(一) 根据 topic comment 爬取数据...相关推荐

  1. python爬网站的题库_Python零基础爬虫教程(实战案例爬取电影网站资源链接)

    前言 好像没法添加链接,文中的链接只能复制到浏览器查看了 这篇是我写在csdn的,那里代码格式支持更好,文章链接 https://blog.csdn.net/d497465762/article/de ...

  2. python定时爬取数据_python实现scrapy爬虫每天定时抓取数据的示例代码

    1. 前言. 1.1. 需求背景. 每天抓取的是同一份商品的数据,用来做趋势分析. 要求每天都需要抓一份,也仅限抓取一份数据. 但是整个爬取数据的过程在时间上并不确定,受本地网络,代理速度,抓取数据量 ...

  3. python自动抓取网管软件的数据_python实现scrapy爬虫每天定时抓取数据的示例代码...

    1. 前言. 1.1. 需求背景. 每天抓取的是同一份商品的数据,用来做趋势分析. 要求每天都需要抓一份,也仅限抓取一份数据. 但是整个爬取数据的过程在时间上并不确定,受本地网络,代理速度,抓取数据量 ...

  4. 他的爬虫软件助3000企业抓取数据 最高日采8000万条 营收50万元

    ◆ "前嗅"创始人陈玉立 文| 铅笔道 记者 代伟 ►导语 "前嗅"是一个大数据软件提供商,客户根据需求选择不同版本的爬虫软件(ForeSpider前嗅爬虫系统 ...

  5. python爬知识星球付费数据_python 知识星球文件下载

    python 知识星球文件下载 #!/usr/bin/python3 # -*- coding: UTF-8 -*- import requests import json from urllib.p ...

  6. python提取pdf表格数据_Python骚操作,提取pdf文件中的表格数据!

    在实际研究中,我们经常需要获取大量数据,而这些数据很大一部分以pdf表格的形式呈现,如公司年报.发行上市公告等.面对如此多的数据表格,采用手工复制黏贴的方式显然并不可取.那么如何才能高效提取出pdf文 ...

  7. python爬虫代码实例源码_python 淘宝爬虫示例源码(抓取天猫数据)

    爬取淘宝 天猫网站数据# -*- coding: utf-8 -*- #!/usr/bin/env Python import dateTime import URLparse import sock ...

  8. python淘宝爬虫基于requests抓取淘宝商品数据_python淘宝爬虫基于requests抓取淘宝商品数据...

    在学校蹭过python的课,觉得python异常强大,趁寒假有时间,瞎搞一下,希望能和大伙一起探讨学习.废话不多说了,直接正题. requests 是Python的http库,可以完成绝大部分与htt ...

  9. python从大到小排序_python作业:用嵌套的列表存储学生成绩数据,并编程完成如下操作...

    用嵌套的列表存储学生成绩数据,并编程完成如下操作:  学号   姓名   英语 数学 计算机 1903001 李孟亚 78    89    90 1903002 张钟英 51    89    56 ...

  10. python 从excel中抓取数据_python接口自动化(三)——从excel中获取数据

    python接口自动化(三)--从excel中获取数据 1.按照之前的设计思路,我们需要从excel中去获取测试用例,所我们先封装一个获取数据的工具 from Data.with_config imp ...

最新文章

  1. linux查看网卡物理编号_Linux下多网卡时,如何快速辨别网卡ID与物理网卡的对应关系(即ethtool命令)...
  2. 程序的记事本--log4net
  3. Struts2中使用Session的两种方法
  4. 学计算机学体育生闺女,数学老师转行教体育 他有4个特别的“女儿”
  5. 砝码问题之一(回头发现貌似多重背包)
  6. ArcGIS Desktop新建postgresql版sde(10.4.1)的连接
  7. CF891B-Gluttony【构造】
  8. [SharePoint][SharePoint 2013从入门到精通]Chapter 1 介绍 SharePoint2013
  9. 【OpenCV入门指南】第八篇 灰度直方图
  10. CF991C Candies
  11. Android 安装腾讯X5内核
  12. N76E003驱动WS2811实现渐变色、跑马灯
  13. c语言一些简单的程序
  14. foxmail超大附件密码不对的解决办法
  15. 数据库篇--update触发器
  16. 世界上第一台电子计算机名称叫什么,世界上第一台电子计算机的名字是什么
  17. 香浓熵(Shannon)与冯诺伊曼熵(Von Neumann)
  18. 使用Echarts在网页中显示漂亮图例实战(Bootstrap+Django+ECharts+Jinja2使用入门)
  19. mysql怎么截取时分秒_mysql获取表中日期的年月日时分秒
  20. 【模拟器】华为模拟器eNSP安装注意事项及常见报错处理

热门文章

  1. table总结insertRow、deleteRow
  2. 时域信号的频谱、功率谱和功率谱密度计算
  3. 美国MAK Technoligies介绍
  4. 明源售楼系统技术解析 签约管理(二)
  5. ActiveMQ not running
  6. js ajax实现五极联动,前端见微知著AngularJS备忘篇:温故而知新,可以为师矣
  7. win10迁移C盘Administrator目录
  8. 2022牛客寒假算法基础集训营2
  9. 教你如何查询车辆出险记录
  10. Docker swarm 管理 secrets