导读:通过获取知乎某个大V的关注列表和被关注列表,查看该大V以及其关注用户和被关注用户的详细信息,然后通过层层递归调用,实现获取关注用户和被关注用户的关注列表和被关注列表,最终实现获取大量用户信息。

作者:赵国生 王健

来源:大数据DT(ID:hzdashuju)

新建一个Scrapy项目scrapy startproject zhihuuser,移动到新建目录cdzhihuuser下。新建Spider项目:scrapy genspider zhihu zhihu.com。

01 定义spider.py文件

定义爬取网址、爬取规则等。

# -*- coding: utf-8 -*-
import json
from scrapy import Spider, Request
from zhihuuser.items import UserItem
class ZhihuSpider(Spider):name = 'zhihu'allowed_domains = ['zhihu.com']start_urls = ['http://zhihu.com/']
# 自定义爬取网址start_user = 'excited-vczh'user_url = 'https://www.zhihu.com/api/v4/members/{user}?include={include}'user_query = 'allow_message,is_followed,is_following,is_org,is_blocking,employments,answer_count,follower_count,articles_count,gender,badge[?(type=best_answerer)].topics'follows_url = 'https://www.zhihu.com/api/v4/members/{user}/followees?include= {include}&offset={offset}&limit={limit}'follows_query = 'data[*].answer_count,articles_count,gender,follower_count,is_followed,is_following,badge[?(type=best_answerer)].topics'followers_url = 'https://www.zhihu.com/api/v4/members/{user}/followees?include= {include}&offset={offset}&limit={limit}'followers_query = 'data[*].answer_count,articles_count,gender,follower_count,is_followed,is_following,badge[?(type=best_answerer)].topics'
# 定义请求爬取用户信息、关注用户和被关注用户的函数def start_requests(self):yield Request(self.user_url.format(user=self.start_user, include=self.user_query), callback=self.parseUser)yield Request(self.follows_url.format(user=self.start_user, include=self.follows_query, offset=0, limit=20), callback=self.parseFollows)yield Request(self.followers_url.format(user=self.start_user, include=self.followers_query, offset=0, limit=20), callback=self.parseFollowers)
# 请求爬取用户详细信息def parseUser(self, response):result = json.loads(response.text)item = UserItem()for field in item.fields:if field in result.keys():item[field] = result.get(field)yield item
# 定义回调函数,爬取关注用户与被关注用户的详细信息,实现层层迭代yield Request(self.follows_url.format(user=result.get('url_token'), include=self.follows_query, offset=0, limit=20), callback=self.parseFollows)yield Request(self.followers_url.format(user=result.get('url_token'), include=self.followers_query, offset=0, limit=20), callback=self.parseFollowers)
# 爬取关注者列表def parseFollows(self, response):results = json.loads(response.text)if 'data' in results.keys():for result in results.get('data'):yield Request(self.user_url.format(user=result.get('url_token'), include=self.user_query), callback=self.parseUser)if 'paging' in results.keys() and results.get('paging').get('is_end') == False:next_page = results.get('paging').get('next')yield Request(next_page, callback=self.parseFollows)
# 爬取被关注者列表def parseFollowers(self, response):results = json.loads(response.text)if 'data' in results.keys():for result in results.get('data'):yield Request(self.user_url.format(user=result.get('url_token'), include=self.user_query), callback=self.parseUser)if 'paging' in results.keys() and results.get('paging').get('is_end') == False:next_page = results.get('paging').get('next')yield Request(next_page, callback=self.parseFollowers)

02 定义items.py文件

定义爬取数据的信息、使其规整等。

# -*- coding: utf-8 -*-
# Define here the models for your scraped items
# See documentation in:
# https://doc.scrapy.org/en/latest/topics/items.html
from scrapy import Field, Item
class UserItem(Item):# define the fields for your item here like:# name = scrapy.Field()allow_message = Field()answer_count = Field()articles_count = Field()avatar_url = Field()avatar_url_template = Field()badge = Field()employments = Field()follower_count = Field()gender = Field()headline = Field()id = Field()name = Field()type = Field()url = Field()url_token = Field()user_type = Field()

03 定义pipelines.py文件

存储数据到MongoDB。

# -*- coding: utf-8 -*-
# Define your item pipelines here
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html
import pymongo
# 存储到MongoDB
class MongoPipeline(object):collection_name = 'users'def __init__(self, mongo_uri, mongo_db):self.mongo_uri = mongo_uriself.mongo_db = mongo_db@classmethoddef from_crawler(cls, crawler):return cls(mongo_uri=crawler.settings.get('MONGO_URI'),mongo_db=crawler.settings.get('MONGO_DATABASE'))def open_spider(self, spider):self.client = pymongo.MongoClient(self.mongo_uri)self.db = self.client[self.mongo_db]def close_spider(self, spider):self.client.close()def process_item(self, item, spider):self.db[self.collection_name].update({'url_token':item['url_token']}, dict(item), True)
# 执行去重操作return item

04 定义settings.py文件

开启MongoDB、定义请求头、不遵循robotstxt规则。

# -*- coding: utf-8 -*-
BOT_NAME = 'zhihuuser'
SPIDER_MODULES = ['zhihuuser.spiders']
# Obey robots.txt rules
ROBOTSTXT_OBEY = False  # 是否遵守robotstxt规则,限制爬取内容
# Override the default request headers(加载请求头):
DEFAULT_REQUEST_HEADERS = {'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8','Accept-Language': 'en','User-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/ 537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36','authorization': 'oauth c3cef7c66a1843f8b3a9e6a1e3160e20'
}
# Configure item pipelines
# See https://doc.scrapy.org/en/latest/topics/item-pipeline.html
ITEM_PIPELINES = {'zhihuuser.pipelines.MongoPipeline': 300,
}
MONGO_URI = 'localhost'
MONGO_DATABASE = 'zhihu'

开启爬取:scrapycrawlzhihu。部分爬取过程中的信息如图8-4所示。

▲图8-4 部分爬取过程中的信息

存储到MongoDB的部分信息如图8-5所示。

▲图8-5 MongoDB的部分信息

关于作者:赵国生,哈尔滨师范大学教授,工学博士,硕士生导师,黑龙江省网络安全技术领域特殊人才。主要从事可信网络、入侵容忍、认知计算、物联网安全等方向的教学与科研工作。

本文摘编自《Python网络爬虫技术与实战》,经出版方授权发布。

延伸阅读《Python网络爬虫技术与实战》

点击上图了解及购买

转载请联系微信:DoctorData

推荐语:本书是一本系统、全面地介绍Python网络爬虫的实战宝典。作者融合自己丰富的工程实践经验,紧密结合演示应用案例,内容覆盖了几乎所有网络爬虫涉及的核心技术。在内容编排上,一步步地剖析算法背后的概念与原理,提供大量简洁的代码实现,助你从零基础开始编程实现深度学习算法。

划重点????

干货直达????

  • 如何写出清晰又优雅的Python代码?我们给你这26条建议

  • 5个步骤带你入门FPGA设计流程

  • 终于有人把A/B测试讲明白了

  • 多图详解数据中台建设框架(建议收藏)

更多精彩????

在公众号对话框输入以下关键词

查看更多优质内容!

PPT | 读书 | 书单 | 硬核 | 干货 讲明白 | 神操作

大数据 | 云计算 | 数据库 | Python | 爬虫 | 可视化

AI | 人工智能 | 机器学习 | 深度学习 | NLP

5G | 中台 | 用户画像 1024 | 数学 | 算法 数字孪生

据统计,99%的大咖都关注了这个公众号

????

手把手教你用Scrapy爬取知乎大V粉丝列表相关推荐

  1. 16、爬取知乎大v张佳玮的文章“标题”、“摘要”、“链接”,并存储到本地文件...

    爬取知乎大v张佳玮的文章"标题"."摘要"."链接",并存储到本地文件 1 # 爬取知乎大v张佳玮的文章"标题".&qu ...

  2. 手把手教你用Scrapy 爬取斗鱼妹子头像 下载图片

    项目展示: 项目结构: 成果: 1.新建项目 确保安装了所用到的库 scrapy image Pillow pip install scrapy pip install image pip insta ...

  3. 手把手教你使用Python爬取西刺代理数据,不用担心我封IP了!

    /1 前言/ 前几天小编发布了手把手教你使用Python爬取西次代理数据(上篇),木有赶上车的小伙伴,可以戳进去看看.今天小编带大家进行网页结构的分析以及网页数据的提取,具体步骤如下. /2 首页分析 ...

  4. Scrapy爬取知乎Python专题精华,连答主头像都给爬下来,不放过一切

    前些天写的一篇"我与Scrapy的初次相识,理论+实战入门Scrapy "都上首页推荐了,到现在浏览量还没破百,难受. 写的不好大概,不过只要有一人看,都是鼓励,一直写,一直积淀, ...

  5. Scrapy爬取知乎用户信息以及人际拓扑关系

    Scrapy爬取知乎用户信息以及人际拓扑关系 1.生成项目 scrapy提供一个工具来生成项目,生成的项目中预置了一些文件,用户需要在这些文件中添加自己的代码. 打开命令行,执行:scrapy sta ...

  6. scrapy爬取知乎问题实战

    首先,需要理解cookies的含义,是存储在浏览器中的内容,在本地存储任意键值对,第一次访问时服务器返回一个id存储到本地cookie中,第二次访问将cookies一起发送到服务器中 常见http状态 ...

  7. python爬虫实战笔记---以轮子哥为起点Scrapy爬取知乎用户信息

    开发环境:python3.5+Scrapy+pycharm+mongodb 思路: 1.选定起始人:选定一个关注数量或粉丝数量多的大佬 2.获取粉丝和关注列表 3.获取列表用户信息 4.获取每位用户粉 ...

  8. 使用python scrapy爬取知乎提问信息

    前文介绍了python的scrapy爬虫框架和登录知乎的方法. 这里介绍如何爬取知乎的问题信息,并保存到mysql数据库中. 首先,看一下我要爬取哪些内容: 如下图所示,我要爬取一个问题的6个信息: ...

  9. yield python3 知乎_运维学python之爬虫高级篇(七)scrapy爬取知乎关注用户存入mongodb...

    首先,祝大家开工大吉! 本篇将要介绍的是从一个用户开始,通过抓关注列表和粉丝列表,实现用户的详细信息抓取并将抓取到的结果存储到 MongoDB. 1 环境需求 基础环境沿用之前的环境,只是增加了Mon ...

最新文章

  1. 比较严谨的java验证18位身份证号码
  2. shell中的算数运算
  3. Hadoop HDFS (3) JAVA訪问HDFS之二 文件分布式读写策略
  4. 软件项目可行性分析定义_如何定义最低可行产品
  5. Spark Streaming之Kafka的Receiver和Direct方式
  6. 【Mac】mac移动查找的图片到某个目录
  7. centos6.5安装redmine2.6
  8. 我的Android进阶之旅------百度地图学习:BDLocation.getLocType ( )值分析
  9. 6大维度重磅升级,容器云平台BeyondContainer发布1.8版本
  10. C语言程序设计 余贞侠(课后习题答案)
  11. 计算机文件自动备份到移动硬盘,1个让移动硬盘自动备份的简单方法!
  12. 格兰杰检验的基本步骤_如何用格兰杰检验、协整对数据进行分析_格兰杰因果检验...
  13. 使用DAX(Power BI)的移动平均线
  14. k8s重要概念及部署k8s集群(一)
  15. VMware虚拟机下载及安装 (新手教程)
  16. PowerMock使用-Mock私有方法
  17. 将CAD图纸转换为黑白的PDF文件要怎么操作
  18. 关于ios 卡顿检测分析
  19. Google(谷歌)高级搜索
  20. OFDM调制matlab仿真详细代码

热门文章

  1. Qt文档阅读笔记-Qt5录音功能的实现
  2. MySQL工作笔记-解决导入外部sql中文乱码问题
  3. Java通过反射了解集合泛型的本质(Class反射都是在运行时执行的)
  4. Java基础入门笔记-构造方法的继承
  5. 某高校计算机系举办了一场,国家二级MS+OFFICE高级应用机试(操作题)-试卷25
  6. vue tree组件_使用Vue 3.0做JSX(TSX)风格的组件开发
  7. excel 单元格求和大于某个数后返回列号_Excel最常用的几个函数,我都帮你整理好了!...
  8. 注意html的语言编码charset,HTML编码
  9. poj1789 Truck History(最小生成树)
  10. Windows平台下Go语言的安装和环境变量设置