爬取b站up粉丝数量和变化 ,并保存成txt文件

import requests

import json

from datetime import datetime

import time

import os,sys

def timer(n):

while True:

f = open('/root/foo.txt',mode='a')

print(datetime.now().strftime("%Y-%m-%d %H:%M:%S"))

str2 = datetime.now().strftime("%Y-%m-%d %H:%M:%S")+'  '

# str2 = bytes(str2, encoding = "utf8")

f.write(str2)

uid = 777536

web = 'https://api.bilibili.com/x/web-interface/card?mid='+str(uid)

data = requests.get(web)

info = json.loads(data.text)

fans = info['data']['card']['fans']

name = info['data']['card']['name']

print(name+" 的粉丝数量为:"+str(fans))

str2 = name+" 的粉丝数量为:"+str(fans)+'  '

# str2 = bytes(str2, encoding = "utf8")

f.write(str2)

time.sleep(n)

data2 = requests.get(web)

info2 = json.loads(data2.text)

fans2 = info2['data']['card']['fans']

name2 = info2['data']['card']['name']

print('每10秒减少的粉丝数量为:'+str(fans2-fans))

str2 = '每10秒减少的粉丝数量为:'+str(fans2-fans)+'\n'

# str2 = bytes(str2, encoding = "utf8")

f.write(str2)

timer(10)

b站up粉丝数量及变化爬取,并保存成txt文件相关推荐

  1. python爬虫-豆瓣爬取数据保存为html文件

    接<python爬虫-豆瓣数据爬取-正则匹配>中的案例五,将爬取的豆瓣租房信息网址和标题保存为html文件. 脚本修改如下: # -*-coding:utf-8 -*- import re ...

  2. python爬取数据保存为txt格式

    #encoding:'utf-8' import urllib.request from bs4 import BeautifulSoup import os import time #找到网址 de ...

  3. Python爬虫系列:爬取小说并写入txt文件

    导语: 哈喽,哈喽~都说手机自带的浏览器是看小说最好的一个APP,不须要下载任何软件,直接百度就ok了. 但是小编还是想说,如果没有网,度娘还是度娘吗?能把小说下载成一个.txt文件看不是更香吗?这能 ...

  4. python爬取小说写入txt_python爬虫自学之路:爬取小说并保存成TXT文件

    最近闲着无聊开始翻看之前看了一半的小说<明朝那些事儿>,天天用网络看好麻烦就写了个爬虫下载下来放到手机上看,下面把写爬虫的过程遇到的问题记录一下,方便以后再来找,写这个爬虫碰到的问题总共就 ...

  5. python数据保存为txt_python爬取数据保存为txt格式

    #encoding:'utf-8' import urllib.request from bs4 import BeautifulSoup import os import time #找到网址 de ...

  6. python爬取网文存入txt文件

    文章目录 一.网络爬虫是什么? 二.使用步骤 1.引入库 2.数据请求 2.数据解析 3.数据存储 4.完整代码 一.网络爬虫是什么? 百度百科给出的定义:网络爬虫(又称为网页蜘蛛,网络机器人,在FO ...

  7. 五分钟写一个小爬虫,爬取小说并写入txt文件

    先上代码: #-*- coding:UTF-8 -*- import requests from lxml import html url='http://www.shuge.net/html/111 ...

  8. Python爬虫-利用Scrapy框架完成天天书屋内容爬取并保存本地txt

    准备工作 首先创建项目,代码操作参照我之前的博客,这里强调一下,由于scrapy是异步io,同时处理多个http,所以要想按顺序存一个txt每章按顺序写入,可以实现但有点繁琐,这里只为了scrapy的 ...

  9. 爬虫(9)-python爬虫爬取电子书存储在txt文件中

    文章目录 1.分析主页面 2.分析电子书主页面 3.分析正文界面 4.存储 5.全部代码+解析 6结果展示 7.总结 本文以笔趣阁网站为例,爬取网站上的电子书并存储在本地记事本中. 网站地址:http ...

  10. Python学习笔记之爬取网页保存到本地文件

     爬虫的操作步骤: 爬虫三步走 爬虫第一步:使用requests获得数据: (request库需要提前安装,通过pip方式,参考之前的博文) 1.导入requests 2.使用requests.get ...

最新文章

  1. 【Pandas库】(6) 索引操作--改、查、高级索引
  2. 数学建模学习笔记——数学规划
  3. linux 文件大小ll和du不一致问题
  4. vscode - 添加背景图片
  5. 在python中使用什么工具管理模块_怎么使用Python pip(管理模块工具)
  6. 程序员里面开源_开源对年轻程序员意味着什么
  7. diskgenius创建efi分区_DISKGEN 专业版修改硬盘为GPT分区 ESP分区图文教程
  8. Cesium:解决画线不光滑,模糊不清,锯齿状
  9. android uid变化,在Android中安装期间确定应用的UID如何?
  10. oracle单行函数有哪些,oracle篇 之 单行函数
  11. Sublime Text 3 全程详细图文使用教程
  12. php 监控网站是否宕机,利用网站监控随时知道网站宕机
  13. cmd文件和bat文件的区别+一个的bat脚本+bat基础知识
  14. 9 个 yyds Java项目,可应对各种私活!
  15. 博客起航:为什么应该写博客
  16. ftc文件_美国参议员指责FTC拒绝收集防病毒数据
  17. Apollo星火计划学习笔记——第六讲上自动驾驶感知基础(I)
  18. 【校招VIP】前端JS语言之语法相关
  19. CSP-JS 2022第二轮认证CSP-J2真题4上升点列(point)
  20. 【采用】大数据风控---风险量化和风险定价

热门文章

  1. 一、Windows许可证即将过期怎么办
  2. 小程序 翻转, 左侧滑入, 缩小变大消失等等特效
  3. matlab 对数回归,对数拟合
  4. Oracle VM VirtualBox固定ip
  5. 不知道CAD坐标系,如何做到CAD与卫星影像无偏叠加?
  6. 部分js文件在360浏览器极速模式下不加载,不执行的原因
  7. win10右键卡顿原因_Win10桌面点右键一直卡顿转圈怎么解决
  8. IDEA乱码解决合集
  9. 那些年,我们一起卸载过的软件…
  10. 用excel制作双层饼图_教程:用Excel做饼图之复合饼图与双层饼图(2)