b站up粉丝数量及变化爬取,并保存成txt文件
爬取b站up粉丝数量和变化 ,并保存成txt文件
import requests
import json
from datetime import datetime
import time
import os,sys
def timer(n):
while True:
f = open('/root/foo.txt',mode='a')
print(datetime.now().strftime("%Y-%m-%d %H:%M:%S"))
str2 = datetime.now().strftime("%Y-%m-%d %H:%M:%S")+' '
# str2 = bytes(str2, encoding = "utf8")
f.write(str2)
uid = 777536
web = 'https://api.bilibili.com/x/web-interface/card?mid='+str(uid)
data = requests.get(web)
info = json.loads(data.text)
fans = info['data']['card']['fans']
name = info['data']['card']['name']
print(name+" 的粉丝数量为:"+str(fans))
str2 = name+" 的粉丝数量为:"+str(fans)+' '
# str2 = bytes(str2, encoding = "utf8")
f.write(str2)
time.sleep(n)
data2 = requests.get(web)
info2 = json.loads(data2.text)
fans2 = info2['data']['card']['fans']
name2 = info2['data']['card']['name']
print('每10秒减少的粉丝数量为:'+str(fans2-fans))
str2 = '每10秒减少的粉丝数量为:'+str(fans2-fans)+'\n'
# str2 = bytes(str2, encoding = "utf8")
f.write(str2)
timer(10)
b站up粉丝数量及变化爬取,并保存成txt文件相关推荐
- python爬虫-豆瓣爬取数据保存为html文件
接<python爬虫-豆瓣数据爬取-正则匹配>中的案例五,将爬取的豆瓣租房信息网址和标题保存为html文件. 脚本修改如下: # -*-coding:utf-8 -*- import re ...
- python爬取数据保存为txt格式
#encoding:'utf-8' import urllib.request from bs4 import BeautifulSoup import os import time #找到网址 de ...
- Python爬虫系列:爬取小说并写入txt文件
导语: 哈喽,哈喽~都说手机自带的浏览器是看小说最好的一个APP,不须要下载任何软件,直接百度就ok了. 但是小编还是想说,如果没有网,度娘还是度娘吗?能把小说下载成一个.txt文件看不是更香吗?这能 ...
- python爬取小说写入txt_python爬虫自学之路:爬取小说并保存成TXT文件
最近闲着无聊开始翻看之前看了一半的小说<明朝那些事儿>,天天用网络看好麻烦就写了个爬虫下载下来放到手机上看,下面把写爬虫的过程遇到的问题记录一下,方便以后再来找,写这个爬虫碰到的问题总共就 ...
- python数据保存为txt_python爬取数据保存为txt格式
#encoding:'utf-8' import urllib.request from bs4 import BeautifulSoup import os import time #找到网址 de ...
- python爬取网文存入txt文件
文章目录 一.网络爬虫是什么? 二.使用步骤 1.引入库 2.数据请求 2.数据解析 3.数据存储 4.完整代码 一.网络爬虫是什么? 百度百科给出的定义:网络爬虫(又称为网页蜘蛛,网络机器人,在FO ...
- 五分钟写一个小爬虫,爬取小说并写入txt文件
先上代码: #-*- coding:UTF-8 -*- import requests from lxml import html url='http://www.shuge.net/html/111 ...
- Python爬虫-利用Scrapy框架完成天天书屋内容爬取并保存本地txt
准备工作 首先创建项目,代码操作参照我之前的博客,这里强调一下,由于scrapy是异步io,同时处理多个http,所以要想按顺序存一个txt每章按顺序写入,可以实现但有点繁琐,这里只为了scrapy的 ...
- 爬虫(9)-python爬虫爬取电子书存储在txt文件中
文章目录 1.分析主页面 2.分析电子书主页面 3.分析正文界面 4.存储 5.全部代码+解析 6结果展示 7.总结 本文以笔趣阁网站为例,爬取网站上的电子书并存储在本地记事本中. 网站地址:http ...
- Python学习笔记之爬取网页保存到本地文件
爬虫的操作步骤: 爬虫三步走 爬虫第一步:使用requests获得数据: (request库需要提前安装,通过pip方式,参考之前的博文) 1.导入requests 2.使用requests.get ...
最新文章
- 【Pandas库】(6) 索引操作--改、查、高级索引
- 数学建模学习笔记——数学规划
- linux 文件大小ll和du不一致问题
- vscode - 添加背景图片
- 在python中使用什么工具管理模块_怎么使用Python pip(管理模块工具)
- 程序员里面开源_开源对年轻程序员意味着什么
- diskgenius创建efi分区_DISKGEN 专业版修改硬盘为GPT分区 ESP分区图文教程
- Cesium:解决画线不光滑,模糊不清,锯齿状
- android uid变化,在Android中安装期间确定应用的UID如何?
- oracle单行函数有哪些,oracle篇 之 单行函数
- Sublime Text 3 全程详细图文使用教程
- php 监控网站是否宕机,利用网站监控随时知道网站宕机
- cmd文件和bat文件的区别+一个的bat脚本+bat基础知识
- 9 个 yyds Java项目,可应对各种私活!
- 博客起航:为什么应该写博客
- ftc文件_美国参议员指责FTC拒绝收集防病毒数据
- Apollo星火计划学习笔记——第六讲上自动驾驶感知基础(I)
- 【校招VIP】前端JS语言之语法相关
- CSP-JS 2022第二轮认证CSP-J2真题4上升点列(point)
- 【采用】大数据风控---风险量化和风险定价