今日内容:

    一 爬取豌豆荚

爬取豌豆荚:    1.访问游戏主页        https://www.wandoujia.com/category/6001    2.点击查看更多,观察network内的请求        - 请求url            page2:                https://www.wandoujia.com/wdjweb/api/category/more?                catId=6001&subCatId=0&page=2&ctoken=vbw9lj1sRQsRddx0hD-XqCNF            page3:                https://www.wandoujia.com/wdjweb/api/category/more?                catId=6001&subCatId=0&page=3&ctoken=vbw9lj1sRQsRddx0hD-XqCNF            page4:                https://www.wandoujia.com/wdjweb/api/category/more?                catId=6001&subCatId=0&page=4&ctoken=vbw9lj1sRQsRddx0hD-XqCNF

    3.循环拼接30个接口

    4.解析返回的数据,获取每一个app数据
'''''''''
爬取豌豆荚app数据
- 请求url
page2:
https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page=2&ctoken=vbw9lj1sRQsRddx0hD-XqCNF
'''
import requests
from bs4 import BeautifulSoup
import re
'''
爬虫三部曲
'''
# 1.发送请求
def get_page(url):response = requests.get(url)return response# 2.解析数据
def parse_data(text):soup = BeautifulSoup(text, 'lxml')# print(soup)li_list = soup.find_all(name='li', class_="card")# print(li_list)for li in li_list:# print(li)# print('tank' * 100)app_name = li.find(name='a', class_="name").text# print(app_name)
app_url = li.find(name='a', class_="name").attrs.get('href')# print(app_url)
download_num = li.find(name='span', class_="install-count").text# print(download_num)
app_size = li.find(name='span', attrs={"title": re.compile('\d+MB')}).text# print(app_size)
app_data = f'''游戏名称: {app_name}游戏地址: {app_url}下载人数: {download_num}游戏大小: {app_size}\n'''print(app_data)with open('wandoujia.txt', 'a', encoding='utf-8') as f:f.write(app_data)f.flush()if __name__ == '__main__':for line in range(1, 2):url = f'https://www.wandoujia.com/wdjweb/api/category/more?catId=6001&subCatId=0&page={line}&ctoken=vbw9lj1sRQsRddx0hD-XqCNF'print(url)# 1.发送请求# 往接口发送请求获取响应数据response = get_page(url)# print(response.text)# import json# json.loads(response.text)# print(type(response.json()))# print('tank ' * 1000)# 把json数据格式转换成python的字典data = response.json()# print(data['state'])# 通过字典取值获取到li文本text = data.get('data').get('content')# 2.解析数据parse_data(text)

转载于:https://www.cnblogs.com/qwe1617039242/p/11130391.html

Day04 爬取豌豆荚相关推荐

  1. day04爬取豌豆荚

    爬取豌豆荚: 1.访问游戏主页 https://www.wandoujia.com/category/6001 2.点击查看更多,观察network内的请求 - 请求url page2: https: ...

  2. day04 爬取豌豆荚app数据的两种方法

    今日内容:方法一 bs4爬取豌豆荚 爬取豌豆荚: 1.访问游戏主页 https://www.wandoujia.com/category/6001 2.点击查看更多,观察network内的请求 - 请 ...

  3. python爬取app_python 爬取豌豆荚APP的爬虫 源码下载

    [实例简介]爬取豌豆荚APP,将APP信息存储到数据库,APP以md5值命名, [实例截图] [核心代码] #coding:utf-8 import database import crawler i ...

  4. Python爬取豌豆荚软件分类

    Python爬取豌豆荚软件分类以及下载量 一,查看网页 链接豌豆荚 红框内即为要爬取的元素 二,获取所有页签的地址: #爬取豌豆荚import requests from bs4 import Bea ...

  5. python爬取豌豆荚中的详细信息并存储到SQL Server中

    买了本书<精通Python网络爬虫>,看完了第6章,我感觉我好像可以干点什么:学的不多,其中的笔记我放到了GitHub上:https://github.com/NSGUF/PythonLe ...

  6. puppeteer爬取豌豆荚数据

    //数据仅测试用,如有侵权请联系本人处理 const puppeteer = require('puppeteer');// 等待3000毫秒const sleep = time => new ...

  7. 爬取豌豆荚app数据

    方法一:requests+bs4 import requests from bs4 import BeautifulSoup import re# 1.发送请求 def get_page(url):r ...

  8. Python爬虫 爬取豌豆荚休闲小游戏

    from selenium import webdriver import time driver = webdriver.Chrome() try:driver.implicitly_wait(20 ...

  9. 以豌豆荚为例,用 Scrapy 爬取分类多级页面

    本文转载自以下网站:以豌豆荚为例,用 Scrapy 爬取分类多级页面 https://www.makcyun.top/web_scraping_withpython17.html 需要学习的地方: 1 ...

最新文章

  1. Linux CentOS6.x ip设置(网卡设置)
  2. 问题 A: 第二题(划分一个集合为差值最小的两个子集合)
  3. Spring Boot笔记-jQuery使用load进行异步调用
  4. springboot+mybatis+mysql+dubbo整合使用
  5. element UI表格使用cell-style改变单元格样式
  6. curl Unsupported protocol: https 问题解决
  7. html设置背景颜色宽度,如何设置div的背景色和高度 CSS示例代码
  8. Ubuntu学习笔记6-ESP32接收并处理cmd_vel话题
  9. 基于canvas实现波浪式绘制图片
  10. linux英伟达显卡内核不匹配,Linux 5.11 内核将添加对英伟达 RTX 30 系列显卡的支持...
  11. MySQL集群:主从模式
  12. 01day入学测试总结
  13. 工作五年,一年内我靠这系列java面试宝典从13K到大厂30K
  14. 基于php+mysql的村镇干部绩效考核系统
  15. 蘑菇模拟器TV版 for Android,真实采集蘑菇模拟器
  16. 网站长尾关键词怎么布局 提升搜索排名
  17. JAvA傲剑狂刀冰火两重天攻略,《傲剑狂刀-冰火两重天》三大系统攻略
  18. spark-submit参数设置
  19. 流控制传输协议(SCTP)
  20. MySQL 数据库死锁问题-Deadlock found when trying to get lock

热门文章

  1. linux 不删除文件,清空文件内容命令
  2. 易语言群控雷电_奇易安卓模拟器/真机免ROOT群控自带V8脚本开发引擎
  3. 程序员男友“嫌”我收入低,劝我转行互联网,我该听他的吗?
  4. 数据库常用的sql语句汇总
  5. 几分钟教你批量重命名文件,批量更改数据的方法
  6. python精通大学_小白21天精通Python是如何做到的?
  7. android仿微信界面的实现
  8. 【一起入门MachineLearning】中科院机器学习-期末题库-【计算题3,4】-前向算法和维特比算法手算过程
  9. 2022年全球及中国植物激活剂行业头部企业市场占有率及排名调研报告
  10. 软考中级,哪个通过率高且简单?