实战案例:抽屉自动点赞与爬取汽车之家新闻
05.实战案例:抽屉自动点赞与爬取汽车之家新闻
文章目录
- 05.实战案例:抽屉自动点赞与爬取汽车之家新闻
- 一、抽屉自动点赞
- 二、爬取汽车之家
一、抽屉自动点赞
import requests# data = {# 'linkId': '31009758',
#
# }data = {'content': '其实一般','linkId': '31008563','parentId': '0','pictureUrl': ''
}
header = {'Referer': 'https://dig.chouti.com/','User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.212 Safari/537.36','Cookie': 'deviceId=web.eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJqaWQiOiIwZmVlMjk5OS1iMDgzLTRmYzctOTM4MC03YjIzZmVmY2U5YmYiLCJleHBpcmUiOiIxNjIzOTA0ODk5MzM5In0.7cadtBYznS6OgnLwEF8aH0AmtDOoYB1WKDgdU4eYYS0; __snaker__id=VbChmBUEZIVY3FPa; _9755xjdesxxd_=32; YD00000980905869%3AWM_TID=%2FazmF9%2FrClJFEVFBVRN70z7msH6De39Y; YD00000980905869%3AWM_NI=fmln0UTLoOM0bJxRYMet9SoHoQFrKUG7angbfEmftGxseQnkMmbwsdEPNwgtVpQ9K0fqli5fhP6nKsZ15bIt%2BQYBdpjdM8x19UJqjf6LSi%2FmhSgQW%2F3SYGNWEwJPPlYGRWM%3D; YD00000980905869%3AWM_NIKE=9ca17ae2e6ffcda170e2e6eeb5d567838e8fa6f94dbaef8eb7d54a938e8b85f83bf88a97a2e464a98689afaa2af0fea7c3b92aa6b3a48fb35f9894a1b0d03ca296b8b3dc47a7acf7b4ee44ad8f8a93ca5f85e9af8fe66aa69ba387f74dbcadabb2ed618fb3ae98f27087908298e68096b09fdaca3ca6afa48ab86eac90fa8fca799aeffb83cc80e98f97a3e77caabc83d9fb3bfb8b8692e96ef6949d8aae67ac8da9b2d625f18d97a8cd5d87a986b1d3689b999eb8d037e2a3; Hm_lvt_03b2668f8e8699e91d479d62bc7630f1=1621312902,1621392225; gdxidpyhxdE=weRAWhzVrJfrCGllI4mwY8LxZOiO4D79t%2Fkf8j8qcJUsTDrjyVh05GQiaf6uL8dwsXpkShI%2B2uGHa9Vj5b1QilxdgI%2BoDUr%5C0VN4kMrnVLUmzGb56lwmZRoAmUq%2FToGtCRjYKAaANejzA%5CQcWg4LwkrdXzwqNISMTfwQUaMw4puru4fM%3A1621393127138; token=eyJ0eXAiOiJKV1QiLCJhbGciOiJIUzI1NiJ9.eyJqaWQiOiJjZHVfNTMyMDcwNzg0NjAiLCJleHBpcmUiOiIxNjIzOTg0MjcwNDA0In0.4Q4uQAd4LkbVVcu37t0SjRFE4CSIidduRspeQ08-iYE; Hm_lpvt_03b2668f8e8699e91d479d62bc7630f1=1621392374'
}
# res = requests.post('https://dig.chouti.com/link/vote', data=data,headers=header)
res = requests.post('https://dig.chouti.com/comments/create', data=data, headers=header)
print(res.text)
二、爬取汽车之家
# 爬取汽车之间
# 使用bs4模块:beautifulsoup4:专门用来解析html的模块
import requests
from bs4 import BeautifulSoupres = requests.get('https://www.autohome.com.cn/news/1/#liststart')
# print(res.text)# 第一个参数是要解析的文档
# 第二参数是使用的解析库,解析方式
# html.parser 解析速度慢 不需要额外安装
# lxml 解析速度快,文档容错率高,需要额外安装lxml模块
soup = BeautifulSoup(res.text, 'html.parser')
# 查找文档中的所有类名为article的ul标签
ul_list = soup.find_all(name='ul', class_='article')
li_list = []
for ul in ul_list:li_list += ul.find_all(name='li')for li in li_list:h3 = li.find(name='h3')if h3:title = h3.text # 获取文本内容url = 'http:' + li.find(name='a')['href']desc = li.find(name='p').textimg = 'http:' + li.find(name='img')['src']print('''文章标题:%s文章地址:%s文章图片:%s文章摘要:%s''' % (title, url, img, desc))# 存到mysql中:# 存redis articles=[{json格式字符串},{}]# article ={'1':{json格式字符串},}
实战案例:抽屉自动点赞与爬取汽车之家新闻相关推荐
- 爬虫【爬取汽车之家新闻】
代码示例 # coding:utf-8 import requests from bs4 import BeautifulSoup# http方式 response = requests.get('h ...
- py 爬取汽车之家新闻案例
import requests from bs4 import BeautifulSoupresponse = requests.get("https://www.autohome.com. ...
- python爬取汽车之家_python爬虫实战之爬取汽车之家网站上的图片
随着生活水平的提高和快节奏生活的发展.汽车开始慢慢成为人们的必需品,浏览各种汽车网站便成为购买合适.喜欢车辆的前提.例如汽车之家网站中就有最新的报价和图片以及汽车的相关内容,是提供信息最快最全的中国汽 ...
- Python 爬虫实战入门——爬取汽车之家网站促销优惠与经销商信息
在4S店实习,市场部经理让我写一个小程序自动爬取汽车之家网站上自家品牌的促销文章,因为区域经理需要各店上报在网站上每一家经销商文章的露出频率,于是就自己尝试写一个爬虫,正好当入门了. 一.自动爬取并输 ...
- python爬虫利用Scrapy框架爬取汽车之家奔驰图片--实战
先看一下利用scrapy框架爬取汽车之家奔驰A级的效果图 1)进入cmd命令模式下,进入想要存取爬虫代码的文件,我这里是进入e盘下的python_spider文件夹内 C:\Users\15538&g ...
- 爬取汽车之家图片 - scrapy - crawlspider - python爬虫案例
爬取汽车之家图片 需求:爬取汽车之家某一个汽车的图片 一. 普通scrapy 第一步 页面分析 目标url: https://car.autohome.com.cn/photolist/serie ...
- python3爬虫系列16之多线程爬取汽车之家批量下载图片
python3爬虫系列16之多线程爬取汽车之家批量下载图片 1.前言 上一篇呢,python3爬虫系列14之爬虫增速多线程,线程池,队列的用法(通俗易懂),主要介绍了线程,多线程,和两个线程池的使用. ...
- python爬虫(二十四)爬取汽车之家某品牌图片
爬取汽车之家某品牌图片 需求 爬取汽车之家某品牌的汽车图片 目标url https://car.autohome.com.cn/photolist/series/52880/6957393.html# ...
- 使用scrapy框架爬取汽车之家的图片(高清)
使用scrapy框架爬取汽车之家的图片(高清) 不同于上一篇的地方是,这篇要爬取的是高清图片,而不仅仅是缩略图. 先来看一下要爬取的页面:https://car.autohome.com.cn/pic ...
- 爬取汽车之家北京二手车信息
爬取汽车之家北京二手车信息 经测试,该网站:https://www.che168.com/beijing/list/ 反爬机制较低,仅需要伪造请求头设置爬取速率,但是100页之后需要登录,登录之后再爬 ...
最新文章
- (十五)java B2B2C 多级Springboot多租户电子商城系统 Springboot整合RabbitMQ
- android代码设置全屏
- 问题解决:错误:unable to connect to node rabbit@localhost: nodedown
- 设计冲刺下载_如何运行成功的设计冲刺
- python中add_Python add()函数是如何使用呢?
- c语言编程软件有个a开头的,厦门理工软件c语言程序设计A卷及答案
- eclipse中添加aptana插件(html.css.js自动提示)
- 【19】蓝桥杯之奇妙的数字(填空题)
- Python基础学习之文件(1)
- 短文阅读1:Entire Space Multi-Task Model: An Effective Approach for Estimating Post-Click Conversion Rate
- ensp 移动主机搜索不到AP信道_有颜值更有才华,乘风破浪的天融信面板AP接受硬核实测...
- 【计算机网络】湖南中医药大学——计算机网络实地考察项目
- Gitlab 访问报错403 Forbidden
- 潜在因子模型_如何使用潜在因子模型在图形数据库中构建推荐系统
- java中,什么是GC?GC的基本原理。
- sklearn中lstm_深度学习之路(一):用LSTM网络做时间序列数据预测
- 编写一个程序,分别使用字节流和字符流拷贝一个文本文件
- Signature|privileged permissions not in privapp-permissions whitelist异常处理
- 【deepin 20.2.2】安装Android应用总结
- 使用sql中replace()函数替换或去掉字段中的某些字符