我们首先来看下实例代码:

from time import sleep

import faker

import requests

from lxml import etree

fake = faker.Faker()

base_url = "http://angelimg.spbeen.com"

def get_next_link(url):

content = downloadHtml(url)

html = etree.HTML(content)

next_url = html.xpath("//a[@class='ch next']/@href")

if next_url:

return base_url + next_url[0]

else:

return False

def downloadHtml(ur):

user_agent = fake.user_agent()

headers = {'User-Agent': user_agent,"Referer":"http://angelimg.spbeen.com/"}

response = requests.get(url, headers=headers)

return response.text

def getImgUrl(content):

html = etree.HTML(content)

img_url = html.xpath('//*[@id="content"]/a/img/@src')

title = html.xpath(".//div['@class=article']/h2/text()")

return img_url[0],title[0]

def saveImg(title,img_url):

if img_url is not None and title is not None:

with open("txt/"+str(title)+".jpg",'wb') as f:

user_agent = fake.user_agent()

headers = {'User-Agent': user_agent,"Referer":"http://angelimg.spbeen.com/"}

content = requests.get(img_url, headers=headers)

#request_view(content)

f.write(content.content)

f.close()

def request_view(response):

import webbrowser

request_url = response.url

base_url = '

' %(request_url)

base_url = base_url.encode()

content = response.content.replace(b"

",base_url)

tem_html = open('tmp.html','wb')

tem_html.write(content)

tem_html.close()

webbrowser.open_new_tab('tmp.html')

def crawl_img(url):

content = downloadHtml(url)

res = getImgUrl(content)

title = res[1]

img_url = res[0]

saveImg(title,img_url)

if __name__ == "__main__":

url = "http://angelimg.spbeen.com/ang/4968/1"

while url:

print(url)

crawl_img(url)

url = get_next_link(url)

python 爬虫如何执行自动下一页循环加载文字

from bs4 import BeautifulSoup

import requests

import time

from lxml import etree

import os

# 该demo执行的为如何利用bs去爬一些文字

def start():

# 发起网络请求

html=requests.get('http://www.baidu.com')

#编码

html.encoding=html.apparent_encoding

#创建sp

soup=BeautifulSoup(html.text,'html.parser')

print(type(soup))

print('打印元素')

print(soup.prettify())

#存储一下title 该方法没有提示直接展示

title=soup.head.title.string

print(title)

# 写入文本

with open(r'C:/Users/a/Desktop/a.txt','w') as f:

f.write(title)

print(time.localtime())

url_2 = 'http://news.gdzjdaily.com.cn/zjxw/politics/sz_4.shtml'

def get_html_from_bs4(url):

# response = requests.get(url,headers=data,proxies=ip).content.decode('utf-8')

response = requests.get(url).content.decode('utf-8')

soup = BeautifulSoup(response, 'html.parser')

next_page = soup.select('#displaypagenum a:nth-of-type(9)')[0].get('href')

# for i in nett

print(next_page)

next2='http://news.gdzjdaily.com.cn/zjxw/politics/'+next_page

def get_html_from_etree(url):

response = requests.get(url).content.decode('utf-8')

html= etree.HTML(response)

next_page = html.xpath('.//a[@class="PageNum"][8]/@href')[0]

print(next_page)

# next2='http://news.gdzjdaily.com.cn/zjxw/politics/'+next_page

get_html_from_etree(url_2)

if __name__ == '__main__':

start()

到此这篇关于python爬虫实现获取下一页代码的文章就介绍到这了,更多相关python爬虫获取下一页内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

时间: 2020-03-11

python爬虫 点击下一页_python爬虫实现获取下一页代码相关推荐

  1. python爬虫下一页_python爬虫怎么获取下一页的url

    如何用python实现爬虫抓取网页时自动翻页在你没有任何喜欢的人的时候,你过得是最轻松快乐的,尽管偶尔会觉得孤单了点. 小编把网页的第一篇内容抓取好了,但是用python怎么抓取后面的 又如何停止那天 ...

  2. python爬虫爬取多个页面_Python 爬虫爬取多页数据

    但是,按照常规的爬取方法是不可行的,因为数据是分页的: 最关键的是,不管是第几页,浏览器地址栏都是不变的,所以每次爬虫只能爬取第一页数据.为了获取新数据的信息,点击F12,查看页面源代码,可以发现数据 ...

  3. python 依据某几列累加求和_Python爬虫笔记:爬取单个页面

    前言 学习Python爬虫技术也是一件需要大量实践的事情,因为并不是所有的网站都对爬虫友好,更多的一种情况是网站为了限制爬虫不得不在最小化影响用户体验的前提下对网站访问做出一定的限制,最常见的就是一些 ...

  4. python爬虫爬取多个页面_Python爬虫笔记:爬取单个页面

    前言 学习Python爬虫技术也是一件需要大量实践的事情,因为并不是所有的网站都对爬虫友好,更多的一种情况是网站为了限制爬虫不得不在最小化影响用户体验的前提下对网站访问做出一定的限制,最常见的就是一些 ...

  5. python爬音乐评论生成词云图_python爬虫+词云图,爬取网易云音乐评论

    又到了清明时节,用python爬取了网易云音乐<清明雨上>的评论,统计词频和绘制词云图,记录过程中遇到一些问题 爬取网易云音乐的评论 一开始是按照常规思路,分析网页ajax的传参情况.看到 ...

  6. python抓取直播源 并更新_Python爬虫实例(二)使用selenium抓取斗鱼直播平台数据...

    程序说明:抓取斗鱼直播平台的直播房间号及其观众人数,最后统计出某一时刻的总直播人数和总观众人数. 过程分析: 进入平台首页,来到页面底部点击下一页,发现url地址没有发生变化,这样的话再使用urlli ...

  7. python 自动点击网页上按钮_python selenium自动化(一)点击页面链接测试

    需求:现在有一个网站的页面,我希望用python自动化的测试点击这个页面上所有的在本窗口跳转,并且是本站内的链接,前往到链接页面之后在通过后退返回到原始页面. 要完成这个需求就必须实现3点: 1. 找 ...

  8. python爬虫requests源码链家_Python 爬虫 链家二手房(自行输入城市爬取)

    因同事想在沈阳买房,对比分析沈阳各区的房价,让我帮忙爬取一下链家网相关数据,然后打 算记下笔记 用于总结学到的东西&用到的东西. 一.爬虫需要会什么? 学习东西 首先你要知道它是干嘛的.爬虫 ...

  9. python爬取58同城租房信息_python爬虫:找房助手V1.0-爬取58同城租房信息(示例代码)...

    #!/usr/bin/python # -*- encoding:utf-8 -*-importrequests frombs4 importBeautifulSoup frommultiproces ...

最新文章

  1. python pil_使用Python的PIL模块来进行图片对比
  2. JavaScript实现链表reverseTraversal反向遍历算法(附完整源码)
  3. flash和html5
  4. 音视频技术开发周刊 | 207
  5. 重构第12天 分解依赖(Break Dependencies)
  6. 为什么睡觉时身体突然抖一下?答案吓到我了!
  7. 《TCP/IP详解》学习笔记(七):广播和多播、IGMP协议
  8. 腾讯研发总监王辉:十亿级视频播放技术优化揭秘
  9. SAP ABAP table control中用帮助(F4)实现自动填充另一字段教程
  10. mysql-installer-community-5.5.29.0.msi 下载
  11. 运行中SQL Server查询存储
  12. Appium 元素查找(一)
  13. PTES Technical Guidelines
  14. input中加入图标实现搜索框
  15. 牛客网 2018校招真题 吉比特 直线上的点
  16. 计算机无法加载这个项目,Windows系统中出现无法加载这个硬件的设备驱动程序(代码39)的解决方法介绍 win7...
  17. C#-Winform - 调用笔记本摄像头实现拍照并保存
  18. mysql lsl_GitHub - LSL-Git/MyBatis_Dynamic_SQL: mybatis 动态SQL使用
  19. iphone修改手机铃声
  20. 基于 Spring SSM框架 开发的一套 进存销管理系统

热门文章

  1. Oracle 12c 能否在2小时内完成一张14亿条记录的表结构字段类型变更
  2. 关于数据库中的锁,你不知道的是...
  3. 史上最全Oracle数据泵常用命令
  4. 带你读AI论文丨用于细粒度分类的Transformer结构—TransFG
  5. 面向对象的Python编程,你需要知道这些!
  6. 详解GaussDB(DWS) explain分布式执行计划
  7. 【DevCloud·敏捷智库】如何利用用户故事了解需求
  8. 【华为云技术分享】低代码开发平台发展趋势:低代码——炒作还是趋势?
  9. 【华为云技术分享】MongoDB经典故障系列三:副本集延迟太高怎么办?
  10. Python精确指南——第三章 Selenium和爬虫