题目:
网址为https://beijing.anjuke.com/sale/,
利用BeautifulSoup库,爬取第1页的信息,具体信息如下:进入每个房源的页面,爬取小区名称、参考预算、发布时间和核心卖点,并将它们打印出来。(刚学网络爬虫。若有错误,望指正)
代码如下:

import requests
from bs4 import BeautifulSoup
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.81 Safari/537.36 Edg/94.0.992.50'
}info_lists = []house=requests.get("https://beijing.anjuke.com/sale/",headers=headers)
soup=BeautifulSoup(house.text,"lxml")
names=soup.select("h3")
positions=soup.select("p.property-content-info-comm-name")
moneys=soup.select("div.property-price > p.property-price-total > span.property-price-total-num")
years=soup.select("div.property-content > div.property-content-detail > section > div:nth-of-type(1) > p:nth-of-type(5)")
points=soup.select("div.property-content > div.property-content-detail > section > div:nth-of-type(3)")for name,position,money,year,point in zip(names,positions,moneys,years,points):info = {'name':name.get_text().strip(),'position':position.get_text().strip(),'money':money.get_text().strip(),'year':year.get_text().strip(),'point':point.get_text().strip()}info_lists.append(info)for info_list in info_lists:f = open(r'C:\Users\23993\Desktop\house_info.txt','a+')try:f.write(info_list["name"]+'  '+info_list["position"]+'  '+info_list["money"]+'万'+'  '+info_list["year"]+'  '+info_list["point"]+'\n')f.close()except UnicodeEncodeError:pass

部分结果截图:

利用Python中的BeautifulSoup库爬取安居客第一页信息相关推荐

  1. 利用Python中的BeautifulSoup库爬取豆瓣读书中书本信息

    利用BeautifulSoup库,获取前250本图书的信息,需要爬取的信息包括书名.书名的URL链接.作者.出版社和出版时间.书本价格.评分和评论,把这些信息存到txt文件,要求将这些信息对齐,排列整 ...

  2. Python爬虫实战-详细讲解爬取安居客房价数据

    最近在尝试用python爬取安居客房价数据,在这里给需要的小伙伴们提供代码,并且给出一点小心得. 首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是这样的纯文本数据爬取的 ...

  3. python3 beautiful爬取安居客的二手房信息

    今天有一位同学找我爬取安居客的信息,安居客网站有反爬虫机制,所以不能简单用requests来做,这里用selenium来模拟获取url网页. 环境 mac, python3.7 beautifulso ...

  4. 使用Python requests和BeautifulSoup库爬取去哪儿网

    功能说明:爬取去哪儿网城市下面若干条景点详细信息并将数据导入Excel表(使用xlwt库) 爬取去哪儿网的教程参考自 https://blog.csdn.net/gscsd_t/article/det ...

  5. 用bs爬取安居客优秀经理人信息

    目标 1.安居客二手房,随便一个城市,选择优秀经纪人,爬取所有页数 网址:http://beijing.anjuke.com/tycoon/p/ 过程 1.在网页源代码中找到所需要的数据 2.用bs提 ...

  6. python 安居客 爬虫_爬虫学习6:爬取安居客的VR房源信息

    公司的VR产品在推广前夕,需要做一个较详细的市场分析报告,我们可以从下面几个步骤来深入探讨: 1.需要展望整个VR的市场规模有多大,从而论证我们需要面对的市场分量, 2.在这个大市场下面,我们面对的细 ...

  7. Python爬取安居客经纪人信息

    Python爬取安居客经纪人信息 Python2.7.15 今天我们来爬取安居客经纪人的信息.这次我们不再使用正则,我们使用beautifulsoup.不了解的可以先看一下这个文档,便于理解.http ...

  8. 利用Python进行百度文库内容爬取(二)——自动点击预览全文并爬取

    本文是衔接上一篇:<利用Python进行百度文库内容爬取(一)>. 上回说到我们在对百度文库进行爬虫时,需要模拟手机端来进行登录,这样固然可以对文章进行爬取,但是很多时候并不是非常智能的翻 ...

  9. Python开发爬虫之BeautifulSoup解析网页篇:爬取安居客网站上北京二手房数据

    目标:爬取安居客网站上前10页北京二手房的数据,包括二手房源的名称.价格.几室几厅.大小.建造年份.联系人.地址.标签等. 网址为:https://beijing.anjuke.com/sale/ B ...

最新文章

  1. radio切换控制div显示_React 项目实践——搭建一个温度控制 App
  2. Elasticsearch 参考指南(重要的系统配置)
  3. oracle 计划中的view,为何执行计划中会出现个VIEW: VM_NWVW_1 ?
  4. 【java】Charset 字符集
  5. c++类对象 指针区别
  6. JavaScript闭包学习笔记
  7. Servlet第四篇【request对象常用方法、应用】
  8. 视讯稳定对接出现的问题
  9. Powershell 自定义对象小技巧
  10. 数据库、C#、Java生成唯一GUID 方法
  11. gulp-uglify《JS压缩》----gulp系列(四)
  12. WAP调用微信支付https://pay.weixin.qq.com/wiki/doc/api/wap.php?chapter=15_1
  13. 多迪技术总监揭秘:UI设计都是用什么软件?
  14. 华为交换之间静态路由配置实例
  15. 使用fusion app制作b站app
  16. 中国历史朝代变迁简介
  17. SQL Server解决18456错误方案
  18. 计算机能用到的英语积累(持续更新)
  19. show full processlist,MySQL 优化第7天学习
  20. 中国港口码头市场运营分析及“十四五”规划建议报告2022年版

热门文章

  1. win7系统任务管理器如何强制关闭程序
  2. 搜狐视频app如何设置仅自己可看我的关注列表
  3. SpringBoot的AOP是默认开启的,不需要加注解@EnableAspectJAutoProxy____听说SpringAOP 有坑?那就来踩一踩
  4. java 磁盘空间_如何使用Java查找剩余的磁盘空间?
  5. mysql批量查询版本号最大的_mysql子查询批量找id最大的
  6. 查看论坛隐藏链接_软连接与硬链接的区别
  7. iot nb 曹淑敏 鹰潭_移动物联时代来啦 鹰潭一项成就为全球首个 江西力争在全国“四个领先”...
  8. MySql主从同步最小配置
  9. LeetCode算法入门- Add Two Numbers-day3
  10. php设置session 生命周期,设置session的生命周期(php)