点击蓝字python教程”关注我们哟!

前言

Python现在非常火,语法简单而且功能强大,很多同学都想学Python!所以小的给各位看官们准备了高价值Python学习视频教程及相关电子版书籍,欢迎前来领取!

房价高是北漂们一直关心的话题,本文就对北京的二手房数据进行了分析。

本文主要分为两部分:Python爬取赶集网北京二手房数据,R对爬取的二手房房价做线性回归分析,适合刚刚接触Python&R的同学们学习参考。

Python爬取赶集网北京二手房数据

入门爬虫一个月,所以对每一个网站都使用了Xpath、Beautiful Soup、正则三种方法分别爬取,用于练习巩固。数据来源如下:

Xpath爬取:

这里主要解决运用Xpath如何判断某些元素是否存在的问题,比如如果房屋没有装修信息,不加上判断,某些元素不存在就会导致爬取中断。

import requests

from lxml import etree

from requests.exceptions import RequestException

import multiprocessing

import time

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}

def get_one_page(url):

try:

response = requests.get(url, headers=headers)

if response.status_code == 200:

return response.text

return None

except RequestException:

return None

def parse_one_page(content):

try:

selector = etree.HTML(content)

ALL = selector.xpath('//*[@id="f_mew_list"]/div[6]/div[1]/div[3]/div[1]/div')

for div in ALL:

yield {

'Name': div.xpath('dl/dd[1]/a/text()')[0],

'Type': div.xpath('dl/dd[2]/span[1]/text()')[0],

'Area': div.xpath('dl/dd[2]/span[3]/text()')[0],

'Towards': div.xpath('dl/dd[2]/span[5]/text()')[0],

'Floor': div.xpath('dl/dd[2]/span[7]/text()')[0].strip().replace('\n', ""),

'Decorate': div.xpath('dl/dd[2]/span[9]/text()')[0],

#地址需要特殊处理一下

'Address': div.xpath('dl/dd[3]//text()')[1]+div.xpath('dl/dd[3]//text()')[3].replace('\n','')+div.xpath('dl/dd[3]//text()')[4].strip(),

'TotalPrice': div.xpath('dl/dd[5]/div[1]/span[1]/text()')[0] + div.xpath('dl/dd[5]/div[1]/span[2]/text()')[0],

'Price': div.xpath('dl/dd[5]/div[2]/text()')[0]

}

if div['Name','Type','Area','Towards','Floor','Decorate','Address','TotalPrice','Price'] == None:##这里加上判断,如果其中一个元素为空,则输出None

return None

except Exception:

return None

def main():

for i in range(1, 500):#这里设置爬取500页数据,在数据范围内,大家可以自设置爬取的量

url = 'http://bj.ganji.com/fang5/o{}/'.format(i)

content = get_one_page(url)

print('第{}页抓取完毕'.format(i))

for div in parse_one_page(content):

print(div)

if __name__ == '__main__':

main()

Beautiful Soup爬取:

import requests

import re

from requests.exceptions import RequestException

from bs4 import BeautifulSoup

import csv

import time

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}

def get_one_page(url):

try:

response = requests.get(url,headers = headers)

if response.status_code == 200:

return response.text

return None

except RequestException:

return None

def parse_one_page(content):

try:

soup = BeautifulSoup(content,'html.parser')

items = soup.find('div',class_=re.compile('js-tips-list'))

for div in items.find_all('div',class_=re.compile('ershoufang-list')):

yield {

'Name':div.find('a',class_=re.compile('js-title')).text,

'Type': div.find('dd', class_=re.compile('size')).contents[1].text,#tag的 .contents 属性可以将tag的子节点以列表的方式输出

'Area':div.find('dd',class_=re.compile('size')).contents[5].text,

'Towards':div.find('dd',class_=re.compile('size')).contents[9].text,

'Floor':div.find('dd',class_=re.compile('size')).contents[13].text.replace('\n',''),

'Decorate':div.find('dd',class_=re.compile('size')).contents[17].text,

'Address':div.find('span',class_=re.compile('area')).text.strip().replace(' ','').replace('\n',''),

'TotalPrice':div.find('span',class_=re.compile('js-price')).text+div.find('span',class_=re.compile('yue')).text,

'Price':div.find('div',class_=re.compile('time')).text

}

#有一些二手房信息缺少部分信息,如:缺少装修信息,或者缺少楼层信息,这时候需要加个判断,不然爬取就会中断。

if div['Name', 'Type', 'Area', 'Towards', 'Floor', 'Decorate', 'Address', 'TotalPrice', 'Price'] == None:

return None

except Exception:

return None

def main():

for i in range(1,50):

url = 'http://bj.ganji.com/fang5/o{}/'.format(i)

content = get_one_page(url)

print('第{}页抓取完毕'.format(i))

for div in parse_one_page(content):

print(div)

with open('Data.csv', 'a', newline='') as f:  # Data.csv 文件存储的路径,如果默认路径就直接写文件名即可。

fieldnames = ['Name', 'Type', 'Area', 'Towards', 'Floor', 'Decorate', 'Address', 'TotalPrice', 'Price']

writer = csv.DictWriter(f, fieldnames=fieldnames)

writer.writeheader()

for item in parse_one_page(content):

writer.writerow(item)

time.sleep(3)#设置爬取频率,一开始我就是爬取的太猛,导致网页需要验证。

if __name__=='__main__':

main()

正则爬取:我研究了好久,还是没有解决。

这一过程中容易遇见的问题有:

有一些房屋缺少部分信息,如缺少装修信息,这个时候需要加一个判断,如果不加判断,爬取就会自动终止(我在这里跌了很大的坑)。

Data.csv知识点存储文件路径默认是工作目录,关于Python中如何查看工作目录:

import os

#查看pyhton 的默认工作目录

print(os.getcwd())

#修改时工作目录

os.chdir('e:\\workpython')

print(os.getcwd())

#输出工作目录

e:\workpython

爬虫打印的是字典形式,每个房屋信息都是一个字典,由于Python中Excel相关库是知识盲点,所以爬虫的时候将字典循环直接写入了CSV。

Pycharm中打印如下:

将字典循环直接写入CSV效果如下:

很多初学者对于Address不知如何处理,这里强调一下Beautiful Soup 中.contents的用法,亲身体会,我在这里花了好多时间才找到答案。

R对爬取的二手房房价做一般线性回归分析

下面我们用R对抓取的赶集网北京二手房数据做一些简单的分析。

数据的说明

Name:主要是商家的醒目标题,不具备分析参考意义

Type:卧室数、客厅数、卫生间数

Area:面积(平方米)

Towards:朝向

Floor:楼层

Decorate:装修情况,如精装修、简单装修、毛坯房

Address:二手房的地址

TotalPrice:总价

Price:均价(元/平方米)

数据清洗

data

DATA

DATA[sample(1:nrow(DATA),size=10),]

#在爬取的时候加入了判断,所以不知道爬取的数据中是否存在缺失值,这里检查一下

colSums(is.na(DATA))

#这里将Type的卧室客厅和卫生间分为三个不同的列

##这里需要注意,有一些房屋没有客厅如:1室1卫这时候需要单独处理,还有一些没有厕所信息。

library(tidyr)

library(stringr)

DATA=separate(data=DATA,col=Type,into = c("Bedrooms","Halls"),sep="室")

DATA=separate(data=DATA,col=Halls,into = c("Halls","Toilet"),sep="厅")

##将卫生间后面的汉字去掉

DATA$Toilet

###如图六,将Halls中带有汉字去掉,因为有一些房屋信息没有客厅,如:1室1厅,在分成卧室和客厅时,会将卫生间分到客厅一列。

DATA$Halls

##取出没有客厅信息的数据,这些数据被separate到Halls列

newdata

newdata

##将没有客厅的房屋信息Halls列填充为0

DATA[which(DATA$Toilet %in% NA),2]

DATA[which(DATA$Toilet %in% NA),3]

colSums(DATA=="")

Bedrooms      Halls     Toilet       Area    Towards      Floor   Decorate

0          0          2          0          0          0          0

TotalPrice      Price

0          0

##发现有2个厕所没有信息,将其填写为0。

DATA$Toilet[DATA$Toilet == ""]

##这里将Area后的㎡去掉

DATA$Area

##查看Towards的类型

table(DATA$Towards)

Towards    北向  东北向  东南向  东西向    东向  南北向    南向  西北向

51      25      23      50      65      32    1901     678      38

西南向    西向

28      26

##将Floor信息带括号的全部去除

DATA$Floor

#查看Floor的类别信息

低层  地下  高层 共1层 共2层 共3层 共4层 共5层  中层

632    32   790    36    61   101    68   130  1016

#分别将TotalPrice和Price后面的万元、元/㎡去掉

DATA$TotalPrice

DATA$Price

head(DATA)

##将数据转换格式

DATA$Bedrooms

DATA$Halls

DATA$Toilet

DATA$Area

DATA$TotalPrice

DATA$Price

DATA$Towards

DATA$Decorate

str(DATA)

以上数据清洗完毕。

描述性分析

这部分的主要思路是探究单个自变量对因变量的影响,对房价的影响因素进行模拟探究之前,首先对各变量进行描述性分析,以初步判断房价的影响因素。这里探究各个因素对总价影响。

探究Bedrooms与TotalPrice的关系

table(DATA$Bedrooms)

1    2    3    4    5    6    7    9

541 1225  779  193  102   20    5    1

##由于拥有6、7、9个卧室数的数量较少,这里我们排出这些数据。

DATA

DATA

DATA

table(DATA$Bedrooms)

1    2    3    4    5

541 1225  779  193  102

library(ggplot2)

ggplot(DATA,aes(x=Bedrooms,y=TotalPrice))+geom_boxplot(col="red")

DATA$Bedrooms

##这里将卧室数为1、2、3命名为A,4为B,5为C

DATA$Bedrooms[DATA$Bedrooms=='1']

DATA$Bedrooms[DATA$Bedrooms=='2']

DATA$Bedrooms[DATA$Bedrooms=='3']

DATA$Bedrooms[DATA$Bedrooms=='4']

DATA$Bedrooms[DATA$Bedrooms=='5']

不同卧室数,TotalPrice不同。且随着卧室数的增多,总价越高,符合大众的认知。

探究Halls与TotalPrice的关系

table(DATA$Halls)

0    1    2    3    4    5    9

20 1674 1050   77   18    1    0

##5个客厅只有一个个体,我们这里将其排出

DATA

table(DATA$Halls)

0    1    2    3    4    5    9

20 1674 1050   77   18    0    0

ggplot(DATA,aes(x=Halls,y=TotalPrice))+geom_boxplot(col="red")

客厅数为3时候总价较高,客厅数为0、1和2的时候总价低于客厅数3和客厅数4。

探究Toilet与TotalPrice的关系

#探究卫生间与总价的关系

table(DATA$Toilet)

0    1    2    3    4    5    6    7    9

2 2142  470  116   74   26    7    2    0

#这里将卫生间数为0、6和7的去掉

DATA

DATA

DATA

table(DATA$Toilet)

0    1    2    3    4    5    6    7    9

0 2142  470  116   74   26    0    0    0

ggplot(DATA,aes(x=Toilet,y=TotalPrice))+geom_boxplot(col="red")

一般卧室数越多,卫生间数也越多,即卫生间数越多,总价越高。

探究Area与TotalPrice的关系

ggplot(DATA, aes(x=Area, y=TotalPrice)) + geom_point(col='red')

这个完全符合住房面积越大,总价越高。

探究Towards与TotalPrice的关系

ggplot(DATA,aes(x=Towards,y=TotalPrice))+geom_boxplot(col="red")

探究Floor与TotalPrice的关系

ggplot(DATA,aes(x=Floor,y=TotalPrice))+geom_boxplot(col="red")

图中信息显示楼层一共只有1、2、3、地下的总价较高。

探究Decorate与TotalPrice的关系

ggplot(DATA,aes(x=Decorate,y=TotalPrice))+geom_boxplot(col="red")

不同装修信息对总价影响较小。

模型建立

fit

summary(fit)

Call:

lm(formula = TotalPrice ~ Bedrooms + Halls + Toilet + Area +

Towards + Floor + Decorate, data = DATA)

Residuals:

Min       1Q   Median       3Q      Max

-1330.80  -103.49   -21.41    63.88  2961.59

Coefficients:

Estimate Std. Error t value Pr(>|t|)

(Intercept)      -112.7633    88.3010  -1.277 0.201697

Bedrooms2         -43.5934    16.2533  -2.682 0.007359 **

Bedrooms3         -82.6565    20.7641  -3.981 7.04e-05 ***

Bedrooms4         -63.3096    34.9521  -1.811 0.070198 .

Bedrooms5          79.0618    54.0763   1.462 0.143842

Halls1             -5.0663    64.2764  -0.079 0.937182

Halls2            -53.8905    65.4427  -0.823 0.410307

Halls3           -303.9750    79.2280  -3.837 0.000127 ***

Halls4           -528.5427   104.0849  -5.078 4.07e-07 ***

Toilet2           112.9566    19.1171   5.909 3.87e-09 ***

Toilet3           543.7304    38.8056  14.012  < 2e-16 ***

Toilet4           735.1894    55.0977  13.343  < 2e-16 ***

Toilet5           338.7906    84.2851   4.020 5.98e-05 ***

Area                5.1091     0.1619  31.557  < 2e-16 ***

Towards东北向     138.9088    79.3817   1.750 0.080248 .

Towards东南向     187.1895    68.5388   2.731 0.006351 **

Towards东西向     176.3055    65.8384   2.678 0.007453 **

Towards东向       210.9435    73.2744   2.879 0.004022 **

Towards南北向      75.7831    57.1199   1.327 0.184704

Towards南向        60.1949    56.9678   1.057 0.290763

Towards西北向      75.4326    71.1415   1.060 0.289091

Towards西南向     169.8106    75.9626   2.235 0.025467 *

Towards西向       234.0816    76.5585   3.058 0.002253 **

Floor地下        -812.3578    63.3277 -12.828  < 2e-16 ***

Floor高层          12.3525    14.2466   0.867 0.385991

Floor共1层       -313.7278    52.1342  -6.018 2.00e-09 ***

Floor共2层       -453.3692    41.6829 -10.877  < 2e-16 ***

Floor共3层       -601.7032    44.3336 -13.572  < 2e-16 ***

Floor共4层       -183.7866    36.3396  -5.057 4.52e-07 ***

Floor共5层        -41.4184    25.7922  -1.606 0.108419

Floor中层          -1.7223    13.5961  -0.127 0.899204

Decorate简单装修  -63.1591    22.0584  -2.863 0.004224 **

Decorate精装修    -49.3276    19.8544  -2.484 0.013033 *

Decorate毛坯     -157.0299    24.3012  -6.462 1.22e-10 ***

---

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 265.5 on 2794 degrees of freedom

Multiple R-squared:  0.6852,    Adjusted R-squared:  0.6815

F-statistic: 184.3 on 33 and 2794 DF,  p-value: < 2.2e-16

模型的F检验拒绝原假设,说明建立的模型是显著的;Ajusted R-squared为0.6815,模型的拟合程度尚可接受。

学习01

对Python开发技术感兴趣的朋友,欢迎加下方的交流群一起学习,相互讨论。

02

python交流学习扣扣群:934109170,多多交流问题,互帮互助,群里有不错的学习教程和开发工具。学习python有任何问题(学习方法,学习效率,如何就业),可以随时来咨询我

好啦!文章就给看官们分享到这儿

最后,如果觉得有帮助,记得关注、转发、收藏哟

python xpath循环_Python爬虫 爬取北京二手房数据相关推荐

  1. 爬取北京二手房数据信息(python)

    数据爬取 爬取北京二手房数据信息python代码: # coding : utf-8from requests import get from bs4 import BeautifulSoup as ...

  2. python跑一亿次循环_python爬虫爬取微博评论

    原标题:python爬虫爬取微博评论 python爬虫是程序员们一定会掌握的知识,练习python爬虫时,很多人会选择爬取微博练手.python爬虫微博根据微博存在于不同媒介上,所爬取的难度有差异,无 ...

  3. python二手房数据分析_Python 爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码...

    作者 徐麟 本文经授权转自公众号数据森麟(ID: shujusenlin) 房价高是北漂们一直关心的话题,本文就对北京的二手房数据进行了分析. 本文主要分为两部分:Python爬取赶集网北京二手房数据 ...

  4. python爬虫爬取多个页面_Python 爬虫爬取多页数据

    但是,按照常规的爬取方法是不可行的,因为数据是分页的: 最关键的是,不管是第几页,浏览器地址栏都是不变的,所以每次爬虫只能爬取第一页数据.为了获取新数据的信息,点击F12,查看页面源代码,可以发现数据 ...

  5. Python 爬取北京二手房数据,分析北漂族买得起房吗?(附完整源码)

    来源:CSDN 本文约3500字,建议阅读9分钟. 本文根据Python爬取了赶集网北京二手房数据,R对爬取的二手房房价做线性回归分析,适合刚刚接触Python&R的同学们学习参考. 房价高是 ...

  6. mysql scrapy 重复数据_大数据python(scrapy)爬虫爬取招聘网站数据并存入mysql后分析...

    基于Scrapy的爬虫爬取腾讯招聘网站岗位数据视频(见本头条号视频) 根据TIOBE语言排行榜更新的最新程序语言使用排行榜显示,python位居第三,同比增加2.39%,为什么会越来越火,越来越受欢迎 ...

  7. python输出古诗词_python爬虫——爬取古诗词

    一. 概要 1.通过python爬虫循环爬取古诗词网站唐诗宋词 2.落地到本地数据库 二. 页面分析 首先通过firedebug进行页面定位: 其次源码定位: 最终生成lxml etree定位div标 ...

  8. python输出古诗词_python爬虫——爬取古诗名句

    一. 概要 1.通过python爬虫循环爬取古诗词网站古诗名句 2.落地到本地数据库 二. 页面分析 首先通过firedebug进行页面定位: 其次源码定位: 最终生成lxml etree定位div标 ...

  9. python爬虫教材推荐 豆瓣_Python爬虫爬取豆瓣书籍数据

    炎热的夏天,酷暑难挡,难免会心烦意燥,睡前随手拿起枕边看过很多遍的「平凡的世界」.看书,会让躁动的心瞬间安静下来. 生活不能等待别人来安排,要自己去争取和奋斗:而不论其结果是喜是悲,但可以慰藉的是,你 ...

最新文章

  1. oracle卸载注意啥,关于oracle的安装,卸载以及其他注意事项
  2. windows中PyCharm的安装和使用
  3. 学习笔记(三)——CSS进阶
  4. 路径规划算法之Bellman-Ford算法
  5. VB 详细枚举指定目录、文件夹文件列表
  6. 爬虫必备技能xpath的用法和实战
  7. vscode 不支持的客户端_Windows平台上有哪些你不知道的神器?
  8. 直关的sql 联级更新语句
  9. view 判断显示 微信_微信小程序开发用户授权登录(上)
  10. MR 眼镜会取代手机成为下一代终端,中国产业有机会领先世界
  11. macOS调整分辨率与HiDPI
  12. python定时器启动多次_python 定时器
  13. cad怎么把图层英文变成中文_CAD图层中英文对照表.pdf
  14. [转] 粤语八级题,你会做岩几多题??
  15. 中兴java笔试题_中兴Java 笔试题.doc
  16. 硬脆材料划片机的工艺参数研究
  17. BT源代码学习心得(二):程序运行参数的获取 -- 转贴自 wolfenstein (NeverSayNever)
  18. linux开启swap(磁盘缓存)操作
  19. 苹果系统Mac能安装office吗
  20. 为什么老外一个人能带宝宝,中国要一家子?

热门文章

  1. Android系列之Fragment(三)----Fragment和Activity之间的通信(含接口回调)
  2. agilent3070软件安装
  3. 轻轻松松统计代码行数
  4. 程序员专属段子集锦 7/10
  5. Linux pid_t 类型的定义
  6. Codeforces 1178
  7. Mac adb 安装
  8. 细说Activity与Task(任务栈)
  9. HTML5.1 推荐中 1.5.3. Extensibility 段落翻译
  10. 限制firefox上传框宽度