一. 下载Python3.5.1安装包

1.进入python官网,点击menu->downloads,网址:Download Python

2. 根据系统选择32位还是64位,这里下载的可执行exe为64位安装包

二. 安装Python3.5

1. 双击打开安装包,选择自定义路径(注意安装路径中尽量不要含有有中文或者空格),然后选中Add Python 3.5 to PATH(将Python安装路径添加到系统变量Path中,这样做以后在任意目录下都可以执行pyhton命令了)

2.默认全选,Next

3. 修改安装路径,勾选加上Install for all user为所有用户安装和Precompile standard library 预编译标准库,然后点击Install

4.等待安装完成

5.验证,使用快捷键win + R 或 右键开始选择运行,输入cmd回车,打开命令提示符窗口,然后输入python->回车,若出现python版本信息则软件安装完成

三. 简单实践,敲一个简单小爬虫程序

1. 安装lxml库,由于直接使用pip lxml 对于3.0x以上的版本来说经常会出现版本不适应而失败,所以这里介绍直接使用whl文件安装

下载对应python3.5版本的lxml库,下载网址:http://www.lfd.uci.edu/~gohlke/pythonlibs/#lxml

同检查python是否安装成功一样,使用快捷键win + R 或 右键开始选择运行,输入cmd回车,打开命令提示符窗口,然后

pip install E:\demo\lxml-3.6.4-cp35-cp35m-win_amd64.whl(下载的lxml库whl文件存放路径)

可能碰到问题,pip的版本低了,需要更新一下pip的版本。更新pip版本命令:

python -m pip install -U pip

更新完成后,再次使用pip命令:

pip install E:\demo\lxml-3.6.4-cp35-cp35m-win_amd64.whl

2. Lxml库安装成功后,环境就准备好了, 可以开始敲代码了

引入Gooseeker规则提取器模块gooseeker.py(引入该模块的原因和价值),在自定义目录下创建gooseeker.py文件,如:这里为E:\Demo\gooseeker.py,再以记事本打开,复制下面的代码粘贴

#!/usr/bin/python

# -*- coding: utf-8 -*-

# 模块名: gooseeker

# 类名: GsExtractor

# Version: 2.0

# 说明: html内容提取器

# 功能: 使用xslt作为模板,快速提取HTML DOM中的内容。

# released by 集搜客(http://www.gooseeker.com) on May 18, 2016

# github: https://github.com/FullerHua/jisou/core/gooseeker.py

from urllib import request

from urllib.parse import quote

from lxml import etree

import time

class GsExtractor(object):

def _init_(self):

self.xslt = ""

# 从文件读取xslt

def setXsltFromFile(self , xsltFilePath):

file = open(xsltFilePath , 'r' , encoding='UTF-8')

try:

self.xslt = file.read()

finally:

file.close()

# 从字符串获得xslt

def setXsltFromMem(self , xsltStr):

self.xslt = xsltStr

# 通过GooSeeker API接口获得xslt

def setXsltFromAPI(self , APIKey , theme, middle=None, bname=None):

apiurl = "http://www.gooseeker.com/api/getextractor?key="+ APIKey +"&theme="+quote(theme)

if (middle):

apiurl = apiurl + "&middle="+quote(middle)

if (bname):

apiurl = apiurl + "&bname="+quote(bname)

apiconn = request.urlopen(apiurl)

self.xslt = apiconn.read()

# 返回当前xslt

def getXslt(self):

return self.xslt

# 提取方法,入参是一个HTML DOM对象,返回是提取结果

def extract(self , html):

xslt_root = etree.XML(self.xslt)

transform = etree.XSLT(xslt_root)

result_tree = transform(html)

return result_tree

# 提取方法,入参是html源码,返回是提取结果

def extractHTML(self , html):

doc = etree.HTML(html)

return self.extract(doc)

在提取器模块gooseeker.py同级目录下创建一个.py后缀文件,如这里为E:\Demo\first.py,再以记事本打开,敲入代码:

# -*- coding: utf-8 -*-

# 使用gsExtractor类的示例程序

# 访问集搜客论坛,以xslt为模板提取论坛内容

# xslt保存在xslt_bbs.xml中

# 采集结果保存在result.xml中

import os

from urllib import request

from lxml import etree

from gooseeker import GsExtractor

# 访问并读取网页内容

url = "http://www.gooseeker.com/cn/forum/7"

conn = request.urlopen(url)

doc = etree.HTML(conn.read())

bbsExtra = GsExtractor()

bbsExtra.setXsltFromAPI("31d24931e043e2d5364d03b8ff9cc77e" , "gooseeker_bbs_xslt") # 设置xslt抓取规则

result = bbsExtra.extract(doc) # 调用extract方法提取所需内容

# 当前目录

current_path = os.getcwd()

file_path = current_path + "/result.xml"

# 保存结果

open(file_path,"wb").write(result)

# 打印出结果

print(str(result).encode('gbk','ignore').decode('gbk'))

执行first.py,使用快捷键win + R 或 右键开始选择运行,输入cmd回车,打开命令提示窗口,进入first.py文件所在目录,输入命令 :python first.py 回车

查看保存结果文件,进入first.py文件所在目录,查看名称为result的xml文件(即采集结果)

四. 总结

安装步骤还是很简单,主要需要注意的是:

1. 对应系统版本安装;

2. 将安装路径加入系统环境变量Path。

后面将会讲到如何结合Scrapy快速开发Python爬虫。

End

作者:华天清

python爬虫软件安装不了_为编写网络爬虫程序安装Pytho相关推荐

  1. python爬虫安装软件_为编写网络爬虫程序安装Python3.5

    1. 下载Python3.5.1安装包 1.1 进入python官网,点击menu->downloads,网址:Download Python 1.2 根据系统选择32位还是64位,这里下载的可 ...

  2. Python可以这样学(第十季:网络爬虫实战)-董付国-专题视频课程

    Python可以这样学(第十季:网络爬虫实战)-83人已学习 课程介绍         陆续介绍和分享一些网络爬虫方面的案例,Python基础知识可以参考前面的"Python可以这样学&qu ...

  3. 使用python编写网络爬虫

    使用python编写网络爬虫 前言 1.为何使用爬虫 2.编写爬虫的知识要求 3.确定爬虫使用的工具库 4.确定要获取的数据集 4.1 分析Url地址变化 4.2 获取目标数据集所在的HTML区域 5 ...

  4. 爬虫推特数据分析的外文文献_什么是网络爬虫?有什么用?怎么爬?看完这篇文章你就明白了...

    源:Python架构师 https://dwz.cn/LI7NNc4g 一.什么是网络爬虫 随着大数据时代的来临,网络爬虫在互联网中的地位将越来越重要.互联网中的数据是海量的,如何自动高效地获取互联网 ...

  5. 使用Python编写网络扫描程序

    使用Python编写网络扫描程序 ​ 网络扫描程序通过向成百上千台计算机发送请求并分析其响应,扫描第2层和第3层网络中指定范围内的网络ID.利用某些扩展技术,网络扫描程序还可以获得通过Samba和Ne ...

  6. 在安装sql server时出现“以前的某个程序安装已在安装计算机上创建挂起的文件操作。运行安装程序之前必须重新启动计算机”错误。...

    在安装sql server时出现"以前的某个程序安装已在安装计算机上创建挂起的文件操作.运行安装程序之前必须重新启动计算机"错误.无法进行下去. 这个问题,以前我遇到过,知道是删除 ...

  7. 用c语言实现网络爬虫,C语言编写网络爬虫

    C语言编写网络爬虫 #include #include #include #include #pragma comment(lib, "ws2_32.lib")//加载网络支持的库 ...

  8. python网络爬虫软件哪个好用_好好学Python,入门网络爬虫之精华版!

    Python学习网络爬虫主要分3个大的版块:抓取,分析,存储. 另外,比较常用的爬虫框架Scrapy,这里最后也详细介绍一下. 首先列举一下本人总结的相关文章,这些覆盖了入门网络爬虫需要的基本概念和技 ...

  9. python爬取百度新闻_火车浏览器网络爬虫实践6:以“陕茶”为例爬取百度新闻搜索结果...

    每天进步一点点,这是我2019年的小目标. 这是第6次学习与实践笔记了,这一次咱们把对象转移到百度搜索去,尝试使用火车浏览器爬虫工具来采集百度新闻搜索的结果,并做简单数据可视化展示. 01 抓取需求 ...

最新文章

  1. asn1 pem pfx格式证书_Springboot中详细配置SSL证书
  2. FPI(公共标识符): owner//class description//language//version
  3. 岗岭集团打造中国最大的线上线下一体化的医药健康平台
  4. jenkins 手动执行_Jenkins Git client插件命令执行漏洞(CVE201910392)
  5. ArcGIS API for JavaScript 4.9 3.26 发布与新特性
  6. 遇到的坑_那些年跟团游遇到的坑,花了很多钱才发现自己被坑了
  7. 1-22 在“终端”里,运行“top”命令
  8. Redis环境配置和命令语句
  9. 计算机蓝屏代码0x0000007b,解决电脑蓝屏出现代码0x0000007b怎么解决
  10. java办公督办系统(企业事务管理系统)
  11. 【Python成长之路】快速理解复制、浅拷贝、深拷贝
  12. outlook添加账号接受服务器,如何在outlook添加账号
  13. 设断点报错:Frames are not available
  14. Python PYQT5中用Label控件显示以numpy表示的灰度图像
  15. 测试用例(功能用例)——供应商、存放地点、部门管理
  16. 刹车防抱死系统(ABS)
  17. 金蝶K3案例教程销售管理前台操作
  18. Urban Airship在iOS中的应用
  19. 仿腾讯手机管家快捷中心功能的实现方案
  20. 华为云大数据轻量级解决方案,让数据“慧”说话

热门文章

  1. 对称振子互阻抗曲线/查表[Matlab]
  2. Mac必备的优秀软件集合
  3. lua-文件操作代码大全
  4. python自制电子记事本_利用Python制作一个“电子记事本”
  5. Python安装pip出现error: no commands supplied的解决方案
  6. xp工作用计算机自能看见自己,XP系统弹出“无法查看工作组计算机”提示怎么办...
  7. RAMDISK 虚拟内存硬盘设置
  8. 保护系统:WinXP中赤手空拳备份注册表(转)
  9. PHPWord下载并使用
  10. Python使用Image函数批量给图片添加全屏45度透明logo图片水印