文章摘要:其实这里casperjs与python没有直接关系,主要依赖casperjs调用phantomjs webkit获取html文件内容。长期以来,爬虫抓取 客户端javascript渲染生成的html页面 都极为 困难, Java里面有 HtmlUnit, 而Python里,我们可以使用独立的跨平台的CasperJS。

创建site.js(接口文件,输入:url,输出:html file)

//USAGE: E:\toolkit\n1k0-casperjs-e3a77d0\bin>python casperjs site.js --url=http://spys.ru/free-proxy-list/IE/ --outputfile='temp.html'

var fs = require('fs');

var casper = require('casper').create({

pageSettings: {

loadImages: false,

loadPlugins: false,

userAgent: 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/34.0.1847.137 Safari/537.36 LBBROWSER'

},

logLevel: "debug",//日志等级

verbose: true // 记录日志到控制台

});

var url = casper.cli.raw.get('url');

var outputfile = casper.cli.raw.get('outputfile');

//请求页面

casper.start(url, function () {

fs.write(outputfile, this.getHTML(), 'w');

});

casper.run();

python 代码, checkout_proxy.py

import json

import sys

#import requests

#import requests.utils, pickle

from bs4 import BeautifulSoup

import os.path,os

import threading

#from multiprocessing import Process, Manager

from datetime import datetime

import traceback

import logging

import re,random

import subprocess

import shutil

import platform

output_file = os.path.join(os.path.dirname(os.path.realpath(__file__)),'proxy.txt')

global_log = 'http_proxy' + datetime.now().strftime('%Y-%m-%d') + '.log'

if not os.path.exists(os.path.join(os.path.dirname(os.path.realpath(__file__)),'logs')):

os.mkdir(os.path.join(os.path.dirname(os.path.realpath(__file__)),'logs'))

global_log = os.path.join(os.path.dirname(os.path.realpath(__file__)),'logs',global_log)

logging.basicConfig(level=logging.DEBUG,format='[%(asctime)s] [%(levelname)s] [%(module)s] [%(funcName)s] [%(lineno)d] %(message)s',filename=global_log,filemode='a')

log = logging.getLogger(__name__)

#manager = Manager()

#PROXY_LIST = manager.list()

mutex = threading.Lock()

PROXY_LIST = []

def isWindows():

if "Windows" in str(platform.uname()):

return True

else:

return False

def getTagsByAttrs(tagName,pageContent,attrName,attrRegValue):

soup = BeautifulSoup(pageContent)

return soup.find_all(tagName, { attrName : re.compile(attrRegValue) })

def getTagsByAttrsExt(tagName,filename,attrName,attrRegValue):

if os.path.isfile(filename):

f = open(filename,'r')

soup = BeautifulSoup(f)

f.close()

return soup.find_all(tagName, { attrName : re.compile(attrRegValue) })

else:

return None

class Site1Thread(threading.Thread):

def __init__(self,outputFilePath):

threading.Thread.__init__(self)

self.outputFilePath = outputFilePath

self.fileName = str(random.randint(100,1000)) + ".html"

self.setName('Site1Thread')

def run(self):

site1_file = os.path.join(os.path.dirname(os.path.realpath(__file__)),'site.js')

site2_file = os.path.join(self.outputFilePath,'site.js')

if not os.path.isfile(site2_file) and os.path.isfile(site1_file):

shutil.copy(site1_file,site2_file)

#proc = subprocess.Popen(["bash","-c", "cd %s && ./casperjs site.js --url=http://spys.ru/free-proxy-list/IE/ --outputfile=%s" % (self.outputFilePath,self.fileName) ],stdout=subprocess.PIPE)

if isWindows():

proc = subprocess.Popen(["cmd","/c", "%s/casperjs site.js --url=http://spys.ru/free-proxy-list/IE/ --outputfile=%s" % (self.outputFilePath,self.fileName) ],stdout=subprocess.PIPE)

else:

proc = subprocess.Popen(["bash","-c", "cd %s && ./casperjs site.js --url=http://spys.ru/free-proxy-list/IE/ --outputfile=%s" % (self.outputFilePath,self.fileName) ],stdout=subprocess.PIPE)

out=proc.communicate()[0]

htmlFileName = ''

#因为输出路径在windows不确定,所以这里加了所有可能的路径判断

if os.path.isfile(self.fileName):

htmlFileName = self.fileName

elif os.path.isfile(os.path.join(self.outputFilePath,self.fileName)):

htmlFileName = os.path.join(self.outputFilePath,self.fileName)

elif os.path.isfile(os.path.join(os.path.dirname(os.path.realpath(__file__)),self.fileName)):

htmlFileName = os.path.join(os.path.dirname(os.path.realpath(__file__)),self.fileName)

if (not os.path.isfile(htmlFileName)):

print 'Failed to get html content from http://spys.ru/free-proxy-list/IE/'

print out

sys.exit(3)

mutex.acquire()

PROXYList= getTagsByAttrsExt('font',htmlFileName,'class','spy14$')

for proxy in PROXYList:

tdContent = proxy.renderContents()

lineElems = re.split('[<>]',tdContent)

if re.compile(r'\d+').search(lineElems[-1]) and re.compile('(\d+\.\d+\.\d+)').search(lineElems[0]):

print lineElems[0],lineElems[-1]

PROXY_LIST.append("%s:%s" % (lineElems[0],lineElems[-1]))

mutex.release()

try:

if os.path.isfile(htmlFileName):

os.remove(htmlFileName)

except:

pass

if __name__ == '__main__':

try:

if(len(sys.argv)) < 2:

print "Usage:%s [casperjs path]" % (sys.argv[0])

sys.exit(1)

if not os.path.exists(sys.argv[1]):

print "casperjs path: %s does not exist!" % (sys.argv[1])

sys.exit(2)

if os.path.isfile(output_file):

f = open(output_file)

lines = f.readlines()

f.close

for line in lines:

PROXY_LIST.append(line.strip())

thread1 = Site1Thread(sys.argv[1])

thread1.start()

thread1.join()

f = open(output_file,'w')

for proxy in set(PROXY_LIST):

f.write(proxy+"\n")

f.close()

print "Done!"

except SystemExit:

pass

except:

errMsg = traceback.format_exc()

print errMsg

log.error(errMsg)

python渲染html 库_在Python中使用CasperJS获取JS渲染生成的HTML内容的教程相关推荐

  1. python渲染html页面_在Python中使用CasperJS获取JS渲染生成的HTML内容的教

    文章摘要:其实这里casperjs与python没有直接关系,主要依赖casperjs调用phantomjs webkit获取html文件内容.长期以来,爬虫抓取 客户端javascript渲染生成的 ...

  2. python人脸识别库_基于Python的face_recognition库实现人脸识别

    Python Python开发 Python语言 基于Python的face_recognition库实现人脸识别 一.face_recognition库简介 face_recognition是Pyt ...

  3. python 函数式编程 库_使用Python的toolz库开始函数式编程的方法

    在这个由两部分组成的系列文章的第二部分中,我们将继续探索如何将函数式编程方法中的好想法引入到 Python中,以实现两全其美. 在上一篇文章中,我们介绍了不可变数据结构 . 这些数据结构使得我们可以编 ...

  4. python训练词库_在Python中训练NGramModel

    首先,正如您对问题的评论中所指出的,如果培训/运行速度对您来说是一个问题,KenLM可能是更好的选择.此时nltk.model主要用于教育/原型设计,但它并不快. 如果您仍然决定坚持使用NLTK,请继 ...

  5. 下列哪个不是python的第三方库_以下选项中,不是 Python 中用于开发用户界面的第三方库是()...

    [单选题]关于栓子的运行下列说法错误的是? [简答题]变压器可以按哪几个方面分类?分别举例说明. [单选题]坏死组织外观干燥,质实.呈灰白色,结构消失组织轮廓一段时间存在是指? [简答题]购物车:有商 ...

  6. python的opencv库_用于Python的Opencv可视化库安装,面向,OpenCV,视觉

    计算机视觉最重要的库莫过于OpenCV,ananconda功能很强大,但是也有比较重要的几个库,还没做成集成开发环境,需要自己安装. 在安装的过程中也走了许多弯路,因为安装的方法有许多许多,有些随着O ...

  7. python连接opencv库_利用Python和OpenCV库将URL转换为OpenCV格式的方法

    今天的博客是直接来源于我自己的个人工具函数库. 过去几个月,有些PyImageSearch读者电邮问我:"如何获取URL指向的图片并将其转换成OpenCV格式(不用将其写入磁盘再读回)&qu ...

  8. python格式化html库_用Python格式化HTML代码

    我在CSV文件的列中有一个url列表.我想使用Python遍历所有的URL,从URL下载HTML代码的特定部分,并将其保存到下一列.在 例如: 我想从这个URL中提取这个div并将其写入下一列.在 V ...

  9. python 埋点 库_测试~python库介绍(一) opencv

    前言 从事测试工作已有4年了,期间通过python编写了很多自动化脚本,接下来的日子和大家分享一下测试工作上常用的python库,适合常年从事黑盒测试的同学了解一些入门级技巧. UI响应时间评测~前身 ...

最新文章

  1. 面试官:Java反射是什么?我回答不上来!
  2. @JsonIgnoreProperties转换实体时忽略json中不存在的字段
  3. A Full Hardware Guide to Deep Learning
  4. android 存储方式以及路径简介
  5. ES6 深拷贝_你别自以为是:ES6误区 之 Object.assign()、const
  6. Linux /etc/login.defs配置文件
  7. 英文课程名称 c语言程序设计,课程名称C语言程序设计I.doc
  8. Python深度学习入门学习路线(简单速成不掉头发)
  9. mysql和5g有关系吗_5g和4g有何不同
  10. stn在mnist上的实现
  11. wordpress 安装插件
  12. 如何做好区块链社区?得社区者得天下
  13. 新安装的office(已激活),出现新建没有Word
  14. 警告框处理与下拉框选择_Sinno_Song_新浪博客
  15. NRF51822 2.4G API
  16. PS-InSAR茂县滑坡监测
  17. 【Vim】学习笔记day02 Vim的三级窗体切换
  18. PHP 实现LRU 算法
  19. 用计算机管理人事档案,医院人事档案的计算机管理与应用
  20. 终于等到了!阿里内部“性能怪兽”开源了,竟是Nginx+Redis

热门文章

  1. SAP ABAP实用技巧介绍系列之利用RTTC给DDIC structure动态添加新的field
  2. 在Visual Studio Code里进行Java开发
  3. 一些SAP UI5代码审查的例子
  4. SAP人工智能服务Recast.AI的一个简单例子
  5. 怎么实现阵列装配_第九篇:磁盘阵列和群晖SHR
  6. linux时钟与电源管理,SOC的时钟和电源管理
  7. tomcat怎么平滑更新项目_tomcat_deploy 平滑启动脚本
  8. 抖音gorgon算法04php,抖音xgorgon(0401)获取方法及演示
  9. java chat_使用 Java 创建聊天客户端-1
  10. linux vim verilog,vim下好用的verilog插件:)( 更新) - [IC]