python推荐淘宝物美价廉商品 2.0
改动:
新增功能 :可选择只看天猫或淘宝
代码模块化封装,参数配置或输入单独在一个py文件管理,主函数功能只留出参数传入在setting配置的py文件里。
main.py代码:
1 # -*- coding: utf-8 -*- 2 import urllib 3 import urllib2 4 import requests 5 6 import re 7 import time 8 import random 9 import os 10 from math import log 11 from math import log10 12 from math import sqrt 13 import sys 14 15 import setting 16 17 18 #"pageSize":44,"totalPage":100,"currentPage":3,"totalCount":29561 19 20 '''在Python自己IDE上要注释掉以下两行''' 21 22 reload(sys) 23 sys.setdefaultencoding('utf8') # python2.x的的defaultencoding是ascii 24 25 class counter(object): 26 #计数器 27 def __init__(self): 28 self.count = 0 29 self.try_time = 0 30 31 self.try_find = 0 32 self.fail_time = 0 33 self.url_list = [] 34 self.new_flag = True 35 self.results = [] 36 self.priSu = 0 37 self.descSu = 0 38 self.tm_tb = '' 39 40 def print_counter(self): 41 print 'try_time:', self.try_time, " get_count:" , self.count, " fail_time:",self.fail_time ,"try_find_time:",self.try_find 42 43 44 45 46 def recommend_rate(price, description, delivery, service, comments): 47 #描述为绝对值 48 av_p = counter1.priSu / counter1.count 49 av_d = counter1.descSu / counter1.count 50 rate = (description/av_d)**20 \ 51 *(description + delivery + service) \ 52 *(av_p/(price))**0.1 \ 53 +log((comments+5),1000) 54 55 #print 'all count=',counter1.count 56 #print "avrage price=",av_p,';',av_p/(price),';price',price,';comments=',comments,';descrip=',description 57 #print 'rate=',rate,'(price)yinzi',(av_p/(price))**0.1,'descrip_yinzi',(description/av_d)**20,'comments_factor=',log((comments+50),100) 58 return rate 59 60 61 def product_rank(list): 62 for x in list: 63 #0开始为 x0商品名 、x1图片链接、x2商品链接、x3价格、x4评论数、 x5店铺名、 x6快递情况、x7描述相符情况3个、x8服务情况 64 rate = recommend_rate(x[3],x[7],x[6],x[8],x[4]) 65 x.append(rate) 66 67 68 def get_user_rate(item_url): 69 #暂时未使用该功能 70 '''获取卖家信用情况;未登录情况不能访问,或者需要在头部文件中加入cookie。。。;''' 71 html = urllib2.urlopen(item_url) 72 #"//rate.taobao.com/user-rate-282f910f3b70f2128abd0ee9170e6428.htm" 73 regrex_rate = '"(//.*?user\-rate.*?)"' 74 codes = re.findall(regrex_rate,html.read()) 75 html.close() 76 77 user_rate_url= 'http:'+codes[0] 78 print 'uu', user_rate_url 79 80 user_rate_html = urllib2.urlopen(user_rate_url) 81 print user_rate_html.read() 82 #title = "4.78589分" 83 desc_regex = u'title="(4.[0-9]{5}).*?' 84 de_pat = re.compile(desc_regex) 85 86 descs = re.findall(de_pat,user_rate_html.read()) 87 print len(descs) 88 item_url = 'https://item.taobao.com/item.htm?id=530635294653&ns=1&abbucket=0#detail' 89 #get_user_rate(item_url) 90 '''获取卖家信用情况;未登录情况不能访问。。。暂时 无用''' 91 92 93 def makeNewdir(savePath): 94 while os.path.exists(savePath): 95 savePath = savePath + str(random.randrange(1,10)) 96 #print "the path exist,we'll make a new one" 97 try: 98 os.makedirs(savePath) 99 print 'ok,file_path we reserve results: %s'%savePath 100 print '保存的路径为:'.decode('utf-8') 101 102 except : 103 print "failed to make file path\nplease restart program" 104 print '创建文件夹失败,请重新启动程序'.decode('utf-8') 105 return savePath 106 107 108 def get_praised_good(url, file_open, keyword, counts, descripHrequ, servHrequ, descripNrequ): 109 #从给定的淘宝链接中 获取符合条件的商品list 110 html = req_s.get(url) 111 code = html.content 112 html.close() 113 114 regrex2 = ur'raw_title":"(.*?)","pic_url":"(.*?)","detail_url":"(.*?)","view_price":"(.*?)".*?"comment_count":"(.*?)".*?"nick":"(.*?)".*?"delivery":\[(.*?),(.*?),(.*?)\],"description":\[(.*?),(.*?),(.*?)\],"service":\[(.*?),(.*?),(.*?)\]' 115 #每一个匹配项 返回 15个 字符串 116 #x[0]开始为 x0商品名 、x1图片链接、x2商品链接、x3价格、x4评论数、 x5店铺名、 x6快递情况3个、x9描述相符情况3个、x12服务情况3个 117 pat = re.compile(regrex2) 118 meet_code = re.findall(regrex2, code)# 119 if not len(meet_code): 120 counter1.new_flag = False 121 print 'no more new met products' 122 123 for x in meet_code: 124 # if counter1.count>=counts : 125 # print "have get enough pruducts" 126 # break 127 counter1.try_find += 1 128 129 description_higher = int(x[10])*float(x[11])/100 130 service_higher = int(x[13])*float(x[14])/100 131 try: 132 x4 = int(x[4]) #description_count 133 except: 134 x4 = 0 135 136 #如果 只要淘宝 非天猫 137 if counter1.tm_tb == 'taobao': 138 if counter1.tm_tb not in x[2].split('.'): 139 break 140 141 if (description_higher>=descripHrequ) and (service_higher>=servHrequ) and x4>=descripNrequ: 142 if re.findall(keyword,x[0]) : # 中文keyword在结果中匹配问题暂时没有解决,,直接加在搜索词里吧 143 x0 = x[0].replace(' ','').replace('/','') 144 detail_url = 'http:' + x[2].decode('unicode-escape').encode('utf-8') 145 x1 = 'http:'+ x[1].decode('unicode-escape').encode('utf-8') 146 #print type(x) 147 if detail_url in counter1.url_list or x4 == 0: 148 counter1.new_flag = False 149 print 'no more new met products' 150 print counter1.url_list 151 print detail_url 152 break 153 counter1.url_list.append(detail_url) 154 counter1.try_time += 1 155 counter1.count += 1 156 157 x11 = float(x[11])/100 158 x9 = float(x[9])/100 159 x12 = float(x[12])/100 160 x6 = float(x[6])/100 161 x3 = float(x[3]) 162 counter1.priSu += x3 163 counter1.descSu += x9 164 x5 = unicode(x[5],'utf-8') 165 166 result_list = [] 167 result_list.append(x0) 168 result_list.append(x1) 169 result_list.append(detail_url) 170 result_list.append(x3) 171 result_list.append(x4) 172 result_list.append(x5) 173 result_list.append(x6) 174 result_list.append(x9) 175 result_list.append(x12) 176 #0开始为 x0商品名 、x1图片链接、x2商品链接、x3价格、x4评论数、 x5店铺名、 x6快递情况、x7描述相符情况、x8服务情况 177 counter1.results.append(result_list) 178 179 180 def save_downpic(lis,file_open,savePath): 181 '''从商品list下载图片到reserve_file_path,并写入信息至fileopen''' 182 #0开始为 x0商品名 、x1图片链接、x2商品链接、x3价格、x4评论数、 x5店铺名、 x6快递情况、x7描述相符情况、x8服务情况、x9:rate 183 len_list = len(lis) 184 print 'we find:',len_list,'products' 185 cc = 0 186 for x in lis: 187 try : 188 urllib.urlretrieve(x[1], savePath+'\\%s___'%cc +unicode(x[0],'utf-8')+'.jpg') 189 190 txt_name = savePath+'\\'+ '%s__'%cc+ 'custome_description_%s __'%x[7] +'__comments_%s_'%x[4]+ '___price_%srmb___'%x[3] +x[5] +'.txt' 191 192 file_o = open(txt_name, 'a') 193 file_o.write(x[2]) 194 file_o.close() 195 196 print '\nget_one_possible_fine_goods:\n','good_name:',x[0].decode('utf-8') 197 print 'rate=',x[9] 198 print 'price:',x[3],x[5].decode('utf-8') 199 print 'custome_description:',x[7],'--','described_number:',x[4],' service:',x[8] 200 print x[2].decode('utf-8'),'\ngood_pic_url:',x[1].decode('utf-8') 201 202 print txt_name 203 print cc+1,"th" 204 205 file_open.write(u'%s__'%cc \ 206 + str(x[0]) \ 207 + '\nprice:' \ 208 + str(x[3]) \ 209 + '¥,\n' \ 210 + str(x[2]) + ' \n' + str(x[5]) + '\ncustomer_description:' + str(x[7]) + 'described_number:' + str(x[4])+'\n\n\n') 211 212 213 print 'get one -^-' 214 except : 215 print "failed to down picture or creat txt" 216 counter1.fail_time += 1 217 cc += 1 218 time.sleep(0.5) 219 220 221 222 def get_market_totalCount(url): 223 html = urllib2.urlopen(url) 224 code = html.read() 225 reg = '"pageSize":[0-9]*?,"totalPage":[0-9]*?,"currentPage":[0-9]*?,"totalCount":([0-9]*?)}' 226 totalCount = int(re.findall(reg,code)[0]) 227 228 return totalCount 229 230 #"pageSize":44,"totalPage":100,"currentPage":3,"totalCount":29561 231 232 233 def get_all_praised_goods(serchProd,counts,savePath ,keyword, price_min=0,price_max=0,descripHrequ =0,servHrequ=0 ,descripNrequ=0): 234 #边里搜索结果每一页 235 #initial url and page number 236 initial_url = 'https://s.taobao.com/search?q='+serchProd + '&_input_charset=utf-8' 237 238 if counter1.tm_tb == 'tmall': 239 initial_url = initial_url + '&filter_tianmao=tmall' 240 241 if price_min: 242 if price_min < price_max : 243 initial_url = initial_url+'&filter=reserve_price%5B'+'%s'%price_min+'%2C' +'%s'%price_max 244 initial_url = initial_url +'&cd=false&%5D&s=' 245 246 #tian_mall = 'https://list.tmall.com/search_product.htm?q=' 247 248 print "initial_url",initial_url+'0' 249 250 page_n = 0 251 reserve_file = savePath+r'\found_goods.txt' 252 file_open = open(reserve_file,'a') 253 254 file_open.write('****************************\n') 255 file_open.write(time.ctime()) 256 file_open.write('\n****************************\n') 257 258 total = get_market_totalCount(initial_url+'0') 259 print "totalcount",total 260 if total>counts*10: 261 total = sqrt(total) 262 263 while counter1.new_flag and counter1.try_find<total : 264 265 url_1 = initial_url + str(44*page_n) 266 #print initial_url 267 print 'url_1:', url_1 268 #print 'ss',initial_url+'%s'%(44*page_n) 269 page_n += 1 270 271 get_praised_good(url_1,file_open,keyword,counts,descripHrequ,servHrequ ,descripNrequ) 272 print "let web network rest for 1s lest make traffic jams " 273 time.sleep(1) 274 # except: 275 print page_n, "pages have been searched" 276 if total < counts : 277 print "check keyword,maybe too restrict" 278 break 279 280 print url_1 281 product_rank(counter1.results) 282 283 counter1.results.sort(key = lambda x : x[9], reverse=True) 284 counter1.results = counter1.results[:counts] 285 286 counter1.print_counter() 287 288 save_downpic(counter1.results,file_open,savePath) 289 290 # 291 for a in counter1.results: 292 for b in a : 293 file_open.write(unicode(str(b),'utf-8')) 294 file_open.write('\t') 295 file_open.write('\n\n') 296 297 file_open.close() 298 counter1.print_counter() 299 300 301 counter1 = counter() 302 303 market_totalcounts = 0 304 305 306 req_s = requests.Session() 307 req_s.adapters.DEFAULT_RETRIES = 3 308 req_s.keep_alive = True 309 310 311 def main(): 312 print "说明:".decode('utf-8') 313 print '本程序用于在淘宝上搜索商品时主动通过 价格范围、商品描述、服务态度、评论数来筛选商品;\n筛选出来的商品图片下载保存到磁盘(默认桌面新建find_worty_goods文件夹)并建立同序号开头的txt文件,图片显示商品,其旁的txt文件名显示价格等关键信息,txt里保存商品的淘宝链接'.decode('utf-8') 314 315 if setting.userDefine: #自己输入 配置参数-筛选要求 316 setting.inputPara() 317 #否则 使用setting中的配置参数 318 319 serchProd = setting.serchProd #淘宝搜索词 320 keyword = setting.keyword #raw_input().decode("gbk").encode("utf-8") #个人限定词,商品名字必须包含,防止淘宝推荐了其他相关词 (正则表达式). 为任意表示不作限制 321 price_min = setting.price_min #价格区间 322 price_max = setting.price_max 323 descripHrequ = setting.descripHrequ # % 默认高于average, 输出结果大于此值 324 servHrequ = setting.servHrequ # % 默认高于average, 输出结果大于此值 325 descripNrequ = setting.descripNrequ 326 counts = setting.counts #要求选出多少个商品 327 counter1.tm_tb = setting.tm_tb #不区分天猫淘宝则,字符串为空,,只要天猫 则 ='tmall' ,只要淘宝 = 'taobao' 328 329 #savePath = r"C:\Users\Administrator\Desktop\Python scrapy\find_worthy_goods\results"#结果保存路径 330 savePath = u"results%s"%serchProd #结果保存路径 331 savePath = makeNewdir(savePath) 332 333 get_all_praised_goods(serchProd, counts, savePath, keyword, price_min, price_max ,descripHrequ ,servHrequ ,descripNrequ) 334 335 336 if __name__ == "__main__" : 337 main() 338 339 340 #保存图片,以文件名为商品图片名字,并以序号开头 341 #同时,输出 价格、商家名,商品描述、服务等 到 txt文本 342 #在商品图片看中后,便可按序号查找 343 #按描述、服务评价高于平均,购物体验应该可以的
View Code
setting.py
# -*- coding: utf-8 -*- userDefine = False #筛选要求设置 serchProd='背包' #淘宝搜索词 keyword='' #raw_input().decode("gbk").encode("utf-8") #个人限定词,商品名字必须包含,防止淘宝推荐了其他相关词 (正则表达式). 为任意表示不作限制 price_min=22 #价格区间 price_max=100 descripHrequ=0 # % 默认高于average, 输出结果大于此值 servHrequ=0 # % 默认高于average, 输出结果大于此值 descripNrequ=6 counts=25 #要求选出多少个商品 tm_tb ='tmall' #不区分天猫淘宝则,字符串为空,,只要天猫 则 ='tmall' ,只要淘宝 = 'taobao'def inputPara():''' 用户选择是否自定义要求,根据要求进行获取商品,并按推荐排序输出'''print "please input reserch _goods_name"global serchProd , keyword , price_min, price_max, descripHrequ , servHrequ, descripNrequ ,counts ,tm_tbserchProd=raw_input().replace(' ','') #淘宝搜索词 ,并去除中间意外输入的空格if serchProd:print "if customise price_range ,decriptiom require .etc.\ninput Y/N \n default by : no price limit avarage than descriptiom,get 50 products \n 默认要求为:无价格限制,商品描述、快递、服务高于均值,获取50个商品。自定义要求请输入 ‘Y’ (区分大小写)".decode('utf-8')if raw_input() == 'Y':print "\nplease input _minimal price and _maximal price; \ndefault by 0,10000\nnext by 'enter'key input nothing means by default,the same below "print '请输入价格范围 ;默认0-10000 ;两项用半角逗号","分隔 按回车键确认;什么也不输入代表使用默认值 '.decode('utf-8')try:price_min, price_max=input()except:print 'not input or wrong number,use default range'price_min, price_max = 0 ,10000# print '是否要求 只看天猫/正品保障 还是只看淘宝 \n 只看天猫输入 tmall ,只看淘宝输入taobao,都看则回车略过'try:tm_tb=raw_input().decode("gbk").encode("utf-8") #个人限定词,商品名字必须包含,防止淘宝推荐了其他相关词 (正则表达式). 为任意表示不作限制except:tm_tb=''# # #print "please input _keyword that goods name must include:\n(more than one keyword must use Regular Expression); default by no kewords"try:keyword=raw_input().decode("gbk").encode("utf-8") #个人限定词,商品名字必须包含,防止淘宝推荐了其他相关词 (正则表达式). 为任意表示不作限制except:keyword=''# print "\nplease input _description_higher_percent_require and _service_higher__percent_require\n range:(-100,100) ; \ndefault by 0,0 I.e better than average"print '请输入商品描述、服务高于平均值的百分比-100 ~100'.decode('utf-8')# % 默认高于average, 输出结果大于此值try:descripHrequ,servHrequ=input() except:print 'not input or wrong number,use default range'descripHrequ = 0 # % 默认高于average, 输出结果大于此值servHrequ = 0# print "\nplease input description count limit, default more than 5\n" ,'输入最低商品评价数,默认大于5'.decode('utf-8')try:descripNrequ=input()except :print 'not input or wrong number,use default range'descripNrequ=5# # print "\nIF customise file reserve path, Y or N \ndefault/sample as: C:\\Users\\Administrator\\Desktop\\find_worthy_goods\\results "# print '是否自定义保存文件目录 Y or N'.decode('utf-8')# if raw_input()=='Y':# print "please input path that you want to reserve; \n " # savePath = raw_input()# else:# #savePath=r"C:\Users\Administrator\Desktop\find_worthy_goods\results"#结果保存路径 # print "\nplease input how many results you want, default by 50\n" ,'您要获取的商品数目,默认50'.decode('utf-8')try:counts=input()except :counts=50else :counts =50keyword = ''tm_tb = ''price_min ,price_max ,descripHrequ ,servHrequ ,descripNrequ = 0,0,0,0,0else:print "no search goods,please restart"print '没有输入商品名称,请重新启动程序'.decode('utf-8')
View Code
转载于:https://www.cnblogs.com/willowj/p/6266507.html
python推荐淘宝物美价廉商品 2.0相关推荐
- Project 1 :Python爬虫源码实现抓取淘宝指定商品所有评论并保存到文件
学习python一个多月,掌握了一些基础,因为开淘宝店的原因,平时会抓取一些淘宝数据,尝试用简单的语言写一些python爬虫,关键信息都注释在源码内.这是我的第一个爬虫程序,基于python3.6-p ...
- python +selenium 爬取淘宝网商品信息
前几天用python爬取豆瓣关于电影<长城>的影评,发现豆瓣的网页是静态的,心中一阵窃喜.以为对于动态网页了解的不是太多.但是主要是用cookie加headers爬取的.效果还不错,爬取了 ...
- python使用requests库爬取淘宝指定商品信息
python使用requests库爬取淘宝指定商品信息 在搜索栏中输入商品 通过F12开发者工具抓包我们知道了商品信息的API,同时发现了商品数据都以json字符串的形式存储在返回的html内 解析u ...
- 用Python爬取淘宝网商品信息
用Python爬取淘宝网商品信息 转载请注明出处 网购时经常会用到淘宝网 点我去淘宝但淘宝网上的商品琳琅满目,于是我参照中国大学 MOOC的代码写了一个爬取淘宝网商品信息的程序 代码如下: impor ...
- tmall.product.schema.get( 淘宝天猫商品发布API接口) ,淘宝商品发布API接口,淘宝店铺上传API接口,oAuth2.0店铺上传API接口
tmall.product.schema.get( 淘宝天猫商品发布API接口) ,淘宝商品发布API接口,淘宝店铺上传API接口,oAuth2.0店铺上传API接口,可适用于店铺上传商品,店铺发货, ...
- Python爬虫——4.6使用requests和正则表达式、随机代理爬取淘宝网商品信息
# coding:utf-8 ''' 使用requests模块,使用代理,进行淘宝网商品信息的爬取 ''' # 引入需要的模块 import requests import random import ...
- python爬虫-淘宝商品密码(图文教程附源码)
今天闲着没事,不想像书上介绍的那样,我相信所有的数据都是有规律可以寻找的,然后去分析了一下淘宝的商品数据的规律和加密方式,用了最简单的知识去解析了需要的数据. 这个也让我学到了,解决问题的方法不止一个 ...
- 淘宝app商品详情API接口(商品详情描述信息查询接口)
大家都知道,淘宝的反爬虫机制十分严,而很多时候,没办法高效的拿到数据内容响应终端需求,而依赖爬虫就会造成动不动就出现滑块验证,让人很无解,正好,公司有这样的需求,让我负责解决这个问题,刚开始各种尝试, ...
- 淘宝app商品详情原数据接口V1新版接口
item_get_app-获得淘宝app商品详情原数据接口,包括:标题,价格,促销价,优惠券,库存,销量,详情图片,SKU属性,主图等看的到的信息均可以拿到,可应用于商品销售情况分析,电商选品分析,品 ...
最新文章
- Android Screen Monitor抓取模拟器与真机界面
- mysql 5.5 替换字符_Mysql 5.7替换表中某些字段的字符串
- OPENNMS的后台并行管理任务
- LAMP平台--部署Discuz论坛
- php上传文件表单,php中关于普通表单多文件上传的处理方法
- Java数组与容器类分析资料--数组、List和Set、Map-asp.net关注
- Conditional Expectation Entropy
- 自动驾驶中的深度学习
- WPS怎么统计相同名称的数据_批量操作同一格式的多表格汇总统计
- pantum打印机驱动安装m6506_奔图m6506驱动下载|
- Android扫描wifi二维码自动连接wifi
- 火狐插件 打开html 死机,火狐flash插件崩溃(Firefox火狐Flash插件卡死问题完美解决方法)...
- [BZOJ4699]树上的最短路(最短路+线段树)
- 《天才在左、疯子在右》随笔
- 流量渠道 转化率 买家行为 处罚扣分规则 如何不被抓单,被判虚假交易对店铺的影响
- IT培训班有用吗?IT培训包就业是真的吗?
- 文献阅读(60)ACL2021-Attention Calibration for Transformer in Neural Machine Translation
- 计算机与控制科学谁好,考研考哪个方向好呢?模式识别 控制理论控制工程 计算机应专业研究生 信号与信息处理的进...
- Android下拉刷新和上拉加载更多
- python怎么实现打开摄像头_python开启摄像头以及深度学习实现目标检测方法
热门文章
- 2014/12/05 随笔 2014-12-05 12:50 26人阅读 评论(0) 收藏...
- Java谜题:等于,还是不等于?
- 程序员如何更快的工作之 SQL Server
- isAssignableFrom和isInstance、instanceof
- shell脚本的exit问题(退出脚本还是退出终端)
- LeetCode Decode Ways
- 沭阳县依托运用大数据推进平安建设
- 石川es6课程---11、json
- 后盾网lavarel视频项目---Laravel 安装代码智能提示扩展「laravel-ide-helper」
- jquery视频教程