淘宝卖家必备程序

前一阵闲的冒泡开了个淘宝店,因为改价格等各种原因麻烦的不得了,这不就心思爬个虫懒得一页页翻了么!
如果你没开过淘宝店或者非得自己亲眼看网页价格,那么这篇咱们就没啥缘分了,我们以后随缘再见~


话不多说直接教程(以下教程没开店的人员可能看不懂):

  1. 首先先进入我们的淘管家。登陆自己的账号,进入我们的店铺页面。我们会看到如下界面

  1. 首先介绍一下这是我的店铺,我们能发现这里存在买价和卖价,并且还需要翻页才能查看到你所有的店铺信息。在这里我首先想拿到的就是衣服名字、买价、卖价以及这部分的差价。均提取出来保存到 csv 文件中。
  2. 我们首先打开检查模式(右键检查或者键盘中F12敲一敲)。在这里我们直接进入 Network 网络传输这里。如果这里为空不用担心,因为刷新一下传输太多了咱们看不过来,我们直接点击下一页点到第一个传输位置,我们会发现 Preview 里面有我们的json信息,pageList 能看到卖货信息全在这里。那就容易了,记住这个 url 请求地址就好。

url 地址怎么获取:还是刚才那个第一个别变,我们直接找Headers信息找到第一项 Request URL 就是我们需要的那个网站信息,这个网址非常乱。如果你不想了解爬虫的话看不懂无所谓。其实这个就是你淘宝账号的key信息,属于你自己一个人的网址链接。我们只需要看到 pageNum=2 参数,就大概能猜到这个是你当前的页数了。(PS:一开始我以为我还得自己去寻找一共多少页信息,结果我发现这个Json里面全都包括了?淘宝牛皮!)

  1. 之后就该手撸代码啦。。巴拉巴拉写完啦(没有过程。解析再源代码,想看的话往后翻翻就能看到啦)。在这里是不是有人想知道淘宝需要登陆而且很严格的吧。没关系!
    传说有一个大佬他叫皮卡丘,曾经开源了第三方库名为 DecryptLogin ,这个库能帮我们做到很多很多登陆的问题,有大佬不用愁!再次感谢大佬开源
  1. 之后将自己的代码做成可执行文件分享出来给小伙伴们用

源代码(修改 search_url 的网址为自己的店铺):

源代码(修改 search_url 的网址为自己的店铺):import os,pickle,csv,sys
from tkinter import messagebox
from lxml import etree
from DecryptLogin import login
class TBCrawler():def __init__(self, **kwargs):self.clothes = {}if os.path.isfile('session.pkl'):self.session = pickle.load(open('session.pkl', 'rb'))else:self.session = TBCrawler.login()f = open('session.pkl', 'wb')pickle.dump(self.session, f)f.close()self.run("1")self.save()def run(self,page):# 把这里改成自己的信息,如果xxx之外的地方出现较大问题,则可能就是获取错了# 改xxxxx位置就好了,其他不要动。search_url = "https://guanjia.1688.com/event/app/newchannel_fx_selloffer/querySuplierProducts.htm?_csrf_token=Xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxd&_input_charset=utf8&keyword=&pageNum={}&supplierId=&offerStatus=0".format(page) response = self.session.get(search_url)# 因为读取pkl登陆信息cookie容易过期,则需要判断一些这里应不应该结束程序try:result = response.json()["result"]except:messagebox.showinfo("warning","登陆过期,请删除pkl信息重新运行")sys.exit(0)pageList = result["pageList"]for dicts in pageList:name,bug,sell = dicts["itemTitle"],dicts["maxPurchasePrice"],dicts["maxTbSellPrice"]interest = float(sell) - float(bug)self.clothes[name] = [bug,sell,interest]# 在这里输出一下信息, 别因为页数多爬取好久一点信息没有都不知道爬到哪了。print(self.clothes)all_page = int(result["pageCount"])if int(page) < all_page:self.run(int(page)+1)def save(self):with open("clothes.csv", 'w', newline='', encoding='utf_8_sig') as f:csv_writer = csv.writer(f)csv_writer.writerow(["衣服名","买价","卖价","利益"])for key in self.clothes.keys():value = self.clothes[key]csv_writer.writerow([key,value[0],value[1],value[2]])@staticmethoddef login():lg = login.Login()_, session = lg.taobao()return session
if __name__ == '__main__':crawler = TBCrawler()import os,pickle,csv,sys
from tkinter import messagebox
from lxml import etree
from DecryptLogin import login
class TBCrawler():def __init__(self, **kwargs):self.clothes = {}if os.path.isfile('session.pkl'):self.session = pickle.load(open('session.pkl', 'rb'))else:self.session = TBCrawler.login()f = open('session.pkl', 'wb')pickle.dump(self.session, f)f.close()self.run("1")self.save()def run(self,page):# 把这里改成自己的信息,如果xxx之外的地方出现较大问题,则可能就是获取错了# 改xxxxx位置就好了,其他不要动。search_url = "https://guanjia.1688.com/event/app/newchannel_fx_selloffer/querySuplierProducts.htm?_csrf_token=Xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxd&_input_charset=utf8&keyword=&pageNum={}&supplierId=&offerStatus=0".format(page) response = self.session.get(search_url)# 因为读取pkl登陆信息cookie容易过期,则需要判断一些这里应不应该结束程序try:result = response.json()["result"]except:messagebox.showinfo("warning","登陆过期,请删除pkl信息重新运行")sys.exit(0)pageList = result["pageList"]for dicts in pageList:name,bug,sell = dicts["itemTitle"],dicts["maxPurchasePrice"],dicts["maxTbSellPrice"]interest = float(sell) - float(bug)self.clothes[name] = [bug,sell,interest]# 在这里输出一下信息, 别因为页数多爬取好久一点信息没有都不知道爬到哪了。print(self.clothes)all_page = int(result["pageCount"])if int(page) < all_page:self.run(int(page)+1)def save(self):with open("clothes.csv", 'w', newline='', encoding='utf_8_sig') as f:csv_writer = csv.writer(f)csv_writer.writerow(["衣服名","买价","卖价","利益"])for key in self.clothes.keys():value = self.clothes[key]csv_writer.writerow([key,value[0],value[1],value[2]])@staticmethoddef login():lg = login.Login()_, session = lg.taobao()return session
if __name__ == '__main__':crawler = TBCrawler()

原作者:꧁༺北海以北的等待༻꧂

如有侵权联系删除,开源代码或者完整项目代码回去加群:1136192749

谢谢大家阅读!

淘宝卖家必备程序

前一阵闲的冒泡开了个淘宝店,因为改价格等各种原因麻烦的不得了,这不就心思爬个虫懒得一页页翻了么!
如果你没开过淘宝店或者非得自己亲眼看网页价格,那么这篇咱们就没啥缘分了,我们以后随缘再见~


话不多说直接教程(以下教程没开店的人员可能看不懂):

  1. 首先先进入我们的淘管家。登陆自己的账号,进入我们的店铺页面。我们会看到如下界面

  1. 首先介绍一下这是我的店铺,我们能发现这里存在买价和卖价,并且还需要翻页才能查看到你所有的店铺信息。在这里我首先想拿到的就是衣服名字、买价、卖价以及这部分的差价。均提取出来保存到 csv 文件中。
  2. 我们首先打开检查模式(右键检查或者键盘中F12敲一敲)。在这里我们直接进入 Network 网络传输这里。如果这里为空不用担心,因为刷新一下传输太多了咱们看不过来,我们直接点击下一页点到第一个传输位置,我们会发现 Preview 里面有我们的json信息,pageList 能看到卖货信息全在这里。那就容易了,记住这个 url 请求地址就好。

url 地址怎么获取:还是刚才那个第一个别变,我们直接找Headers信息找到第一项 Request URL 就是我们需要的那个网站信息,这个网址非常乱。如果你不想了解爬虫的话看不懂无所谓。其实这个就是你淘宝账号的key信息,属于你自己一个人的网址链接。我们只需要看到 pageNum=2 参数,就大概能猜到这个是你当前的页数了。(PS:一开始我以为我还得自己去寻找一共多少页信息,结果我发现这个Json里面全都包括了?淘宝牛皮!)

  1. 之后就该手撸代码啦。。巴拉巴拉写完啦(没有过程。解析再源代码,想看的话往后翻翻就能看到啦)。在这里是不是有人想知道淘宝需要登陆而且很严格的吧。没关系!
    传说有一个大佬他叫皮卡丘,曾经开源了第三方库名为 DecryptLogin ,这个库能帮我们做到很多很多登陆的问题,有大佬不用愁!再次感谢大佬开源
  1. 之后将自己的代码做成可执行文件分享出来给小伙伴们用

源代码(修改 search_url 的网址为自己的店铺):

源代码(修改 search_url 的网址为自己的店铺):import os,pickle,csv,sys
from tkinter import messagebox
from lxml import etree
from DecryptLogin import login
class TBCrawler():def __init__(self, **kwargs):self.clothes = {}if os.path.isfile('session.pkl'):self.session = pickle.load(open('session.pkl', 'rb'))else:self.session = TBCrawler.login()f = open('session.pkl', 'wb')pickle.dump(self.session, f)f.close()self.run("1")self.save()def run(self,page):# 把这里改成自己的信息,如果xxx之外的地方出现较大问题,则可能就是获取错了# 改xxxxx位置就好了,其他不要动。search_url = "https://guanjia.1688.com/event/app/newchannel_fx_selloffer/querySuplierProducts.htm?_csrf_token=Xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxd&_input_charset=utf8&keyword=&pageNum={}&supplierId=&offerStatus=0".format(page) response = self.session.get(search_url)# 因为读取pkl登陆信息cookie容易过期,则需要判断一些这里应不应该结束程序try:result = response.json()["result"]except:messagebox.showinfo("warning","登陆过期,请删除pkl信息重新运行")sys.exit(0)pageList = result["pageList"]for dicts in pageList:name,bug,sell = dicts["itemTitle"],dicts["maxPurchasePrice"],dicts["maxTbSellPrice"]interest = float(sell) - float(bug)self.clothes[name] = [bug,sell,interest]# 在这里输出一下信息, 别因为页数多爬取好久一点信息没有都不知道爬到哪了。print(self.clothes)all_page = int(result["pageCount"])if int(page) < all_page:self.run(int(page)+1)def save(self):with open("clothes.csv", 'w', newline='', encoding='utf_8_sig') as f:csv_writer = csv.writer(f)csv_writer.writerow(["衣服名","买价","卖价","利益"])for key in self.clothes.keys():value = self.clothes[key]csv_writer.writerow([key,value[0],value[1],value[2]])@staticmethoddef login():lg = login.Login()_, session = lg.taobao()return session
if __name__ == '__main__':crawler = TBCrawler()import os,pickle,csv,sys
from tkinter import messagebox
from lxml import etree
from DecryptLogin import login
class TBCrawler():def __init__(self, **kwargs):self.clothes = {}if os.path.isfile('session.pkl'):self.session = pickle.load(open('session.pkl', 'rb'))else:self.session = TBCrawler.login()f = open('session.pkl', 'wb')pickle.dump(self.session, f)f.close()self.run("1")self.save()def run(self,page):# 把这里改成自己的信息,如果xxx之外的地方出现较大问题,则可能就是获取错了# 改xxxxx位置就好了,其他不要动。search_url = "https://guanjia.1688.com/event/app/newchannel_fx_selloffer/querySuplierProducts.htm?_csrf_token=Xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxd&_input_charset=utf8&keyword=&pageNum={}&supplierId=&offerStatus=0".format(page) response = self.session.get(search_url)# 因为读取pkl登陆信息cookie容易过期,则需要判断一些这里应不应该结束程序try:result = response.json()["result"]except:messagebox.showinfo("warning","登陆过期,请删除pkl信息重新运行")sys.exit(0)pageList = result["pageList"]for dicts in pageList:name,bug,sell = dicts["itemTitle"],dicts["maxPurchasePrice"],dicts["maxTbSellPrice"]interest = float(sell) - float(bug)self.clothes[name] = [bug,sell,interest]# 在这里输出一下信息, 别因为页数多爬取好久一点信息没有都不知道爬到哪了。print(self.clothes)all_page = int(result["pageCount"])if int(page) < all_page:self.run(int(page)+1)def save(self):with open("clothes.csv", 'w', newline='', encoding='utf_8_sig') as f:csv_writer = csv.writer(f)csv_writer.writerow(["衣服名","买价","卖价","利益"])for key in self.clothes.keys():value = self.clothes[key]csv_writer.writerow([key,value[0],value[1],value[2]])@staticmethoddef login():lg = login.Login()_, session = lg.taobao()return session
if __name__ == '__main__':crawler = TBCrawler()

原作者:꧁༺北海以北的等待༻꧂

如有侵权联系删除,开源代码或者完整项目代码回去加群:1136192749

谢谢大家阅读!

Python实现淘宝卖家价格分析,淘宝卖家必会的操作!相关推荐

  1. 弘辽科技:淘宝店铺出现异常,卖家该如何应对?要注意些什么?

    原标题<弘辽科技:淘宝店铺出现异常,卖家该如何应对?要注意些什么?> 淘宝商家们在运营淘宝店铺的过程中总会遇到一些问题,例如自己的淘宝店铺突然性的出现异常,若是遇到了这类的情况,作为淘宝商 ...

  2. 一位卖家对淘宝查杀虚假交易痛讼!

    逼走卖家,自掘坟墓,淘宝2008-2009年最失败的策略反思!    含着极度的愤懑写下这篇文章,我不知道这篇文章能在网上存在多久,尤其是淘宝论坛,可能还没与大家见面就已经被删了,但是我的意见还是要发 ...

  3. 信托专替卖家刷淘宝信用 制造虚假交易赚人

    <script type="text/javascript"><!-- google_ad_client = "pub-0241434510974184 ...

  4. Python爬虫学习之爬取淘宝搜索图片

    Python爬虫学习之爬取淘宝搜索图片 准备工作 因为淘宝的反爬机制导致Scrapy不能使用,所以我这里是使用selenium来获取网页信息,并且通过lxml框架来提取信息. selenium.lxm ...

  5. [Python]调用adb抢双十一淘宝喵币

    原创文章,欢迎转载.转载请注明:转载自 祥的博客 原文链接:https://blog.csdn.net/humanking7/article/details/102800059 文章目录 @[toc] ...

  6. python使用requests库爬取淘宝指定商品信息

    python使用requests库爬取淘宝指定商品信息 在搜索栏中输入商品 通过F12开发者工具抓包我们知道了商品信息的API,同时发现了商品数据都以json字符串的形式存储在返回的html内 解析u ...

  7. 江湖小白之一起学Python (五)爬取淘宝商品信息

    趁热需打铁,随着这几天的鸡血澎湃,我们来实现一下爬取淘宝商品信息,我记得几年前曾用python写了下抓取淘宝天猫,京东,拍拍的爬虫,专门采集商品信息,图片,评论及评论图片,我还用pyqt开发了个客户端 ...

  8. 一个淘宝网店5皇冠卖家引发的思考

    前几天我一个朋友叫我帮她装修一下淘宝店铺,我说以前不是装修过了吗?她说升级旺铺了,搞一下旺铺的装修...话题由此开了...06年的时候她还是钻石,后来发展起来,还开了实体店,广告牌也是让我们做的短短一 ...

  9. 淘宝客推广流量少,卖家应该怎样做?

    怎样做淘宝客推广?很多卖家在设置好淘宝客推广计划,产品佣金,招募到合作的淘宝客之后只是坐等流量,怎样做淘宝客推广甚至部分卖家都不知道自己合作的淘宝客是通过哪一种渠道帮我们把产品推广出去的,他的渠道客户 ...

  10. 淘宝“”升级 小卖家在淘宝总部拉横幅

    小卖家们在线拉响"围攻"大商户的"集结号". 淘宝商城近日调整招商续签及相关规则,技术服务年费和违约保证金涨幅高达5倍至15倍之巨.此举引起大批商家,尤其是中小 ...

最新文章

  1. https nginx phpstudy_让phpStudy2018 Nginx 支持WordPress自定义链接
  2. 【Java】实战Java虚拟机之五“开启JIT编译”
  3. 算法打卡39:喷水装置
  4. 前端学习(2737):重读vue电商网站47之生成打包报告
  5. 【机器学习】 - 关于Keras的深入理解
  6. 【物理女神】谁是中国第一位物理学女博士?
  7. c post请求网页_Python使用urllib2抓取网页
  8. 本周小结!(回溯算法系列三)
  9. macOS版本大升级,这几项的细节值得你关注
  10. PHP 单元测试问题记录
  11. V8声卡软件调试教程
  12. element ui的el-option需要默认
  13. 人民日报申论范文:“传统文化”怎么写?
  14. 文本分类概述(nlp)
  15. CCproxy 实现http服务器代理
  16. 60、JAVA的map集合
  17. 交互设计好书推荐:【A029】[图灵交互设计丛书].简约至上:交互式设计四策略.第2版
  18. 【cvpr2022-论文笔记】《L2G: A Simple Local-to-Global Knowledge Transfer .... Semantic Segmentation》
  19. 酷睿i7和i5对计算机专业要求,英特尔i5已经足够用 还有必要升级i7处理器吗?
  20. Windows下控制网络连接的常用命令

热门文章

  1. ⽬标⾏动及稠密环境未知情况下,⽆⼈机跟踪的系统解决⽅案
  2. IComponent2 Interface 学习
  3. 取得当前日期相对应的月初,月末,季初,季末,年初,年末
  4. 关于diskgenius删除所有分区后,电脑不能识别U盘的问题。
  5. 基于MATLAB去理解掌握傅里叶级数和傅里叶变换
  6. TensorFlow.jsd的优势
  7. HTML的基本结构及基本标签
  8. UrlEncode编码/UrlDecode解码 - 站长工具
  9. 制造业原材料价格上涨 安防设备涨还是不涨?
  10. 【福利】免费领取企业信息查询两年VIP会员