【银行业正处于快速数字化转型中,怎么发展?往哪里走?最后能到哪里?确切的方向谁也说不完整,广征意见中的各类奇思怪想满天飞。总结起来有这么几类:一是提高工作效率类。如通过系统提高自动化处理比例,将日常工作中某些规律性业务交由系统自动处理,提高单位时间内工作效率,如报表自动统计、业务机器人等;二是提升客户体验感类。如通过系统处理常规业务弥补客服人员的有限性,减少客户等待时间,方便客户自主操作,例如ATM机、银企对账机、智能开卡机等取款、查询打印等易于理解、不会产生歧义类常规业务;三是大数据分析类。如根据退休人员购买理财产品等情况,提供更符合该类客户在安全、稳定收益方面需求的产品。

本人是银行窗口服务方面小小负责人,希望在数据化转型方面通过系统建设等方式,提高柜面服务质量、服务效率,更好的为服务对象提供更优质服务。各位如在办理银行业务方面,不管是线下还是线上如遇到什么问题,如您方便,随时可以在评论区吐槽或反应,不胜感激!

在实际工作中,技术人员与业务人员面对对象不一样,思维也相差挺大,为了体验技术人员可能的思路, 我试着学学编程。作为只是尝试,所以仅仅是通过简单的编程解决工作上一些小问题,偏实用性,如excel报表汇总、数据查询等,为了提高兴趣,也收集并按自己想法更改了一些爬虫程序,如批量下载电影、图片、音乐等,后续将陆续发布,如有侵权请知会立删】

python实用代码2:自动爬找下载电影

学习python有一点很吸引人,就是爬虫技术,不知初学者们有无同感?能自动搜索到自己需要的各种数据! 其中,自动下载电影更让人兴奋,试想:一打开程序运行后,同时有几千部电影等待下载,下载一晚上,硬盘满满当当的几千电影,多么壮观!收集整理代码如下,仅供交流学习。

#coding=utf-8
import requests
import bs4
import pandas as pd
import os
import pyperclipdef get_data(url):  #1、网络请求 #访问指定的 url 网页headers = {'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8','user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',}r = requests.get(url, headers=headers)r.raise_for_status()r.encoding = r.apparent_encodingreturn r.textdef parse_data(html):  #2. 网页解析#根据 url 获取到的网页内容bsobj = bs4.BeautifulSoup(html,'html.parser')info = []# 获取电影列表tbList = bsobj.find_all('table', attrs = {'class': 'tbspan'})# 对电影列表中的每一部电影单独处理for item in tbList:movie = []link = item.b.find_all('a')[1]#print(link)# 获取电影的名称name = link['title']# 获取详情页面的 urlurl = 'https://www.dy2018.com' + link["href"]# 将数据存放到电影信息列表里# 访问电影的详情页面,查找电影下载的磁力链接temp = bs4.BeautifulSoup(get_data(url),'html.parser')tbody = temp.find_all('tbody')# 下载链接有多个(也可能没有),这里将所有链接都放进来for i in tbody:download = i.a.text#if 语句的判断,如果下载链接中包含 magnet:?xt=urn:btih 字符串,则视为有效链接,下载下来,否则跳过。if 'magnet:' in download:movie.append(name)movie.append(url)movie.append(download)# 将此电影的信息加入到电影列表中info.append(movie)breakreturn infodef save_data(data):  #3.数据存储#将 data 中的信息输出到文件中/或数据库中,保存的数据try:os.mkdir("D:/film") #创建文件用于存储爬取到的数据except:""file_name = 'D:/film/影片.csv'data_frame = pd.DataFrame(data)data_frame.to_csv(file_name, mode='a', index=False, sep=',', header=False) def download(links):#下载电影imageData = pd.read_csv('D:/film/影片.csv',names=['name','link','download'])# 获取电影的下载链接,并用换行符分隔a_link = imageData['download']links = '\n'.join(a_link)# 复制到剪切板pyperclip.copy(links)# 打开迅雷thunder_path = r'C:\Program Files (x86)\ThunderNetwork\Thunder\Program\ThunderStart.exe'os.startfile(thunder_path)def main():   #4. 爬虫#循环爬取多页数据"""1、剧情片2、喜剧片3、动作片4、爱情片5、科幻片6、动画片7、悬疑片8、惊悚片9、恐怖片10、纪录片11、音乐歌舞题材电影12、传记片13、历史片14、战争片15、犯罪片16、奇幻电影17、冒险电影18、灾难片19、武侠片20、古装片"""StaNO=int(input("请输入下载起始影视种类: "))  #1-20EndNO=int(input("请输入下载结束影视种类: "))  #1-20#每类电影下载页数选择page_stanum=int(input("请输入下载起始页面:  ")) page_endnum=int(input("请输入下载结束页面: "))for NOnum in range(StaNO,EndNO):for page in range(page_stanum,page_endnum):print('正在爬取:第' + str(NOnum)+'-'+str(page) + '页......')       # 根据之前分析的 URL 的组成结构,构造新的 urlif page == 1:index = 'index'else:index = 'index_' + str(page)           url = 'https://www.dy2018.com/'+str(NOnum)+'/' + index +'.html'# 依次调用网络请求函数,网页解析函数,数据存储函数,爬取并保存该页数据html = get_data(url)movies = parse_data(html)links = save_data(movies)print('第' +str(NOnum)+'-'+ str(page) + '页完成!')download(links)if __name__ == '__main__':  #5. 程序入口main()

python实用代码2:自动爬找下载电影相关推荐

  1. Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片

    Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片 其实没太大用,就是方便一些,因为现在各个平台之间的图片都不能共享,比如说在 CSDN 不能用简书的图片, ...

  2. python3爬虫系列03之requests库:根据关键词自动爬取下载百度图片

    python3爬虫系列03之requests库:根据关键词自动爬取下载百度图片 1.前言 在上一篇文章urllib使用:根据关键词自动爬取下载百度图片 当中,我们已经分析过了百度图片的搜索URL的变化 ...

  3. python自动爬取更新电影网站_python爬取电影网站信息

    一.爬取前提 1)本地安装了mysql数据库 5.6版本 2)安装了Python 2.7 二.爬取内容 电影名称.电影简介.电影图片.电影下载链接 三.爬取逻辑 1)进入电影网列表页, 针对列表的ht ...

  4. Python 实用代码工具集目录

    Python 实用代码工具集目录 1.批量重命名文件 2.视频转图片 3.图片转视频 4.图像灰度处理.图像合并(hstack) 1.批量重命名文件 链接1: 批量重命名文件 2.视频转图片 链接2: ...

  5. Python爬虫入门 | 7 分类爬取豆瓣电影,解决动态加载问题

      比如我们今天的案例,豆瓣电影分类页面.根本没有什么翻页,需要点击"加载更多"新的电影信息,前面的黑科技瞬间被秒--   又比如知乎关注的人列表页面:   我复制了其中两个人昵称 ...

  6. python爬虫(一)爬取豆瓣电影排名前50名电影的信息

    python爬虫(一)爬取豆瓣电影排名前50名电影的信息 在Python爬虫中,我们可以使用beautifulsoup对网页进行解析. 我们可以使用它来爬取豆瓣电影排名前50名的电影的详细信息,例如排 ...

  7. python战反爬虫:爬取猫眼电影数据 (一)(Requests, BeautifulSoup, MySQLdb,re等库)

    姓名:隋顺意 博客:Sui_da_xia 微信名:世界上的霸主 本篇文章未涉及猫眼反爬,主要介绍爬取无反爬内容,战反爬内容请去 python战反爬虫:爬取猫眼电影数据 (二)(Requests, Be ...

  8. python战反爬虫:爬取猫眼电影数据 (二)(Requests, BeautifulSoup, MySQLdb,re等库)

    姓名:隋顺意 博客:Sui_da_xia 微信名:世界上的霸主 本文主要介绍破解反爬,可以先去上一篇观看爬取无反爬内容 python战反爬虫:爬取猫眼电影数据 (一)(Requests, Beauti ...

  9. python爬虫——用Scrapy框架爬取阳光电影的所有电影

    python爬虫--用Scrapy框架爬取阳光电影的所有电影 1.附上效果图 2.阳光电影网址http://www.ygdy8.net/index.html 3.先写好开始的网址 name = 'yg ...

最新文章

  1. Java设计模式--总结
  2. input[type=checkbox] ; input[type=radio] 改变默认样式
  3. *LOJ#2085. 「NOI2016」循环之美
  4. 从人工到机器智能,盗版监测在 AI 时代如何破局?
  5. linux 时间 无法连接服务器地址,怎么解决linux访问不了ip地址问题?
  6. word List39
  7. 判断上三角矩阵_线性代数15——矩阵空间\对角矩阵\和秩1矩阵
  8. 基于JAVA+SpringMVC+Mybatis+MYSQL的汽车租赁系统
  9. 不要再问我this的指向问题了
  10. 华为STP相关功能配置
  11. springBoot+springSecurity 数据库动态管理用户、角色、权限
  12. [ZJOI2008]树的统计
  13. RTMP网页视频抓取
  14. 关于侵权Sinesafe官方网站,仿冒、抄袭等恶劣行为的公告
  15. 斯坦福发布3D街景数据集:8个3D城市模型+2500万图像+1.18亿图像配对
  16. 关于Bmob的一些浅述
  17. html实现点赞动画效果代码,Twitter“点赞”红心按钮CSS3动画特效
  18. Jfinal学习(一)
  19. 摄影构图学83年绝版_点评2张粉丝投稿,有1处共同错误,3个摄影技巧“变废为宝”...
  20. Android学习笔记-recreate()方法导致fragment重复新建的问题,解决方法

热门文章

  1. Android函数响应式编程——RxJava最快速度入门
  2. 专访宜信CTO向江旭:技术应当服务于场景,AI天生适合金融业
  3. obspy下载地震波数据
  4. 河南省多校联盟二-C
  5. 让页面无懈可击!关于 CSS,你该做好这 20 件事
  6. 记一次lumen直接删除migration文件踩的坑
  7. 保护! 一款插件,2行代码,去除CSDN的关注博主阅读全文
  8. IdentityServer4实现Token登录以及权限控制
  9. 【贪玩巴斯】C++提高编程,掌握STL中最关键的容器技术~(三){map、set、list、queue、stack 五大容器一篇解决!} //2021-08-25
  10. mysql function 1064_mysql 创建 function 错误 1064解决方案