ai人工智能的本质和未来

The future looks towards running deep learning algorithms on more compact devices as any improvements in this space make for big leaps in the usability of AI.

未来的趋势是在更紧凑的设备上运行深度学习算法,因为该领域的任何改进都将使AI的可用性取得重大飞跃。

If a Raspberry Pi could run large neural networks, then artificial intelligence could be deployed in a lot more places.

如果Raspberry Pi可以运行大型神经网络,那么人工智能可以部署在更多地方。

Recent research in the field of economising AI has led to a surprisingly easy solution to reduce the size of large neural networks. It’s so simple, it could fit in a tweet:

在节省AI领域中的最新研究已导致出乎意料的简单解决方案,以减小大型神经网络的大小。 它非常简单,可以在一条推文中显示 :

  1. Train the Neural Network to Completion训练神经网络完成
  2. Globally prune the 20% of weights with the lowest magnitudes.在全球范围内修剪最低重量的20%重量。
  3. Retrain with learning rate rewinding for the original training time.以原始训练时间的学习率倒带进行再训练。
  4. Iteratively repeat steps 2 and 3 until the desired sparsity is reached.反复重复步骤2和3,直到达到所需的稀疏度。

Further, if you keep repeating this procedure, you can get the model as tiny as you want. However, it’s pretty certain that you’ll lose some model accuracy along the way.

此外,如果继续重复此过程,则可以根据需要获得最小的模型。 但是,可以肯定的是,您将在此过程中损失一些模型精度。

This line of research grew out of the an ICLR paper last year (Frankle and Carbin’s Lottery Ticket Hypothesis) which showed that a DNN could perform with only 1/10th of the number of connections if the right subnetwork was found in training.

这项研究源于去年的ICLR论文(Frankle和Carbin的彩票假设 ),该论文表明,如果在训练中找到正确的子网,则DNN只能执行连接数量的1/10的操作。

The timing of this finding coincides well with reaching new limitations in computational requirements. Yes, you can send a model to train on the cloud but for seriously big networks, along with considerations of training time, infrastructure and energy usage — more efficient methods are desired because they’re just easier to handle and manage.

这一发现的时机恰好与在计算要求上达到新的限制相吻合。 是的,您可以发送模型在云上进行训练,但对于大型网络,需要考虑训练时间,基础架构和能源使用情况,因此需要更高效的方法,因为它们更易于操作和管理。

Bigger AI models are more difficult to train and to use, so smaller models are preferred.

较大的AI模型更难训练和使用,因此较小的模型是首选。

Following this desire for compression, pruning algorithms came back into the picture following the success of the ImageNet competition. Higher performing models were getting bigger and bigger but many researchers proposed techniques try keep them smaller.

随着对压缩的渴望,随着ImageNet竞赛的成功,修剪算法重新出现 。 性能更高的模型变得越来越大,但是许多研究人员提出了一些技术,试图将它们缩小。

Yuhan Du on 玉函杜上UnsplashUnsplash

Song Han of MIT, developed a pruning algorithm for neural networks called AMC (AutoML for model compression) which removed redundant neurons and connections, when then the model is retrained to retain its initial accuracy level. Frankle took this method and developed it further by rewinding the pruned model to its initial weights and retrained it at a faster initial rate. Finally, in the ICLR study above, the researchers found that the model could be rewound to its early training rate and without playing with any parameters or weights.

麻省理工学院的宋瀚 ( Song Han)开发了一种称为AMC( 用于模型压缩的AutoML )的神经网络修剪算法,该算法删除了多余的神经元和连接,然后对其进行了重新训练以保持其初始精度水平。 Frankle采用了这种方法,并通过将修剪后的模型重绕到其初始权重并以更快的初始速率对其进行了重新训练来进一步开发了该方法。 最后,在上述ICLR研究中,研究人员发现该模型可以倒退至其早期训练速度,而无需使用任何参数或权重。

Generally as the model gets smaller, the accuracy gets worse however this proposed model performs better than both Han’s AMC and Frankle’s rewinding method.

通常,随着模型变小,精度会变差,但是此提议的模型的性能优于Han的AMC和Frankle的倒带方法。

Now it’s unclear why this model works as well as it does, but the simplicity of it is easy to implement and also doesn’t require time-consuming tuning. Frankle says: “It’s clear, generic, and drop-dead simple.”

现在还不清楚为什么该模型能够像它一样运作良好,但是它的简单性易于实现,并且不需要费时的调整。 弗兰克(Frankle)说:“这很清楚,通用并且很简单。”

Model compression and the concept of economising machine learning algorithms is an important field that we can make further gains in. Leaving models too large reduces the applicability and usability of them (I mean, you can keep your algorithm sitting in an API in the cloud) but there are so many constraints in keeping them local.

模型压缩和节省机器学习算法的概念是我们可以进一步获益的重要领域。模型过大会降低模型的适用性和可用性(我的意思是,您可以将算法保留在云中的API中)但是将它们保持在本地存在很多限制。

For most industries, models are often limited in their usability because they may be too big or too opaque. The ability to discern why a model works so well will not only enhance the ability to make better models, but also more efficient models.

对于大多数行业来说,模型的可用性通常受到限制,因为模型可能太大或太不透明。 辨别模型为何运作良好的能力不仅可以增强制作更好模型的能力,而且可以提高效率。

For neural nets, the models are so big because you want the model to naturally develop connections, which are being driven by the data. It’s hard for a Human to understand these connections but regardless, the understanding the model can chop out useless connections.

对于神经网络,模型是如此之大,因为您希望模型自然地建立由数据驱动的连接。 对于人类而言,很难理解这些连接,但是无论如何,对模型的理解都可以消除无用的连接。

The golden nugget would be to have a model that can reason — so a neural network which trains connections based on logic, thereby reducing the training time and final model size, however, we’re some time away from having an AI that controls the training of AI.

金块将是拥有一个可以推理的模型-因此,一个基于逻辑来训练连接的神经网络,从而减少了训练时间和最终模型的大小,但是,我们距离控制训练的AI还有一段距离AI。

Thanks for reading, and please let me know if you have any questions!

感谢您的阅读,如果您有任何疑问,请告诉我!

Keep up to date with my latest articles here!

在这里了解我的最新文章!

翻译自: https://towardsdatascience.com/the-future-of-ai-is-in-model-compression-145158df5d5e

ai人工智能的本质和未来


http://www.taodudu.cc/news/show-863866.html

相关文章:

  • tableau使用_使用Tableau探索墨尔本房地产市场
  • 谷歌云请更正这张卡片的信息_如何识别和更正Google Analytics(分析)报告中的(未设置)值
  • 科技情报研究所工资_我们所说的情报是什么?
  • 手语识别_使用深度学习进行手语识别
  • 数据科学的5种基本的面向业务的批判性思维技能
  • 大数据技术 学习之旅_数据-数据科学之旅的起点
  • 编写分段函数子函数_编写自己的函数
  • 打破学习的玻璃墙_打破Google背后的创新深度学习
  • 向量 矩阵 张量_张量,矩阵和向量有什么区别?
  • monk js_使用Monk AI进行手语分类
  • 辍学的名人_辍学效果如此出色的5个观点
  • 强化学习-动态规划_强化学习-第5部分
  • 查看-增强会话_会话式人工智能-关键技术和挑战-第2部分
  • 我从未看过荒原写作背景_您从未听说过的最佳数据科学认证
  • nlp算法文本向量化_NLP中的标记化算法概述
  • 数据科学与大数据排名思考题_排名前5位的数据科学课程
  • 《成为一名机器学习工程师》_如何在2020年成为机器学习工程师
  • 打开应用蜂窝移动数据就关闭_基于移动应用行为数据的客户流失预测
  • 端到端机器学习_端到端机器学习项目:评论分类
  • python 数据科学书籍_您必须在2020年阅读的数据科学书籍
  • ai人工智能收入_人工智能促进收入增长:使用ML推动更有价值的定价
  • 泰坦尼克数据集预测分析_探索性数据分析—以泰坦尼克号数据集为例(第1部分)
  • ml回归_ML中的分类和回归是什么?
  • 逻辑回归是分类还是回归_分类和回归:它们是否相同?
  • mongdb 群集_通过对比群集分配进行视觉特征的无监督学习
  • ansys电力变压器模型_变压器模型……一切是如何开始的?
  • 浓缩摘要_浓缩咖啡的收益递减
  • 机器学习中的无监督学习_无监督机器学习中聚类背后的直觉
  • python初学者编程指南_动态编程初学者指南
  • raspberry pi_在Raspberry Pi上使用TensorFlow进行对象检测

ai人工智能的本质和未来_人工智能的未来在于模型压缩相关推荐

  1. ai人工智能的本质和未来_人工智能手中的网络安全的未来

    ai人工智能的本质和未来 A recent Synack Report claims that combining cybersecurity talent and AI-enabled techno ...

  2. ai-人工智能的本质和未来_人工智能的历史-从一开始

    ai-人工智能的本质和未来 In the seminal paper on AI, titled Computing Machinery and Intelligence, Alan Turing f ...

  3. 太空夜景_太空深度学习的模型压缩技术概述

    太空夜景 By Hannah Peterson and George Williams (gwilliams@gsitechnology.com) 汉娜·彼得森 ( Hannah Peterson)和 ...

  4. ai物流智能调度 效率对比_人工智能在物流中:人工智能改变物流的5种方式

    ai物流智能调度 效率对比 A man who has been sleeping for twenty years and woke up in 2020 would find himself in ...

  5. 人工智能换脸pythonapp小视频_人工智能几行代码实现换脸,python+dlib实现图文教程...

    图像识别技术是信息时代的一门重要的技术,其产生目的是为了让计算机代替人类去处理大量的物理信息.随着计算机技术的发展,人类对图像识别技术的认识越来越深刻.图像识别技术的过程分为信息的获取.预处理.特征抽 ...

  6. 简述人工智能的发展历程图_人工智能的发展进程及现状

    龙源期刊网 http://www.qikan.com.cn 人工智能的发展进程及现状 作者:刘梦杰 来源:<科技创新与应用> 2020 年第 12 期 摘 ; 要:随着科学技术的进步与发展 ...

  7. 什么是人工智能?人工智能的本质是什么?

    人工智能(Artificial Intelligence,简称AI)是一种使计算机系统具有智能的技术和方法.它的目标是使计算机系统能够像人一样思考.理解.学习和解决问题.人工智能的研究领域涉及到机器学 ...

  8. 百度AI快车道系列课程最后一站,听技术大神细说模型“瘦身”小窍门

    从智能音箱"打来"Morning call,到办公楼下"刷脸"秒过闸机,再到回家车载导航实时指路--AI在移动端的应用随处可见,在万物互联化的大趋势下,AI模型 ...

  9. ai人工智能的本质和未来_是人工智能手中的网络安全的未来AI 1

    ai人工智能的本质和未来 Chinese philosophy yin and yang represent how the seemingly opposite poles can compleme ...

最新文章

  1. 滴滴CEO程维:当初把产品拿给美团王兴看,他说了两个字“垃圾”!
  2. TDD 与 CI 在 Python 中的实践
  3. 网易云音乐Android版使用的开源组件
  4. MyBatis 实际使用案例-environments、environment
  5. python中的字典推导式_17.python 字典推导式(经典代码)
  6. 深入开展计算机设备保密检查,江西安远县检察院深入开展网络安全保密自查工作...
  7. 鸿蒙-秒级网址在线监控V1.4工具-可多开
  8. 揭秘一家网络推广公司的引流变现套路
  9. HUffman树学习笔记
  10. MSCRM4.0商机移除价目表引起的问题
  11. html和css制作简单的个人网页代码,制作一张简单的网页(HTML+CSS+JS) 【3】
  12. 微信小程序开发笔记——开发者工具介绍
  13. 2010年下半年11月份系统架构设计师上午试题以及参考答案之六
  14. 数据分析--PEG策略(选股)
  15. 实战一:给定一段音频,请提取12维MFCC特征,阅读代码预加重、分帧、加窗部分,完善作业代码中fbank和mfcc部分,并给出最终的Fbank和MFCC特征,用默认的配置参数,无需进行修改
  16. 自定义气泡效果(BubbleView)
  17. ACL最近三年论文整理(word embedding专题)
  18. 无尽神域服务器维护,关于对无尽神域的感受亲爱的无尽神域开发团队:
  19. Zookeeper 报错 zookeeper Invalid config, exiting abnormally
  20. Cocos Creator 3D 粒子系统初战(一),不要钱的酷炫火焰拿走不谢!

热门文章

  1. 各种各种的公共工具类
  2. LVS之VS/NAT搭建web集群实战!!!
  3. NSubstitute完全手册(一)入门基础
  4. FreeBSD下安装postfixl邮件系统
  5. 最简单的java WebService服务器端搭建
  6. Video : 将使用AD认证的SharePoint网站配置为表单方式登录
  7. VueJS 开发常见问题集锦
  8. 让你的PHP4和PHP5共存
  9. mongodb添加多条数据_分析了一万多条拼车数据,看看北上广深的各位都回哪过年...
  10. curl命令java_Java中的curl命令