nlp gpt论文

We have recently heard that GPT-3, a Natural Language Processing(NLP) models have been made available by Open AI and is touted to be an invention bigger than blockchain. The extent of this transformation is such that this deep learning model can help things shown as sci-fi to become accessible to be implemented by college students.

我们最近听说,Open AI已经提供了GPT-3(一种自然语言处理(NLP)模型),并被吹捧为一项比区块链更大的发明。 这种转变的程度使得这种深度学习模型可以帮助科幻所示的事物变得易于被大学生实现。

Technically speaking GPT-3 is a highly adaptable algorithm that generates models but let’s not get bogged down by semantics.GPT-3 has been defined as:

从技术上讲,GPT-3是一种高度适应性的算法,可以生成模型,但不要被语义所困扰.GPT-3被定义为:

task-agnostic Natural Language Processing Model that requires manual tuning.

与任务无关的自然语言处理模型,需要手动调整。

So it can do specific tasks like text generation and qualitative queries with minimal user adjustment. Historically models have been either task agnostic or have required minimal tuning, but GPT-3 has both the properties and hence is quick to train and easy to tune.NLP is a branch of AI that deals with and enables the interaction between computers and humans using the natural language. The NLP model achieves this by reading, deciphering, understanding, and making sense of human words in the given context.

因此,它可以用最少的用户调整来完成特定的任务,例如文本生成和定性查询。 从历史上看,模型要么是与任务无关的,要么需要最小的调整,但是GPT-3具有这两种特性,因此训练Swift且易于调整.NLP是AI的一个分支,致力于处理并允许使用自然语言。 NLP模型通过在给定的上下文中阅读,解密,理解和理解人类单词来实现这一目标。

GPT-3 has been trained using half a trillion words (Common Crawl Dataset) and based on that has generated 175 Billion parameter model. Parameters are different rules that are set in different conditions by learning how language works. The complexity of the problem GPT-3 is trying to solve is demonstrated by the fact that the model consumed $12 Million worth of compute to generate this 175B parameter model.

GPT-3已使用半万亿个单词( 通用抓取数据集 )进行了训练,并在此基础上生成了1,750亿个参数模型。 参数是通过学习语言的工作原理在不同条件下设置的不同规则。 该模型耗费了价值1200万美元的计算来生成此175B参数模型,这一事实证明了GPT-3试图解决的问题的复杂性。

GPT-3 Use Cases

GPT-3用例

Following is a shortlist of a few amongst the millions of use cases

以下是数百万个用例中的几个的入围列表

  1. Long-form Generative text: GPT-3 can generate essays similar to what humans would write in 10 sec. When this was tested by asking humans to guess which text was written by human and which one was generated by the algorithm, it was found that in the best case was 88% of the people were fooled to believe GPT-3 generated text was human-generated and in the worst case 39% of the people were fooled. So GPT-3 could generate text pretty close what humans would write and could even be used for creative writing like in this example => GPT-3 Creative Fiction

    较长的生成性文本: GPT-3可以生成类似于人类在10秒钟内写的文章。 当通过要求人们猜测哪个文本是由人类编写以及哪个文本是由算法生成进行测试时,发现在最佳情况下,有88%的人被愚弄了,以为GPT-3生成的文本是人类-产生,最坏的情况是39%的人被愚弄了。 因此,GPT-3可以生成与人类所写文本非常接近的文本,甚至可以用于创造性写作,例如本例=> GPT-3 Creative Fiction

  2. Qualitative Text Search: We have often been frustrated when we have searched on a webpage and have been frustrated as no results have been found since the exact matching word was not used on the webpage. GPT-3 can help solve that by letting us humans describe what we are looking for and it will return a result even if it doesn’t match the word in the article as can be seen in this example video => https://cdn.openai.com/API/FINAL_bread.mp4

    定性文本搜索:当我们在网页上进行搜索时,我们经常会感到沮丧,并且由于未在网页上使用完全匹配的单词而找不到任何结果,因此感到沮丧。 GPT-3通过让我们的人类描述我们正在寻找的内容来帮助解决这一问题,即使它与文章中的单词不匹配,它也会返回结果,如本示例视频所示=> https:// cdn .openai.com / API / FINAL_bread.mp4

  3. Complemet/completion tasks: GPT-3 can be used for various completion tasks like compiling data researching based on a particular context as in this example => https://cdn.openai.com/API/excel_tabulate_v3_biz.mp4

    补全/完成任务: GPT-3可用于各种补全任务,例如根据特定上下文编译数据研究,如本例=> https://cdn.openai.com/API/excel_tabulate_v3_biz.mp4

  4. Code Generation: GPT-3 could also be used for useful and context-aware code generation as in the example below.

    代码生成 :GPT-3也可以用于有用的和上下文感知的代码生成,如下例所示。

Other use cases include Chatbot, and it could also be used to generate short/long from literature like this poem on Elon Musk by Dr Seuss .

其他用例包括Chatbot,它也可以用于从文学作品中产生长短,例如苏斯博士在《埃隆·马斯克》上的这首诗 。

GPT-3 History

GPT-3历史

GPT-3 is an evolution on GPT 1, and GPT 2 and hence is an adaptation of what’s known as a Transformer, an invention by Google in 2017. The Transformer utilises a function called attention to calculate the probability that a word will appear in the given surrounding words. The code for GPT-3 will not be available like GPT-2 instead access has been provided through an API, and there is currently a waitlist for the same. The API operates in Text in Text out mode for any English language task. The API also allows you to tune performance for specific tasks by training on a dataset using a dataset provided or by learning from feedback from users or labellers. Open AI has not opened the code to ensure level playing field so that it doesn’t enable companies with big pockets to get an unfair advantage as the code is very expensive to run. Other reasons for restricting access to code are to ensure that fake news and bots are not enabled and to prevent potentially prejudiced models something which has been brought to everyone’s notice by the Black Lives Matter movement. Another reason is that the API model allows Open AI to more easily respond to the misuse of the technology and have better control over downstream use cases.

GPT-3是GPT 1和GPT 2的改进,因此是对Google于2017年发明的“变形金刚”的改编。变形金刚利用称为注意的功能来计算单词出现在“变形金刚”中的概率。给定周围的单词。 GPT-3的代码将不像GPT-2那样可用,而是通过API提供了访问权限,并且目前有一个等待列表。 对于任何英语任务,API均以“文本输出”模式运行。 该API还允许您通过使用提供的数据集对数据集进行训练,或者通过从用户或标签制作者的反馈中学习来调整特定任务的性能。 Open AI尚未开放代码以确保公平竞争,因此,由于运行代码非常昂贵,因此它不会使财大气粗的公司获得不公平的优势。 限制访问代码的其他原因是,确保不启用虚假新闻和漫游器,并防止潜在的偏见模型,这些问题已被“黑住事”运动引起了所有人的注意。 另一个原因是,API模型使Open AI可以更轻松地应对技术滥用,并更好地控制下游用例。

Thus, in conclusion, GPT-3 is a significant step forward in terms of NLP with exciting use cases ahead of us.

因此,总而言之,GPT-3在NLP方面是向前迈出的重要一步,我们面前还有激动人心的用例。

Hopefully, this article has enabled you to get a better understanding of GPT-3. For feedback or suggestions about what you would like me to write about next, please comment below or contact me on cssprashant@gmail.com.

希望本文使您能够更好地了解GPT-3。 有关您希望我接下来写些什么的反馈或建议,请在下面发表评论或通过cssprashant@gmail.com与我联系。

Refrences:-

引用:-

  1. Language Models are Few-Shot Learners

    语言模型是学习者很少

  2. Open AI API

    开启AI API

  3. OpenAI’s gigantic GPT-3 hints at the limits of language models for AI

    OpenAI的巨大GPT-3暗示了AI语言模型的局限性

  4. Elon Musk By Dr. Seuss (GPT-3)

    苏隆博士(GPT-3)的Elon Musk

  5. GPT-3 Creative Fiction

    GPT-3创意小说

翻译自: https://medium.com/swlh/open-ais-revolutionary-new-nlp-model-gpt-3-c8b000432800

nlp gpt论文


http://www.taodudu.cc/news/show-1873882.html

相关文章:

  • 语音匹配_什么是语音匹配?
  • 传统量化与ai量化对比_量化AI偏差的风险
  • ai策略机器人研究a50_跟上AI研究的策略
  • ai人工智能 工业运用_人工智能在老年人健康中的应用
  • 人工智能民主化无关紧要,数据孤岛以及如何建立一家AI公司
  • 心公正白壁无瑕什么意思?_人工智能可以编写无瑕的代码后,编码会变得无用吗?
  • 人工智能+社交 csdn_关于AI和社交媒体虚假信息,我们需要尽快进行三大讨论
  • 标记偏见_人工智能的影响,偏见和可持续性
  • gpt2 代码自动补全_如果您认为GPT-3使编码器过时,则您可能不编写代码
  • 机器学习 深度学习 ai_什么是AI? 从机器学习到决策自动化
  • 艺术与机器人
  • 中国ai人工智能发展太快_中国的AI:开放采购和幕后玩家
  • 让我们手动计算:深入研究Logistic回归
  • vcenter接管_人工智能接管广告创意
  • 人工智能ai算法_当AI算法脱轨时
  • 人工智能 企业变革_我们如何利用(人工)情报变革医院的运营管理
  • ai 道德_AI如何提升呼叫中心的道德水平?
  • 张北草原和锡林郭勒草原区别_草原:比您不知道的恶魔还强
  • keras pytorch_使用PyTorch重新创建Keras功能API
  • 人工智能ai应用高管指南_解决AI中的种族偏见:好奇心指南
  • 人工智能ai以算法为基础_IT团队如何为AI项目奠定正确的基础
  • ai人工智能_AI偏见如何发生?
  • unityui计分_铅计分成长
  • ml工程师_ML工程师正在失业。 仍然学习ML
  • ai智能和大数据测试_测试版可帮助您根据自己的条件创建数据和AI平台
  • ai人工智能_毕竟人工智能可能不适合您
  • gpt-2 文章自动生成_有助于您理解GPT-3的文章
  • 科技公司亚马逊名字由来_名字叫什么? 为什么亚马逊的“认可”是可爱营销的灾难性尝试
  • 无人驾驶 ai算法_AI机器学习具有碳足迹,因此无人驾驶汽车也是如此
  • 讲个故事,曾祖父

nlp gpt论文_开放AI革命性的新NLP模型GPT-3相关推荐

  1. voip 论坛_微信AI全面开放各层次NLP能力!首次登上公开课主论坛

    乾明 发自 未完城 量子位 报道 | 公众号 QbitAI 微信不仅仅是微信,微信AI也不仅仅是微信的AI. 这就是微信每年最重要的官方活动--微信公开课 Pro上展现出的最新动向. 今年,微信AI首 ...

  2. 哈佛NLP组论文解读:基于隐变量的注意力模型 | 附开源代码

    作者丨邓云天 学校丨哈佛大学NLP组博士生 研究方向丨自然语言处理 摘要 Attention 注意力模型在神经网络中被广泛应用.在已有的工作中,Attention 机制一般是决定性的而非随机变量.我们 ...

  3. 勇敢一次_开放网络需要勇敢的新英雄吗?

    勇敢一次 1月20日,流行的开源浏览器Mozilla Firefox背后的公司Mozilla的前首席技术官Andreas Gal 在博客中宣布 ,前Mozilla首席执行官兼Javascript创始人 ...

  4. nlp gpt论文_GPT-3:NLP镇的最新动态

    nlp gpt论文 什么是GPT-3? (What is GPT-3?) The launch of Open AI's 3rd generation of the pre-trained langu ...

  5. nlp gpt论文_gpt 3变形金刚和nlp的狂野世界

    nlp gpt论文 介绍(Introduction) The tech world is so full of fascinating demons. Every now and then, we g ...

  6. 【每周NLP论文推荐】从预训练模型掌握NLP的基本发展脉络

    读论文是做AI的人必需要下的功夫,所以咱们开通了专栏<每周NLP论文推荐>.本着有三AI的一贯原则,即系统性学习,所以每次的论文推荐也会是成系统的,争取每次能够把一个领域内的"故 ...

  7. ICLR 2021投稿中值得一读的NLP相关论文

    我们从 ICLR 2021开放投稿的3000篇论文中,粗略筛选了近100篇与自然语言处理领域中也许值得一读的论文,供大家查阅. 理论.模型与经验性分析:38篇 问答与阅读理解:4篇 知识图谱:4篇 文 ...

  8. ai与虚拟现实_将AI推向现实世界

    ai与虚拟现实 If you fit one of these profiles, this article is for you: 如果您适合这些配置文件之一,那么本文适合您: ● You are ...

  9. nlp自然语言处理_自然语言处理(NLP):不要重新发明轮子

    nlp自然语言处理 介绍 (Introduction) Natural language processing (NLP) is an intimidating name for an intimid ...

  10. 推荐几个NLP出论文的好方向!!

    如果你准备发NLP方向的论文,或准备从事科研工作或已在企业中担任NLP算法岗的工作.那么我真诚的向大家推荐,贪心学院<自然语言处理高阶研修班>,目前全网上应该找不到类似体系化的课程.课程精 ...

最新文章

  1. win10怎么设置开机启动项目_苹果mac开机启动项怎么设置
  2. 【Android UI设计与开发】第12期:顶部标题栏(三)ActionBar实现层级导航的返回效果
  3. 【新星计划】MATLAB-字符串处理
  4. 长按不响应_长周期物料的预测:需求预测的一大难点
  5. 【WEB HTTP】缓存
  6. 主成分分析(PCA)算法,K-L变换 角度
  7. TB6600原理图(最完整并量产过的版本!!)
  8. python 后缀 .py .pyc .pyw .pyo .pyd的区别
  9. EasyCriteria –使用JPA Criteria的简便方法
  10. 线程的特点 java 1615387415
  11. 人脸识别中的阈值应该如何设置?
  12. selenium+python设置爬虫代理IP的方法
  13. php 开启 pathinfo,Nginx + php-fpm 开启 PATH_INFO 模式
  14. 华为存储iscsi配置_使用华为存储配置ISCSI存储方法和iSCSI建立连接提示目标错误...
  15. MFC的CImage图形处理
  16. 如何免费获得15G的 Google Drive 账号
  17. pycharm中 Make available to all projects的含义
  18. 僵尸进程以及如何处理
  19. 如何让Arduino IDE支持你手里的STM32 nucleo开发板
  20. nfs服务共享目录的创建

热门文章

  1. 如何查看80端口被占用
  2. 第4章 最基础的分类算法-k近邻算法 kNN 学习笔记 下
  3. unity数组或链表需要空间很大赋值与调用
  4. Atitit knowmng file list知识管理文档索引 目录时索引 part1
  5. Atitit. Atiposter 发帖机版本历史 编年史
  6. Atitit。 《吠陀》 《梨俱吠陀》overview 经读后感  是印度上古时期一些文献的总称
  7. Atitit.guice3 ioc 最佳实践 o9o
  8. paip.提升效率--批量变量赋值 “多元”赋值
  9. paip.若只如初见——WEB或BS开发必备基础知识
  10. (转)200亿美元比特币找不到主人,这个邪恶职业一夜爆火