1. Word2Vec 的原理,使用的技巧? https://mp.weixin.qq.com/s/lerKdFXkhqQaaVl4BGgblA
  2. Word2Vec 的多层 softmax 是怎么实现的,思路是怎样的,损失函数变化 nlp中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert - 知乎
  3. Word2vec的损失函数 10.2. 近似训练 — 《动手学深度学习》 文档 (当简历上没什么项目和实习的时候,面试官就喜欢问Word2vec,非常的无聊)
  4. 为什么基于 skip-gram 的 word2vec 在低频词汇相比 cbow 更有效?为什么会好?word2vec模型cbow与skip-gram的比较
  5. Word2Vec 怎么将得到的词向量变成句子向量,以及怎么衡量得到词向量的好坏Word2Vec 怎么将得到的词向量变成句子向量,以及怎么衡量得到词向量的好坏_Matrix_cc的博客-CSDN博客
  6. Word2vec为什么会有用?word2vec本质是把相似的词或者上下文相近的词映射到几乎是同一个点,所以语义相近的词的weight是接近的,那样做下游任务比随机初始化的词向量要好
  7. word2vec的缺点是什么?1、结构太简单,无法更好地学习句法知识和语义知识。2、没办法解决OOV 。3、没法解决词语顺序的问题。4、没法解决一词多义的问题
  8. 层次softmax为什么要以词频构建二叉树 Word Embedding的hierarchical softmax为什么要选择依靠词频建立二叉树? - 知乎
  9. 负采样的是如何带权采样的,为什么负采样权重开 3/4 次幂?为什么Word2Vec训练中, 需要对负采样权重开3/4次幂? - 知乎
  10. 负采样的负样本和层次softmax的负样本有什么不一样?负采样的负样本的个数是固定的,层次softmax的负样本是不均衡的,词频高的词里根节点接近,采样到的负样本就比较少,低频词采样的负样本就比较多。
  11.  fasttext 、word2vec、glove、elmo、bert、GPT、xlnet 的区别,fasttext相比于 word2vec 有什么优势,它是怎么做分类的
  12.  textcnn 原理,为什么选择用2,3,4不同尺寸的卷积核
  13. BiLSTM+Attention 是怎么分类的 深度学习算法原理——Attention-Based BiLSTM_null的专栏-CSDN博客
  14. Transformer的结构,multi-head Attention 的作用  Ps. pytorch手动实现一下multi-head  Transformer中Multi-head Attention的作用_Matrix_cc的博客-CSDN博客
  15. Transformer的位置编码和bert的位置编码的区别,为什么要加位置编码?Transformer的位置编码是人为定义,bert是自己学习的,像word Embedding一样在训练中学习到它的词序信息。因为传统LSTM的模型自带词序信息,而Transformer不带词序信息,所以需要加上位置编码。
  16. Transformer里self-attention 中词向量不乘 QKV 参数矩阵,会有什么问题?

    Self-Attention 的核心是用文本中的其它词来增强目标词的语义表示,从而更好的利用上下文的信息。self-attention 中,sequence 中的每个词都会和 sequence 中的每个词做点积去计算相似度,也包括这个词本身。如果不乘 QKV 参数矩阵,那这个词对应的 q,k,v 就是完全一样的。在相同量级的情况下,qi 与 ki 点积的值会是最大的(可以从 “两数和相同的情况下,两数相等对应的积最大” 类比过来)。那在 softmax 后的加权平均中,该词本身所占的比重将会是最大的,使得其他词的比重很少,无法有效利用上下文信息来增强当前词的语义表示。而乘以 QKV 参数矩阵,会使得每个词的 q,k,v 都不一样,能很大程度上减轻上述的影响。

  17. Transformer的残差作用 :减少梯度消失和梯度爆炸的问题,同时能解决退化问题。退化问题是指:当网络隐藏层变多时,网络的准确度达到饱和然后急剧退化,而且这个退化不是由于过拟合引起的。
  18. Transformer 怎么解决长文本问题?
  19. Transformer是postnorm还是prenorm?pre norm就是在残差前norm,x+F(Norm(x)),这样残差的效果更强,训练计算量更低,但是会削弱模型深度带来的增益。post norm就是正常bert用的,在残差后面加,Norm(x+F(x)),深度带来的效果更明显,但是计算量会更大,目前post norm认为更适合
  20. Transformer里使用的是LN还是BN    Ps. LN的原理,pytorch手动实现一下
  21. Transformer为什么要用LN,而不是BN transformer 为什么使用 layer normalization,而不是其他的归一化方法? - 知乎
  22. Transformer 模型中 dropout 主要用在哪里?在每一Multi-Head Attention之后,Add&Norm之前进行dropout,以及add(token embedding,positional encoding)之后进行dropout
  23. self-attention里为什么要除以根号d? 为了降低 Q*K 的数值,防止它落入到 softmax 函数的饱和区间。因为 softmax 函数的饱和区梯度几乎为 0,容易发生梯度消失。
  24. Transformer为什么表现的比LSTM和CNN好?为什么transformer比RNN和LSTM更好?_None_Pan的博客-CSDN博客_transformer比lstm好吗
  25. BERT为什么表现好 一起读论文 | 为什么BERT会在许多NLP任务中表现得很好?_语言智能技术笔记簿-CSDN博客 1、预训练数据较大和使用两种预训练的方式2、使用的模型结构较LSTM和CNN较好 3、模型层数深
  26. BERT的三个embedding为什么可以想加?答案
  27. BERT的缺点:1、无法解决长文本问题  2、输入噪声 [MASK],造成预训练 - 精调两阶段之间的差异  3、生成任务表现不佳:预训练过程和生成过程的不一致,导致在生成任务上效果不佳  4、位置编码使用绝对编码 后BERT时代:15个预训练模型对比分析与关键点探索(附链接) | 机器之心
  28. Bert里的mask机制?是随机 mask 语料中 15% 的 token,其中80% 的单词用 [MASK] token 来代替,10% 单词用任意的词来进行代替,10% 单词不变。
  29. BERT为什么要保持10% 单词不变,10%的单词用任意的词代替?
  30. bert里的mask和word2vec里的CBOW的区别

    相同点:CBOW 的核心思想是,给定上下文,根据它的上文 context-before 和下文 context-after 去预测 input word。Bert 本质上也是如此。

    不同点:首先,在 CBOW 中,每个单词会称为 input word,而 Bert 中只有 15% 的词会称为 input word。其次,对于数据输入部分,CBOW 中的输入数据只有待预测单词的上下文,而 Bert 的输入是带有 [MASK]  token 的 “完整” 句子,也就是说 Bert 在输入端将待预测的 input word 用 [MASK] token 代替了。

    另外,通过 CBOW 模型训练后,每个单词的 word embedding 是唯一的,因此并不能很好的处理一词多异的问题;而 Bert 模型得到的 word embedding (token embedding)融合了上下文信息,就算是同一个单词,在不同的上下文环境下,得到的 word embedding 是不一样的。

  31. BERT为什么用字粒度而不是用词粒度?因为在做MLM预训练任务时,最后预测单词是用softmax进行预测。使用字粒度的话,总字数大概在2w左右,而使用词粒度的话,则有十几万个词,在训练时显存会爆炸。

  32. BERT不同层针对NLP的什么任务? POS、成分分析、DEPS、Entities、SRL、COREF、关系分类,从上到下,越往下这个任务越需要偏向高层语义的知识才能解决好。POS 词性标注是简单任务,偏向表层特征,关系分类则是纯语义的任务,不理解语义便无法很好的解决任务,从上到下逐渐趋向语义任务。张俊林:BERT和Transformer到底学到了什么 | AI ProCon 2019 - 云+社区 - 腾讯云

  33. HMM 和 CRF 的原理和区别,其中维特比算法的复杂度  区别:

    1.HMM 是生成模型,CRF 是判别模型

    2.HMM 是概率有向图,CRF 是概率无向图

    3.HMM 求解过程可能是局部最优,CRF 可以全局最优

    4.HMM是做的马尔科夫假设,而CRF是马尔科夫性,因为马尔科夫性是是保证或者判断概率图是否为概率无向图的条件                                                             、

  34. HMM原理:三个问题:1、概率计算问题:前向—后向算法  给定模型 λ=(A,B,π) 和观测序列 Q={q1,q2,...,qT},计算模型 λ 下观测到序列 Q 出现的概率 P (Q|λ);2、学习问题:Baum-Welch 算法 (状态未知) 已知观测序列 Q={q1,q2,...,qT},估计模型 λ=(A,B,π) 的参数,使得在该模型下观测序列 P (Q|λ) 最大  3、预测问题:Viterbi 算法 给定模型 λ=(A,B,π) 和观测序列 Q={q1,q2,...,qT},求给定观测序列条件概率 P (I|Q,λ) 最大的状态序列 I。

  35. CRF原理:https://applenob.github.io/machine_learning/CRF/

  36. BiLSTM+CRF模型中,CRF层的作用?1、CRF 层可以为最后预测的标签添加一些约束来保证预测的标签是合法的。在训练数据训练过程中,这些约束可以通过 CRF 层自动学习到的。2、CRF 中有转移特征,即它会考虑输出标签之间的顺序性,也会学习一些约束规则 BiLSTM-CRF中CRF层的作用 - 程序员大本营

  37. Albert里的SOP为什么会有效?

    ALBERT 认为,NSP (下一个句子预测) 将话题预测和连贯预测混为一谈。作为参考,NSP 使用了两个句子 —— 正样本匹配是第二个句子来自同一个文档,负样本匹配是第二个句子来自另一个文档。相比之下,ALBERT 的作者认为句子间的连贯是真正需要关注的任务 / 损失,而不是主题预测,因此 SOP 是这样做的:

    使用了两个句子,都来自同一个文档。正样本测试用例是这两句话的顺序是正确的。负样本是两个句子的顺序颠倒。

  38. bert 里 add&norm 是什么以及作用
  39. local attention 和 global attention 的区别:一文看懂 Attention(本质原理+3大优点+5大类型) - 产品经理的人工智能学习库
  40. Attention的理解和它的优缺点:Attention即从大量的信息中选择出少量的重要信息,并聚焦到这些重要信息上,忽略大多不重要的信息。权重越大越聚焦于其对应的 Value 值上,即权重代表了信息的重要性,而 Value 是其对应的信息。   优点:

    参数少

    模型复杂度跟 CNN、RNN 相比,复杂度更小,参数也更少。所以对算力的要求也就更小。

    速度快

    Attention 解决了 RNN 不能并行计算的问题。Attention 机制每一步计算不依赖于上一步的计算结果,因此可以和 CNN 一样并行处理。

    效果好

    在 Attention 机制引入之前,有一个问题大家一直很苦恼:长距离的信息会被弱化,就好像记忆能力弱的人,记不住过去的事情是一样的。

    缺点:没法捕捉位置信息,即没法学习序列中的顺序关系。这点可以通过加入位置信息,如通过位置向量来改善

  41. Bahdanau 和 Luong 两种 Attention 机制的区别:一文看懂 Bahdanau 和 Luong 两种 Attention 机制的区别 - 知乎
  42. graph embedding 的原理
  43. TF-IDF 的原理  TF-IDF原理及使用_一路风景-CSDN博客_tfidf
  44. n-gram原理及有哪些平滑处理 自然语言处理NLP中的N-gram模型_songbinxu的博客-CSDN博客_n-gram
  45. 解决OOV的方法: NLP 研究主流目前如何处理 out of vocabulary words?
  46. 词向量的降维
  47. nlp 分词技术有哪些,如何分的
  48. nlp有哪些数据增强的方法 自然语言处理中一些常用的数据增强的方式_Matrix_cc的博客-CSDN博客
  49. 文本预处理的方法有哪些

常见的面试问题————NLP篇(持续更新)相关推荐

  1. 【游戏客户端与服务器面试题】-- 2022年最新游戏客户端与服务器面试(lua篇持续更新)

    [游戏客户端与服务器面试题干货]-- 2022年度最新游戏客户端面试干货(lua篇) 文章目录 一.Lua的8种数据类型 (1) nil 类型 (2) boolean类型 (3) number类型 1 ...

  2. 机器学习面试经验--2017年持续更新

    机器学习面试经验--2017年持续更新 搜狐面试算法实习生 岗位搜狐后台开发(机器学习NLP) 10:00--11:10 1.首先自我介绍,blabla简单介绍了一下本科研究生学校专业方向,面试官开始 ...

  3. 详细前端面试题javascript篇--持续更新

    最新前端面试题汇总大全(超详细含vue,react,css,js,webpack,性能优化等)–持续更新点击查看 前端HTML篇 前端CSS篇 前端面试题js篇--持续更新 1. JS 数据类型 ?存 ...

  4. 机器学习岗面试题目汇总「持续更新」

    机器学习岗面试题目汇总「持续更新」 前情提要 交叉熵损失为什么要取log?

  5. 【前端】常见英文缩写汇总、解析(持续更新...)

    常见英文缩写汇总(持续更新...) 1. A async 3. C camelCase CLI 8. H HMR 11. K 14. N npm 16. P props Proxy 19.S SFC ...

  6. rabbitMQ的学习第一篇(持续更新)

    rabbitMQ的学习目标 需要带着目的去学习一项技术,在学习中深入思考感受, 1:mq的使用场景 2:几种mq什么时候选择rabbitMQ 3:MQ保存和消费消息的性能于其他MQ的对比 4:系统的q ...

  7. Java面试知识学习(持续更新)

    一.Java基础 1.java语言有什么特点 面向对象(封装,继承,多态): 平台无关性,平台无关性的具体表现在于,Java 是"一次编写,到处运行(Write Once,Run any W ...

  8. Android面试知识点指南(持续更新)

    Java: 一. 集合框架,list,map,set都有哪些具体的实现类,区别都是什么? 1.List,Set都是继承自Collection接口,Map则不是; 2.List特点:元素有放入顺序,元素 ...

  9. Java工作面试必问(持续更新)

    SSM  1. GET和POST请求的区别? ① GET(获取&检索)从服务器上获取数据. ① POST(创建&更新)向服务器传送数据. 误区:不是获取数据只能用GET,只是通常用GE ...

最新文章

  1. 深入Managed DirectX9(四)
  2. flask运行环境搭建(nginx+gunicorn)
  3. Velocity介绍
  4. 互斥同步(synchronized、Lock、ReentrantLock、ReadWriteLock、ReentrantReadWriteLock)
  5. VTK:可视化之Camera
  6. druid字段级_Druid的数据结构
  7. js中 switch 注意事项
  8. Delphi实现点击按钮触发选择项, 进而实现不同的分支功能
  9. 医疗知识图谱NLP项目,实体规模4.4万,实体关系规模30万
  10. angularJs的spa页面切换以及ngRoute模块
  11. linux安装软件-rpm命令解析
  12. python中引用javascript代码块
  13. 在登陆Fedora 9时选择语言
  14. ASP.NET Core 2.1 开发跨平台应用教程
  15. 50个程序员必须知道的网站,你知道么
  16. 元宇宙、区块链和潘家园
  17. 使用Euclid算法求最大公约数
  18. 第十七章 Spark开发调优原则详述(图解+代码实战)
  19. 检查并杀死mysql锁死的进程
  20. MySQL深入学习——第六章 查询优化批量导入操作学习笔记

热门文章

  1. java设计中国象棋_Java课程设计—象棋
  2. 程序员编程艺术第一 三十八章集锦与总结,及Github地址 PDF下载
  3. 基于redis实现的分布式时间序列存储Roshi
  4. Maven之(九)依赖关系
  5. bzoj4768: wxh loves substring //后缀平衡树
  6. 软件测试 Web自动化测试 基础知识 HTML CSS JavaScript
  7. PCB设计新手入门须知
  8. VL53L0X调试总结
  9. vue路由守卫beforeEach和afterEach
  10. 关于基线版本、基线那点事儿