利用BERT whitening可以将embedding 比如768维降到256维

def compute_kernel_bias(vecs, n_components=256):"""计算kernel和biasvecs.shape = [num_samples, embedding_size],最后的变换:y = (x + bias).dot(kernel)"""mu = vecs.mean(axis=0, keepdims=True)cov = np.cov(vecs.T)u, s, vh = np.linalg.svd(cov)W = np.dot(u, np.diag(1 / np.sqrt(s)))return W[:, :n_components], -mudef transform_and_normalize(vecs, kernel=None, bias=None):""" 最终向量标准化"""if not (kernel is None or bias is None):vecs = (vecs + bias).dot(kernel)return vecs / (vecs**2).sum(axis=1, keepdims=True)**0.5v_data = np.array(v_data)
kernel,bias=compute_kernel_bias(v_data,256)
v_data=transform_and_normalize(v_data, kernel=kernel, bias=bias)

参考:苏剑林. (Jan. 11, 2021). 《你可能不需要BERT-flow:一个线性变换媲美BERT-flow 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/8069

补充

苏剑林. (May. 18, 2022). 《当BERT-whitening引入超参数:总有一款适合你 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/9079

BERT embedding 降维--BERT whitening相关推荐

  1. 【发展史】自然语言处理中的预训练技术发展史—Word Embedding到Bert模型

    目录 自然语言处理中的预训练技术发展史-Word Embedding到Bert模型 1 图像领域的预训练 2 Word Embedding考古史 3 从Word Embedding到ELMO 4 从W ...

  2. 从 Word Embedding 到 Bert:一起肢解 Bert!

    从 Word Embedding 到 Bert 一起肢解 Bert! Chat 简介: 在 NLP 中,Bert 最近很火,是 NLP 重大进展的集大成者,是最近最火爆的 AI 进展之一.最新的 Go ...

  3. Transformer课程 第7课Gavin大咖 BERT文本分类-BERT Fine-Tuning

    Transformer课程 第7课Gavin大咖 BERT文本分类-BERT Fine-Tuning Part III - BERT Fine-Tuning 4. Train Our Classifi ...

  4. BERT模型—1.BERT模型架构

    文章目录 引言 一.Bert模型总览 二.注意力机制 1.Seq2seq中的注意力操作 2.注意力的一般形式(三步曲) 3. transformer中的自注意力机制-Self.Attention 4. ...

  5. 从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史

    本文可以任意转载,转载时请标明作者和出处. 张俊林 2018-11-11 (如果图片浏览有问题可以转至:知乎版本) Bert最近很火,应该是最近最火爆的AI进展,网上的评价很高,那么Bert值得这么高 ...

  6. 【深度学习】从Word Embedding到Bert模型

    Bert最近很火,应该是最近最火爆的AI进展,网上的评价很高,那么Bert值得这么高的评价吗?我个人判断是值得.那为什么会有这么高的评价呢?是因为它有重大的理论或者模型创新吗?其实并没有,从模型创新角 ...

  7. 从Word Embedding到Bert模型:自然语言处理中的预训练技术发展史

    转:https://zhuanlan.zhihu.com/p/49271699 作者:张俊林 专栏:深度学习前沿笔记 目录: 1.图像领域的预训练 2.Word Embedding考古史 3.从Wor ...

  8. 从Word Embedding到Bert模型---NLP中预训练发展史

    本文转自张俊林老师,希望加深记忆及理解. 本文的主题是自然语言处理中的预训练过程,会大致说下NLP中的预训练技术是一步一步如何发展到Bert模型的,从中可以很自然地看到Bert的思路是如何逐渐形成的, ...

  9. bert做文本摘要_Fine-tune BERT for Summarization: BERT和文本摘要

    BERT论文系列导读 导读 文本摘要主要分为抽取式文本摘要和生成式文本摘要,抽取式文本摘要因为发展的时间比较长,因此在工业界应用的范围比较广.比较常用的抽取式文本摘要的算法就是Textrank,但是呢 ...

最新文章

  1. Python使用matplotlib保存图像时发生自动裁剪丢了部分标签信息解决方案(plt.savefig保存时丢失了部分标签字符)
  2. OSError: [WinError 126] 找不到指定的模块/Could not find 'cudart64_90.dll'.
  3. 怎样将英文html文件转换成中文乱码,解决html导出pdf中文乱码问题的正确姿势
  4. 用户计算机通过连入局域网上网时,重庆市职称计算机考试理论题库05
  5. Python学习笔记010——作用域
  6. css点击a标签显示下划线_好程序员HTML5培训教程-html和css基础知识
  7. 在ASP.NET中上传图片并生成缩略图
  8. 小数向上_【实操技巧】社保计算方法:向上取整见分进角(上)
  9. 单片机oled显示浮点数函数_问中文编程在单片机上实现一个电子时钟,总共有几步?...
  10. 用python配置文件_使用。Python中的Py配置文件,python
  11. java怎么用doss窗口_GitHub - doss128/symphony: 一款用 Java 实现的现代化社区(论坛/BBS/社交网络/博客)平台。...
  12. Div+CSS布局入门教程(三) 页面顶部制作之一
  13. OSS SSL 访问异常
  14. C++11 std::chrono库详解
  15. 计算机动画---计算机动画的光栅方法
  16. 工具 - 文本比较/对比 - 收集
  17. Excel查询两列数字的重复值
  18. R语言计算dataframe中指定数据列的值为缺失值的样本个数(行的个数)
  19. 运放搭建的跟随电路作用与分析
  20. KVM移植之ITRON版

热门文章

  1. 使用js打印时去除页眉页脚
  2. 背景建模(一) Evaluation of Background Subtraction Techniques
  3. python count函数用法示例_python count函数用法详解
  4. python常识系列07-->python利用xlwt写入excel文件
  5. /var空间满了,简单处理一下
  6. matlab 内弹道程序,MATLAB内弹道程序 - 毕设专用!!!
  7. 使用html+css实现一个静态页面——我的家乡-杭州(7页) HTML+CSS+JavaScript 大学生家乡网页作品 老家网页设计作业模板 学生网页制作源代码下载
  8. mixer_path.xml 研究
  9. 学习笔记-《游戏编程模式》
  10. it计算机英语怎么说,it是什么意思