作者丨苏剑林

单位丨广州火焰信息科技有限公司

研究方向丨NLP,神经网络

个人主页丨kexue.fm

高举“让 Keras 更酷一些!”大旗,让 Keras 无限可能。

今天我们会用 Keras 做到两件很重要的事情:分层设置学习率灵活操作梯度

首先是分层设置学习率,这个用途很明显,比如我们在 fine tune 已有模型的时候,有些时候我们会固定一些层,但有时候我们又不想固定它,而是想要它以比其他层更低的学习率去更新,这个需求就是分层设置学习率了。

对于在 Keras 中分层设置学习率,网上也有一定的探讨,结论都是要通过重写优化器来实现。显然这种方法不论在实现上还是使用上都不友好。

然后是操作梯度。操作梯度一个最直接的例子是梯度裁剪,也就是把梯度控制在某个范围内,Keras 内置了这个方法。但是 Keras 内置的是全局的梯度裁剪,假如我要给每个梯度设置不同的裁剪方式呢?甚至我有其他的操作梯度的思路,那要怎么实施呢?不会又是重写优化器吧?

本文就来为上述问题给出尽可能简单的解决方案。

分层的学习率

对于分层设置学习率这个事情,重写优化器当然是可行的,但是太麻烦。如果要寻求更简单的方案,我们需要一些数学知识来指导我们怎么进行。

参数变换下的优化

首先我们考虑梯度下降的更新公式:

其中 L 是带参数 θ 的 loss 函数,α 是学习率,是梯度,有时候我们也写成。记号是很随意的,关键是理解它的含义。

然后我们考虑变换 θ=λϕ,其中 λ 是一个固定的标量,ϕ 也是参数。现在我们来优化 ϕ,相应的更新公式为:

其中第二个等号其实就是链式法则。现在我们在两边乘上 λ,得到:

对比 (1) 和 (3),大家能明白我想说什么了吧:

在 SGD 优化器中,如果做参数变换 θ=λϕ,那么等价的结果是学习率从 α 变成了

不过,在自适应学习率优化器(比如 RMSprop、Adam 等),情况有点不一样,因为自适应学习率使用梯度(作为分母)来调整了学习率,抵消了一个 λ,从而(请有兴趣的读者自己推导一下):

在 RMSprop、Adam 等自适应学习率优化器中,如果做参数变换 θ=λϕ,那么等价的结果是学习率从 α 变成了 λα。

移花接木调整学习率

有了前面这两个结论,我们就只需要想办法实现参数变换,而不需要自己重写优化器,来实现逐层设置学习率了。

实现参数变换的方法也不难,之前我们在《 “让Keras更酷一些!”:随意的输出和灵活的归一化》[1] 一文讨论权重归一化的时候已经讲过方法了。因为 Keras 在构建一个层的时候,实际上是分开了 build call 两个步骤,我们可以在 build 之后插一些操作,然后再调用 call 就行了。

下面是一个封装好的实现:

import keras.backend as K

class SetLearningRate:    """层的一个包装,用来设置当前层的学习率    """

    def __init__(self, layer, lamb, is_ada=False):        self.layer = layer        self.lamb = lamb # 学习率比例        self.is_ada = is_ada # 是否自适应学习率优化器

    def __call__(self, inputs):        with K.name_scope(self.layer.name):            if not self.layer.built:                input_shape = K.int_shape(inputs)                self.layer.build(input_shape)                self.layer.built = True                if self.layer._initial_weights is not None:                    self.layer.set_weights(self.layer._initial_weights)        for key in ['kernel', 'bias', 'embeddings', 'depthwise_kernel', 'pointwise_kernel', 'recurrent_kernel', 'gamma', 'beta']:            if hasattr(self.layer, key):                weight = getattr(self.layer, key)                if self.is_ada:                    lamb = self.lamb # 自适应学习率优化器直接保持lamb比例                else:                    lamb = self.lamb**0.5 # SGD(包括动量加速),lamb要开平方                K.set_value(weight, K.eval(weight) / lamb) # 更改初始化                setattr(self.layer, key, weight * lamb) # 按比例替换        return self.layer(inputs)

使用示例:

x_in = Input(shape=(None,))x = x_in

# 默认情况下是x = Embedding(100, 1000, weights=[word_vecs])(x)# 下面这一句表示:后面将会用自适应学习率优化器,并且Embedding层以总体的十分之一的学习率更新。# word_vecs是预训练好的词向量x = SetLearningRate(Embedding(100, 1000, weights=[word_vecs]), 0.1, True)(x)

# 后面部分自己想象了~x = LSTM(100)(x)

model = Model(x_in, x)model.compile(loss='mse', optimizer='adam') # 用自适应学习率优化器优化

几个注意事项:

1. 目前这种方式,只能用于自己动手写代码来构建模型的时候插入,无法对建立好的模型进行操作;

2. 如果有预训练权重,有两种加载方法。第一种是像刚才的使用示例一样,在定义层的时候通过 weights 参数传入;第二种方法是建立好模型后(已经在相应的地方插入好 SetLearningRate),用 model.set_weights (weights) 来赋值,其中 weights 是“在 SetLearningRate 的位置已经被除以了 λ 或的原来模型的预训练权重”;

3. 加载预训练权重的第二种方法看起来有点不知所云,但如果你已经理解了这一节的原理,那么应该能知道我在说什么。因为设置学习率是通过 weight * lamb 来实现的,所以 weight 的初始化要变为 weight / lamb

4. 这个操作基本上不可逆,比如你一开始设置了 Embedding 层以总体的 1/10 比例的学习率来更新,那么很难在这个基础上,再将它改为 1/5 或者其他比例。(当然,如果你真的彻底搞懂了这一节的原理,并且也弄懂了加载预训练权重的第二种方法,那么还是有办法的,那时候相信你也能搞出来);

5. 这种做法有以上限制,是因为我们不想通过修改或者重写优化器的方式来实现这个功能。如果你决定要自己修改优化器,请参考《“让Keras更酷一些!”:小众的自定义优化器》[2]

自由的梯度操作

在这部分内容中,我们将学习对梯度的更为自由的控制。这部分内容涉及到对优化器的修改,但不需要完全重写优化器。

Keras优化器的结构

要修改优化器,必须先要了解 Keras 优化器的结构。在《“让Keras更酷一些!”:小众的自定义优化器》[2]一文我们已经初步看过了,现在我们重新看一遍。

Keras 优化器代码:

https://github.com/keras-team/keras/blob/master/keras/optimizers.py

随便观察一个优化器,就会发现你要自定义一个优化器,只需要继承 Optimizer 类,然后定义 get_updates 方法。但本文我们不想做新的优化器,只是想要对梯度有所控制。可以看到,梯度的获取其实是在父类 Optimizer get_gradients 方法中:

    def get_gradients(self, loss, params):        grads = K.gradients(loss, params)        if None in grads:            raise ValueError('An operation has `None` for gradient. '                             'Please make sure that all of your ops have a '                             'gradient defined (i.e. are differentiable). '                             'Common ops without gradient: '                             'K.argmax, K.round, K.eval.')        if hasattr(self, 'clipnorm') and self.clipnorm > 0:            norm = K.sqrt(sum([K.sum(K.square(g)) for g in grads]))            grads = [clip_norm(g, self.clipnorm, norm) for g in grads]        if hasattr(self, 'clipvalue') and self.clipvalue > 0:            grads = [K.clip(g, -self.clipvalue, self.clipvalue) for g in grads]        return grads

其中方法中的第一句就是获取原始梯度的,后面则提供了两种梯度裁剪方法。不难想到,只需要重写优化器的 get_gradients 方法,就可以实现对梯度的任意操作了,而且这个操作不影响优化器的更新步骤(即不影响 get_updates 方法)。

处处皆对象:覆盖即可

怎么能做到只修改 get_gradients 方法呢?这得益于 Python 的哲学——“处处皆对象”。Python 是一门面向对象的编程语言,Python 中几乎你能碰到的一切变量都是一个对象。我们说 get_gradients 是优化器的一个方法,也可以说 get_gradients 的一个属性(对象),既然是属性,直接覆盖赋值即可。

我们来举一个最粗暴的例子(恶作剧):

def our_get_gradients(loss, params):    return [K.zeros_like(p) for p in params]

adam_opt = Adam(1e-3)adam_opt.get_gradients = our_get_gradients

model.compile(loss='categorical_crossentropy',              optimizer=adam_opt)

其实这样做的事情很无聊,就是把所有梯度置零了(然后你怎么优化它都不动了),但这个恶作剧例子已经足够有代表性了——你可以将所有梯度置零,你也可以将梯度做任意你喜欢的操作。比如将梯度按照 l1 范数而非 l2 范数裁剪,又或者做其他调整。

假如我只想操作部分层的梯度怎么办?那也简单,你在定义层的时候需要起一个能区分的名字,然后根据 params 的名字做不同的操作即可。都到这一步了,我相信基本是“一法通,万法皆通”的了。

飘逸的Keras

也许在很多人眼中,Keras 就是一个好用但是封装得很“死”的高层框架,但在我眼里,我只看到了它无限的灵活性——那是一个无懈可击的封装

相关链接

[1] https://kexue.fm/archives/6311

[2] https://kexue.fm/archives/5879

点击以下标题查看作者其他文章:

  • 变分自编码器VAE:原来是这么一回事 | 附源码

  • 再谈变分自编码器VAE:从贝叶斯观点出发

  • 变分自编码器VAE:这样做为什么能成?

  • 简单修改,让GAN的判别器秒变编码器

  • 深度学习中的互信息:无监督提取特征

  • 全新视角:用变分推断统一理解生成模型

  • 细水长flow之NICE:流模型的基本概念与实现

  • 细水长flow之f-VAEs:Glow与VAEs的联姻

  • 深度学习中的Lipschitz约束:泛化与生成模型

#投 稿 通 道#

让你的论文被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢? 答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志

? 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site

• 所有文章配图,请单独在附件中发送

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通

?

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

▽ 点击 |阅读原文 | 查看作者博客

“让Keras更酷一些!”:分层的学习率和自由的梯度相关推荐

  1. “让Keras更酷一些!”:层中层与mask

    这一篇"让 Keras 更酷一些!"将和读者分享两部分内容:第一部分是"层中层",顾名思义,是在 Keras 中自定义层的时候,重用已有的层,这将大大减少自定义 ...

  2. 让Keras更酷一些:中间变量、权重滑动和安全生成器

    作者丨苏剑林 单位丨追一科技 研究方向丨NLP,神经网络 个人主页丨kexue.fm 继续"让Keras更酷一些"之旅. 今天我们会用 Keras 实现灵活地输出任意中间变量,还有 ...

  3. “让Keras更酷一些!”:层与模型的重用技巧

    作者丨苏剑林 单位丨追一科技 研究方向丨NLP,神经网络 个人主页丨kexue.fm 今天我们继续来深挖 Keras,再次体验 Keras 那无与伦比的优雅设计.这一次我们的焦点是"重用&q ...

  4. 【iOS与EV3混合机器人编程系列之中的一个】iOS要干嘛?EV3能够更酷!

    乐高Mindstorm EV3智能机器人(下面简称EV3) 自从在2013年的CES(Consumer Electronics Show美国消费电子展)上展出之后, 就吸引了全球广大机器人爱好者的眼球 ...

  5. 人脸识别已OUT?猫脸识别才更酷!|在线课堂

    荷兰的一位名为 Arkaitz Garro的程序员在今年年初做了个实验:开发了一套用以猫脸识别的系统.目的只是想弄清楚家门外经常出现的是野猫还是别人家的猫! 猫脸识别系统如何做 根据 Garro的说法 ...

  6. 再见 Xshell,这个开源的终端工具更酷炫。

    作者:JackTian 来源:公众号「杰哥的IT之旅」 ID:Jake_Internet 转载请联系授权(微信ID:Hc220088) 原文地址:再见 Xshell!这个开源的终端工具更酷炫! 大家好 ...

  7. “我让这个世界更酷”2022华清远见研发产品发布会圆满成功

    6月18日,"我让这个世界更酷"华清远见2022线上直播新品发布会圆满结束.此次发布会,华清远见教育集团教研副总裁/研发中心总经理刘洪涛老师,在直播现场做了精彩分享,研发中心10余 ...

  8. 新闻联播变脸报道“嫦娥发射”才更酷

    新闻联播变脸报道"嫦娥发射"才更酷 [10785] (2010-10-02) 早报导读 [柯玉芝逝世] 各界沉痛怀念李光耀夫人 [中日撞船] 双边关系紧张 日本爆发反华示威 [新中 ...

  9. 如何让 Shell 提示符更酷炫

    使用远程终端时,默认的命令行提示符格式已经能满足大部分用户需求了,但有时我们希望提示符看起来更直观.优雅.酷炫.美观,可以从中直接得到我们想要的信息,而且清晰分明.本文就详细讲解一下如何让 Shell ...

最新文章

  1. 【怎样写代码】实现对象的复用 -- 享元模式(三):享元模式
  2. layoutSubviews何时被调用
  3. Internet:从区块链的底层技术思考互联网是如何构成的
  4. c++ 计算正弦的近似值_数值计算笔记1·基本知识
  5. Magic Powder - 2
  6. 编程是一门实践性的科学
  7. 机器学习用于金融市场预测难在哪?
  8. java向上转型不能调用子类独有的方法
  9. 第七章 consul docker集群
  10. ipv4和计算机地址是什么意思,什么是ipv4 ipv6 ipv9 区别是什么(一) -电脑资料
  11. wordpress 字符串翻译日期_WordPress强大搜索功能如何实现?安装Ivory Search插件
  12. 解决jenkins插件列表为空的问题
  13. 使用 Design Pattern Toolkit 进行模型驱动的开发入门
  14. android 点击按钮打开浏览器网页
  15. 嵌入式linux usb联网,嵌入式linux下MF825C上网
  16. PDF 全部转为图片再用百度AI接口识别表格
  17. 使用Eclipse WTP进行快速Web开发
  18. 线下销售增长51%,荣耀靠的可不是把体验店装修的像Apple store
  19. 入库出库JAVA技术详情_基于Java_EE的入库出库管理系统
  20. 基于离散小波变换 (DWT)的图像信息隐藏算法

热门文章

  1. 内部类不能有静态变量(除静态的对Static的理解)
  2. python - IO模型
  3. java消息推送与接收
  4. 持续集成工具Hudson安装实例
  5. [z]IE6各种不兼容问题
  6. 美国互联网巨头在华发展10大败因
  7. sparkcore写mysql_spark读写mysql
  8. fastdfs连接mysql_fastDFS文件上传简单案例
  9. 怎么用计算机把浓度转换成PH,ph换算(ph和氢离子浓度的换算计算器)
  10. 集成android studio,Android Studio集成