L1, L2, smooth_L1 Loss函数python实现
L1, L2, smooth_L1函数python实现
L1 loss
def L1(y_gt, y_pre):loss = np.sum(np.abs(y_gt - y_pre))print(loss)# 画图x = np.arange(-10,11,0.1)y = abs(x)dy = np.where(x>0, 1, -1)plt.plot(x, y, label="l1")plt.plot(x, dy, label="l1'")plt.xlabel("x")plt.ylabel("y")plt.legend()plt.show()if __name__ == "__main__":y_gt = np.arange(1, 11)y_pre = np.array([1.1,2.2,3.3,4.4,5.5,6.6,7.7,8.8,9.9,13.13])L1(y_gt, y_pre)L2(y_gt, y_pre)smooth_l1(y_gt, y_pre)
L2 loss
def L2(y_gt, y_pre):loss = np.sum(np.square(y_gt - y_pre))print(loss)# 画图x = np.arange(-10,11,0.1)y = (1/2) * (x)**2dy = xplt.plot(x, y, label="l2")plt.plot(x, dy, label="l2'")plt.xlabel("x")plt.ylabel("y")plt.legend()plt.show()if __name__ == "__main__":y_gt = np.arange(1, 11)y_pre = np.array([1.1,2.2,3.3,4.4,5.5,6.6,7.7,8.8,9.9,13.13])L1(y_gt, y_pre)L2(y_gt, y_pre)smooth_l1(y_gt, y_pre)
smooth_l1 loss
论文地址:Fast R-CNN
def smooth_l1(y_gt, y_pre):select = y_gt - y_preloss = np.where(abs(select) < 1, 0.5*select**2, abs(select)-0.5)loss = np.sum(loss)# 画图x = np.arange(-10,11,0.1)y = []for xx in x:if xx > -1 and xx < 1:y.append(0.5*xx**2)else:y.append(abs(xx)-0.5)Edy = []for xx in x:if xx > -1 and xx < 1:dy.append(xx)elif xx <= -1:dy.append(-1)else:dy.append(1)plt.plot(x, y, label="smooth l1")plt.plot(x, dy, label="smooth l1'")plt.xlabel("x")plt.ylabel("y")plt.legend()plt.show()if __name__ == "__main__":y_gt = np.arange(1, 11)y_pre = np.array([1.1,2.2,3.3,4.4,5.5,6.6,7.7,8.8,9.9,13.13])L1(y_gt, y_pre)L2(y_gt, y_pre)smooth_l1(y_gt, y_pre)
L1, L2, smooth_L1 Loss函数python实现相关推荐
- L1/L2/smooth_l1_loss/center_loss+Dice Loss+focal loss+各种IOU loss+kl散度
一.L1/L2/smooth_l1_loss/center_loss公式与代码 1.公式 L2公式: smooth_L1公式: 2.三种函数numpy代码实现 import numpy as np i ...
- 分类回归loss函数汇总分析
2019独角兽企业重金招聘Python工程师标准>>> 版权声明:本文为博主原创文章,未经博主允许不得转载. https://blog.csdn.net/qq_14845119/ar ...
- 浅谈L0,L1,L2范数及其应用
原文传送门:浅谈L0,L1,L2范数及其应用 浅谈L0,L1,L2范数及其应用 在线性代数,函数分析等数学分支中,范数(Norm)是一个函数,其赋予某个向量空间(或矩阵)中的每个向量以长度或大小.对于 ...
- tensorflow学习(4.loss函数以及正则化的使用 )
本文还是以MNIST的CNN分析为例 loss函数一般有MSE均方差函数.交叉熵损失函数,说明见 https://blog.csdn.net/John_xyz/article/details/6121 ...
- 机器学习中的规则化范数(L0, L1, L2, 核范数)
今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化.我们先简单的来理解下常用的L0.L1.L2和核范数规则化.最后聊下规则化项参数的选择问题.这里因为篇幅比较庞大,为了不吓到大家,我将这个五个 ...
- 深度学习中的损失函数总结以及Center Loss函数笔记
北京 上海巡回站 | NVIDIA DLI深度学习培训 2018年1月26/1月12日 NVIDIA 深度学习学院 带你快速进入火热的DL领域 阅读全文 ...
- caffe中loss函数代码分析--caffe学习(16)
接上篇:caffe中样本的label一定要从序号0开始标注吗?–caffe学习(15) A: 1:数学上来说,损失函数loss值和label从0开始还是从1或者100开始是没有直接联系的,以欧式距离损 ...
- format函数python生成列表_python 全栈开发,Day14(列表推导式,生成器表达式,内置函数)...
一.列表生成式 生成1-100的列表 li = [] for i in range(1,101): li.append(i) print(li) 执行输出: [1,2,3...] 生成python1期 ...
- 深度学习loss函数理解
机器学习中的范数规则化之L0.L1.L2范数及loss函数 监督机器学习问题无非就是"minimizeyour error while regularizing your parameter ...
最新文章
- Android开源项目源码下载(不断更新中)
- 如何提高分布式系统的可用性
- VMware虚拟机中,RHEL系统下挂载、卸载新硬盘的方法
- Android 自定义Button按钮显示样式(正常、按下、获取焦点)
- 深入浅出JSONP--解决ajax跨域问题
- JS疑惑-1(连续赋值)
- Taro+dva+Typescript 搭建微信小程序架构
- es搜索引擎_分布式搜索引擎的架构是怎么设计的?
- FreePic2PDF制作书签
- 黑鲨重装计算机安装无法继续,图解黑鲨装机大师装机失败无法开机怎么办?
- HTML表格边框空隙
- Building IKEv1 and IKEv2 on CentOS 7
- 手绘与码绘的比较---模拟风吹树动
- 揭秘诈骗团伙通过裸聊软件实施敲诈勒索
- 批量修复自定义标题带来的word题注错误:错误,文档中没有指定样式的文字
- 【数字信号处理】卷积和乘法系列3之测不准原理
- oim failed_对OIM Web(UI)层进行压力测试
- oracle dump 文件解析,实用解析dmp文件内容
- IC验证工作随笔--工作4个月
- 学习python,北京尚学堂,第07课到第30课的个人的总结
热门文章
- 老毛桃 装WIN 10 系统
- 【2022最新】手把手教你拥有自己的服务器与网站(无需备案)
- 关联分析(Apriori,FP-growth)
- 2021年江苏高考成绩电话查询,2021年江苏高考具体查分时间 附查分电话方式网址入口...
- 使用Auto.js实现蚂蚁森林自动收取能量
- tinymce php,php - 用TinyMCE制作的PHP样式表(Hor Zebra) - SO中文参考 - www.soinside.com
- 数据结构课程设计【C++实现】
- modprobe 找不到文件
- 新概念模拟电路——晶体管构建的放大电路静态分析
- 使用nvm安装node报错,Could not retrieve https://nodejs.org/dist/latest/SHASUMS256.txt. Get “https://nodej