NLP-D38-nlp比赛D7-pytorch踩坑继续刷题
—0440呜呜全新的一天开始啦!!!今天任务更多,也会过得更加充实,成长速度也会更快!
刚刚在kaggle找了找相关比赛,发现没有,于是只好自己改啦!!!
.view作用
用来改变张量形状
https://blog.csdn.net/WhiffeYF/article/details/104251419
torch.size(0),torch.size(1)中0和1的意思
第0维、第1维有几个数据。
torch.cat
map函数作用
map() 会根据提供的函数对指定序列做映射
https://www.runoob.com/python/python-func-map.html
volatile=False
volatile=True意味着不用反向求导,=false,则需要反向求导。
https://blog.csdn.net/qq_27292549/article/details/78768317
gpu转换不报错,但不成功
重新赋值后解决
这篇pytorch坑集不错。
https://zhuanlan.zhihu.com/p/91485607
pytorch的nn.CrossEntropyLoss()函数使用方法
y直接写明正确的index即可;
ignore_index忽略某一类别。
“nll_loss_forward_reduce_cuda_kernel_2d_index” not implemented for ‘Double’
我怀疑是得用float16
问题在于CE损失函数会自动把y的标签转换成one-hot,所以y的标签应该为int。
通过搜索问题:
https://blog.csdn.net/Arthur_Holmes/article/details/105716965
--------0837呜呜呜修了一早上,train终于run起来了。去做个核酸
—0950基本上跑通了。
test时可以用batch吗
呜呜,想念李沐大大了,翻翻书,至少是可以的。
下面研究下:test时不同的batch_size会不会影响准确率
鹅鹅鹅,然后发现了个愚蠢的事情
我也忘写model.eval()了。。。
又一个。。。xswl
max使用方法——在test时使用
可以返回值和索引。0是按列看
https://zhuanlan.zhihu.com/p/89465622
softmax和log_softmax的区别
log_softmax就是在softmax外加了一层log
改来改去,数据类型又改回去了。
这里相当于是一一对应了,而不是标签的index,所以要求为float了
如何统计tensor中true的数量
双向GRU
batch_first,输入时batch在第一个维度。
还是看李沐大大的书叭,应该是直接连接了,维度*2
注意:初始的hidden_state长度要*2
—1852呜呜呜,睡醒以后,好像把BiGRU也改完了???
—2106跑了6km感觉不累了,膝盖微疼。。。
----2133困困
但是还想刷个算法,我魔怔了。。。
786
还不错,虽然没那么顺,但是都是自己想出来的。
n,k = map(int,input().split())
a = list(map(int,input().split()))def quick_sort(q,l,r,k):if l>=r:return q[l]x = q[l+r>>1]i,j = l-1,r+1while i<j:i+=1j-=1while q[i]<x:i+=1while q[j]>x:j-=1if i<j:q[i],q[j] = q[j],q[i]res = j-l+1if res>=k:return quick_sort(q,l,j,k)else:return quick_sort(q,j+1,r,k-res)print(quick_sort(a,0,n-1,k))```
NLP-D38-nlp比赛D7-pytorch踩坑继续刷题相关推荐
- Pytorch踩坑记录:关于用net.eval()和with no grad装饰器计算结果不一样的问题
Pytorch踩坑记录 相同点 net.eval()和with toch.no_grad()的相同点:都停止反向传播 不同点: 1.net.eval() 用net.eval(),此时BN层会用训练时的 ...
- pytorch .item_从数据到模型,你可能需要1篇详实的pytorch踩坑指南
原创 · 作者 | Giant 学校 | 浙江大学 研究方向 | 对话系统.text2sql 熟悉DL的朋友应该知道Tensorflow.Pytorch.Caffe这些成熟的框架,它们让广大AI爱好者 ...
- PyTorch踩坑记录
使用Pytorch也一年多了,记录一下自己遇到的各种问题. 各种踩坑记录 loss.backward()报错 一种非常常见的错误,在网络前向传播时没问题,但是当loss.backward()时会报错 ...
- Pytorch踩坑记之交叉熵(nn.CrossEntropy,nn.NLLLoss,nn.BCELoss的区别和使用)
目录 nn.Softmax和nn.LogSoftmax nn.NLLLoss nn.CrossEntropy nn.BCELoss 总结 在Pytorch中的交叉熵函数的血泪史要从nn.CrossEn ...
- 在linux上运行python脚本(安装pytorch踩坑记录,pyinstaller使用方式,构建docker镜像)
背景 脚本需要导入pytorch等库才能运行. 脚本在windows上运行成功,尝试放到linux上运行. linux服务器内存较小. 方法一:在linux上安装依赖 把脚本放到linux上,直接安装 ...
- paddle复现pytorch踩坑(二):paddleAPI对照表(百度论文复现营活动提供)
百度提供了paddlepaddle对应pytorch的API对照表 环境:paddlepaddle1.8 百度论文复现营活动:论文复现营 Pytorch的API名称 Paddle的API名称 torc ...
- PyTorch踩坑记录——torch.functional 与 torch.nn.functional的区别
问题描述: 提示:刚入门深度学习,记录一些犯下的小错误: 由于本周开始试图复现华为的CTR库以增加记忆,熟悉代码细节,没想到第一天看基础模块的时候就遇到了麻烦,在torch.utils类中,有如下获取 ...
- pytorch踩坑日记
昨天使用pytorch写一个程序,程序写完之后却一直不能正确运行,今天定位到了代码的问题所在: 我的代码其中有一处逻辑是这样的: -- get a # 这里的a就是我想反向求导更新的参数 b=torc ...
- Pytorch踩坑: RuntimeError: invalid argument 0: Sizes of tensors must match except in dimension 0.
报错信息: RuntimeError: invalid argument 0: Sizes of tensors must match except in dimension 0. Got 186 a ...
最新文章
- 用c#开发微信(2)扫描二维码,用户授权后获取用户基本信息 (源码下载)
- 身为最热门的编程语言,Java求职前景到底如何?
- VTK:可视化算法之TubesWithVaryingRadiusAndColors
- the computational graph needed to compute the outputs报错解决
- linux内核博大精深,Linux Kernel里的cpu_to_le32是干啥的?
- java面向对象编程集合边框_第六章使用java实现面向对象-集合框架
- 戴尔 Wyse Thin 客户端设备受两个 CVSS 10分严重漏洞影响
- mybatisplus中的xml对象参数传递
- RDIFramework.NET开发实例━表约束条件权限的使用-WinForm
- 新手CrossApp 之CAbutton小结
- ubuntu18.04安装nvidia驱动(戴尔G15_3060版本)
- 工作记录软件app,可以写工作记录的便签软件
- Axure制作倒计时
- python编程加减法_python编程题关于二进制加减法运算解析
- GMSL高带宽数据接入的方法
- ubuntu踩坑笔记--开机进入recovering journal解决方法
- Ubuntu安装qt 5.12
- Workflow Pattern
- 360网站卫士 PHP-DOS攻击脚本专杀工具使用笔记
- 把三角函数以及反正弦三角函数的导数