nn.AdaptiveAvgPool1d(5)

自适应的平均池化,应该是在最低维上转为5个数,即
9---->5
(1, 9, 8)---->(1, 5, 8)

import torch
from torch import nn
from torch import autograd
m = nn.AdaptiveAvgPool1d(5)# target output size of 5
input = autograd.Variable(torch.randn(1, 9, 8))
print(input)
tensor([[[ 3.0320e-01,  3.6879e-01, -1.0896e+00, -1.3251e+00,  2.1113e-01,-1.3839e+00, -1.2036e+00, -1.5154e+00],[ 4.2374e-01, -1.2755e+00,  2.0100e-01,  1.0388e+00,  1.0022e+00,-7.3641e-01, -1.3196e+00,  2.3717e-01],[ 2.9847e-01, -7.8317e-01, -1.1153e+00,  1.2325e+00, -6.0868e-01,-6.0629e-01, -1.0107e+00, -1.8141e-01],[ 9.8106e-01,  1.8035e+00,  1.5790e-01, -7.5658e-01, -1.5404e+00,-4.7695e-01,  3.9196e-01,  7.1803e-01],[-1.4173e+00,  6.5709e-01,  5.9748e-01, -2.3872e+00, -1.3445e+00,-5.9272e-01, -2.0092e-01, -2.0429e+00],[-3.7274e-01, -6.3365e-01, -3.1410e-01, -5.2788e-01,  2.9406e-01,4.7489e-01, -3.2312e-01,  2.5546e+00],[-4.9002e-01, -5.4810e-01,  1.4601e+00,  3.2844e-01, -3.7427e-01,-4.9377e-01,  2.8525e-01, -2.7228e+00],[-2.3692e-03,  2.1962e+00,  9.3386e-02,  4.1071e-01, -8.9220e-01,-2.4525e-01, -6.0414e-01,  4.3239e-01],[-9.7711e-01, -4.6109e-01, -3.6924e-01,  8.7918e-02, -1.1675e+00,-6.8003e-01, -6.2466e-01, -6.5148e-01]]])
output = m(input)
print(output)
tensor([[[ 0.3360, -0.6820, -0.5570, -0.7921, -1.3595],[-0.4259, -0.0119,  1.0205, -0.3513, -0.5412],[-0.2423, -0.2220,  0.3119, -0.7419, -0.5961],[ 1.3923,  0.4016, -1.1485, -0.5418,  0.5550],[-0.3801, -0.3776, -1.8658, -0.7127, -1.1219],[-0.5032, -0.4919, -0.1169,  0.1486,  1.1157],[-0.5191,  0.4135, -0.0229, -0.1943, -1.2188],[ 1.0969,  0.9001, -0.2407, -0.5805, -0.0859],[-0.7191, -0.2475, -0.5398, -0.8241, -0.6381]]])
m = nn.AdaptiveAvgPool1d(1)# target output size of 1
input = autograd.Variable(torch.randn(1, 9, 8))
print(input)
tensor([[[-0.4052, -0.2062, -0.3630,  0.5443, -1.1570,  0.9105, -1.7502,-2.0864],[ 0.1581, -1.6536, -0.9496, -0.5045,  0.4973, -1.6026,  1.8087,-1.5534],[-0.5572,  2.0890, -1.3753, -0.5857,  0.9093, -0.3246,  0.5703,0.7315],[ 0.5320,  0.2400, -1.8946,  1.2201, -0.8956,  0.3155, -0.4960,0.2246],[-0.7937,  0.1326,  1.5602, -0.1684,  1.3426,  0.3997, -0.7715,-0.1143],[-1.2648, -0.9803,  1.2850, -0.5430,  1.0204, -0.6017, -0.3234,0.8067],[ 1.4721,  0.4670,  0.3708,  1.1734, -0.1523,  2.5045, -0.8696,0.8504],[-0.0640, -1.6002,  0.8113, -0.5312, -0.4878,  1.7936, -0.1291,0.2794],[-0.1011, -0.9912, -0.5175, -0.3998,  0.7953, -0.9220, -0.8127,-1.2444]]])
output = m(input)
print(output)

[-0.4052, -0.2062, -0.3630, 0.5443, -1.1570, 0.9105, -1.7502, -2.0864]相加除以9等于-0.48不等于-0.5642
说明不是这样算的,不知道nn.AdaptiveAvgPool1d()运算过程是如何计算的

tensor([[[-0.5642],[-0.4749],[ 0.1821],[-0.0942],[ 0.1984],[-0.0751],[ 0.7270],[ 0.0090],[-0.5242]]])

nn.AdaptiveAvgPool1d()相关推荐

  1. AdaptiveAvgPool1D内部实现

    公式: # average adaptive pool1d # suppose input data in shape of [N, C, L], `output_size` is m or [m], ...

  2. torch.nn、(一)

    参考 torch.nn.(一) - 云+社区 - 腾讯云 目录 torch.nn Parameters Containers Module Sequential ModuleList ModuleDi ...

  3. torch.nn模块之池化层详解

    torch中的池化层 1. torch.nn模块中的池化层简介 2. 池化的调用方式 3. 图像池化演示 3.1 最大值池化 3.2 平均值池化 3.3 自适应平均值池化 参考资料 1. torch. ...

  4. PyTorch中AdaptiveAvgPool函数总结

    1维情况: import torch import torch.nn as nn# out_size m = nn.AdaptiveAvgPool1d(5) input = torch.randn(1 ...

  5. swin_transformer用于做图像分类(已跑通)

    B站大佬:霹雳吧啦Wz视频:12.2 使用Pytorch搭建Swin-Transformer网络 讲解链接:https://www.bilibili.com/video/BV1yg411K7Yc?sp ...

  6. 【Transformer】CrossFormer:A versatile vision transformer based on cross-scale attention

    文章目录 一.背景 二.动机 三.方法 3.1 Cross-scale Embedding Layer(CEL) 3.2 Cross-former Block 3.2.1 Long Short Dis ...

  7. 池化层(pooling layer) 感受野(Receptive Field) 神经网络的基本组成

    目录 (1)本文涉及的函数 (2)池化层 (3)感受野 (4)代码示例(含注释) 承接上两篇博客:卷积层(空洞卷积对比普通卷积).激活函数层 (1)本文涉及的函数 import torch impor ...

  8. OUC暑期培训(深度学习)——第六周学习记录:Vision Transformer amp; Swin Transformer

    第六周学习:Vision Transformer & Swin Transformer Part 1 视频学习及论文阅读 1.Vision Transformer 原文链接:https://a ...

  9. 【天池竞赛】心跳数据挖掘

    天池学习赛 心跳数据挖掘 168分攻略 Chapter 1. 赛题解析 就如比赛界面所介绍的一般,这里再复述一遍 ''' 本次新人赛是Datawhale与天池联合发起的0基础入门系列赛事 -- 心跳信 ...

最新文章

  1. 机器学习 KNN算法实践
  2. 成功解决Ignoring invalid distribution -yqt5
  3. [转载]HTTP协议详解
  4. BZOJ-1003-物流运输trans-ZJOI2006-SPFA+DP
  5. 机器学习-机器学习概论(入门机器学习基础知识)
  6. php服务器怎么设置cookie,php服务器如何清除浏览器cookie
  7. 利用深度学习从单个损伤和斑点中识别植物病害
  8. Linux三剑客--grep
  9. java源程序编译的结果_java源程序编译后
  10. Jogging Trails 邮递员问题
  11. NC - 网络编码的Java实现(1)-GF28基本运算
  12. 打开网站服务器显示403,打开网站显示403是什么意思
  13. java 读取tsv_uniVocity-parsers:一款强大的CSV/TSV/定宽文本文件解析库(Java)
  14. 河北软件职业技术学院计算机应用工程系,河北软件职业技术学院第四届模特大赛举办成功...
  15. 零基础如何快速入门微信小游戏开发?
  16. 血条加载!百度地图上线复苏指数;Quora推出问答机器人;腾讯绝悟成功用于医疗诊断;使用chatGPT生成推文;GitHub AI项目精选 | ShowMeAI资讯日报
  17. 2018-2019-2 20165205 网络对抗技术 Exp7 网络欺诈防范
  18. hiper – web_Web设计行业分析–专业人士与业余者[信息图]
  19. 5G终于来了,物联网将是未来五年要重点关注的行业
  20. 腾讯汤道生:微信乘车码已全量上线昆明地铁

热门文章

  1. jenkins-cli命令使用总结
  2. String All Methods
  3. java消息推送与接收
  4. IFRAME jquery 获取document对象
  5. 矩形嵌套 南阳理工ACM
  6. 好文转贴(3) —— 每个应用程序都有一个恐怖地下室 & 两个最容易被人忽略的基本代码优化技术...
  7. 实现 设置text控件的标题根据维度成员选择不同而变化
  8. Qt ObjectModel (from Qt doc)
  9. access如何查询两张表的内容_为什么可以的话,不要使用星号 *,而是相应的字段名来进行查询 MySQL内连接如何选择驱动表
  10. 计算机网络与影视多媒体技术 南京理工大学,计算机网络多媒体数学库和课件结构设计-计算机仿真论文-计算机论文(8页)-原创力文档...