目录

1.网络模块paddle.nn

2.Sequential 组网

3.内置模型


1.网络模块paddle.nn

from paddle import nn
import paddle
print(nn.__all__)###
['BatchNorm', 'GroupNorm', 'LayerNorm', 'SpectralNorm', 'BatchNorm1D', 'BatchNorm2D',
'BatchNorm3D', 'InstanceNorm1D', 'InstanceNorm2D', 'InstanceNorm3D', 'SyncBatchNorm',
'LocalResponseNorm', 'Embedding', 'Linear', 'Upsample', 'UpsamplingNearest2D',
'UpsamplingBilinear2D', 'Pad1D', 'Pad2D', 'Pad3D', 'CosineSimilarity', 'Dropout',
'Dropout2D', 'Dropout3D', 'Bilinear', 'AlphaDropout', 'Unfold', 'RNNCellBase','SimpleRNNCell', 'LSTMCell', 'GRUCell', 'RNN', 'BiRNN', 'SimpleRNN', 'LSTM', 'GRU',
'dynamic_decode', 'MultiHeadAttention', 'Maxout', 'Softsign', 'Transformer', 'MSELoss','LogSigmoid', 'BeamSearchDecoder', 'ClipGradByNorm', 'ReLU', 'PairwiseDistance',
'BCEWithLogitsLoss', 'SmoothL1Loss', 'MaxPool3D', 'AdaptiveMaxPool2D', 'Hardshrink',
'Softplus', 'KLDivLoss', 'AvgPool2D', 'L1Loss', 'LeakyReLU', 'AvgPool1D',
'AdaptiveAvgPool3D', 'AdaptiveMaxPool3D', 'NLLLoss', 'Conv1D', 'Sequential', 'Hardswish',
'Conv1DTranspose', 'AdaptiveMaxPool1D', 'TransformerEncoder', 'Softmax', 'ParameterList','Conv2D', 'Softshrink', 'Hardtanh', 'TransformerDecoderLayer', 'CrossEntropyLoss', 'GELU','SELU', 'Silu', 'Conv2DTranspose', 'CTCLoss', 'ThresholdedReLU', 'AdaptiveAvgPool2D','MaxPool1D', 'Layer', 'TransformerDecoder', 'Conv3D', 'Tanh', 'Conv3DTranspose',
'Flatten', 'AdaptiveAvgPool1D', 'Tanhshrink', 'HSigmoidLoss', 'PReLU',
'TransformerEncoderLayer', 'AvgPool3D', 'MaxPool2D', 'MarginRankingLoss', 'LayerList',
'ClipGradByValue', 'BCELoss', 'Hardsigmoid', 'ClipGradByGlobalNorm', 'LogSoftmax','Sigmoid', 'Swish', 'Mish', 'PixelShuffle', 'ELU', 'ReLU6', 'LayerDict']

分为Conv、Pool、Padding、Activation、Normlization、Recurrent NN、Transformer、Dropout、Loss几类。

2.Sequential 组网

import paddle
# Sequential形式组网
mnist = paddle.nn.Sequential(paddle.nn.Flatten(),paddle.nn.Linear(784, 512),paddle.nn.ReLU(),paddle.nn.Dropout(0.2),paddle.nn.Linear(512, 10)
)
print(mnist)####
Sequential((0): Flatten()(1): Linear(in_features=784, out_features=512, dtype=float32)(2): ReLU()(3): Dropout(p=0.2, axis=None, mode=upscale_in_train)(4): Linear(in_features=512, out_features=10, dtype=float32)
)

3.内置模型

paddle.vision.models 内置了许多经典的模型

print('飞桨框架内置模型:', paddle.vision.models.__all__)#####
飞桨框架内置模型: ['ResNet', 'resnet18', 'resnet34', 'resnet50', 'resnet101', 'resnet152','VGG', 'vgg11', 'vgg13', 'vgg16', 'vgg19', 'MobileNetV1', 'mobilenet_v1', 'MobileNetV2','mobilenet_v2', 'LeNet']

paddle.summary()方法查看模型的结构与每一层输入、输出形状和参数量

lenet = paddle.vision.models.LeNet()
paddle.summary(lenet,  (64, 1, 28, 28))####
---------------------------------------------------------------------------Layer (type)       Input Shape          Output Shape         Param #
===========================================================================Conv2D-3      [[64, 1, 28, 28]]     [64, 6, 28, 28]          60       ReLU-4       [[64, 6, 28, 28]]     [64, 6, 28, 28]           0       MaxPool2D-3    [[64, 6, 28, 28]]     [64, 6, 14, 14]           0       Conv2D-4      [[64, 6, 14, 14]]     [64, 16, 10, 10]        2,416     ReLU-5       [[64, 16, 10, 10]]    [64, 16, 10, 10]          0       MaxPool2D-4    [[64, 16, 10, 10]]     [64, 16, 5, 5]           0       Linear-6         [[64, 400]]           [64, 120]           48,120     Linear-7         [[64, 120]]            [64, 84]           10,164     Linear-8          [[64, 84]]            [64, 10]             850
===========================================================================
Total params: 61,610
Trainable params: 61,610
Non-trainable params: 0
---------------------------------------------------------------------------
Input size (MB): 0.19
Forward/backward pass size (MB): 7.03
Params size (MB): 0.24
Estimated Total Size (MB): 7.46
---------------------------------------------------------------------------{'total_params': 61610, 'trainable_params': 61610}

paddlepaddle(三)构建网络模型相关推荐

  1. 自己动手写word2vec (三):构建Huffman树

    系列所有帖子 自己动手写word2vec (一):主要概念和流程 自己动手写word2vec (二):统计词频 自己动手写word2vec (三):构建Huffman树 自己动手写word2vec ( ...

  2. 使用pytorch自己构建网络模型实战

    文章目录 写在前面 完整网络模型训练步骤 1.准备数据集 2.加载数据集 3.搭建神经网络✨✨✨ 4.创建网络模型 5.设置损失函数.优化器 6.设置网络训练中的一些参数 7.开始训练网络✨✨✨ 8. ...

  3. JAX-WS(三)构建简单webservice部署到tomcat上

    前言: 虽然构建本地的jax-ws的webservice很简单,但要部署到tomcat上要绕过点弯. tomcat本身和jdk都没有jaw-ws的API,所以部署的时候需要额外做点事情,有两种选择 1 ...

  4. 三种网络模型(OSI七层参考模型、TCP/IP参考模型、五层参模型)

    网络模型 计算机网络是指由通信线路互相连接的许多自主工作的计算机构成的集合体,各个部件之间以何种规则进行通信,就是网络模型研究的问题. 网络模型有:OSI七层参考模型和TCP/IP四层参考模型.五层参 ...

  5. tableau desktop(三)--构建数据视图(一)

    本节介绍使用 Tableau 构建数据视图的基本知识. 您将了解如何手动和使用内置工具自动构建视图. 此外,还将了解如何排序.筛选.分组以及分层. 最后,介绍有关日期和时间的使用.参考线和分级以及数据 ...

  6. (三)构建dubbo分布式平台-maven模块规划

    上一篇我们介绍<构建dubbo分布式平台-平台功能导图>,从今天开始,我们针对于每一个独立的系统做详细的构建,顺便会把整个构建的过程全部记录下来,方便更多的开发者. 提醒: 在构建dubb ...

  7. PyTorch框架:(2)使用PyTorch框架构建神经网络模型---气温预测

    目录 第一步:数据导入 第二步:将时间转换成标准格式(比如datatime格式) 第三步: 展示数据:(画了4个子图) 第四步:做独热编码 第五步:指定输入与输出 第六步:对数据做一个标准化 第七步: ...

  8. 构建超级智能未来系统的三原则

    <崛起的超级智能>作者,计算机博士刘锋 前言:科技领域看不见的手在过去50年促使互联网从网状结构进化成为大脑模型,而人类群体智慧与机器群体智能通过这个互联网大脑架构形成人类前所未有的超级智 ...

  9. PaddlePaddle文本卷积实现情感分类和微博女友情绪监控AI

    本期文章我们将使用文本卷积和StackLSTM层来实现一个情感分类网络,这样你就可以拥有一个属于自己的情感监控AI啦,甚至通过微博的接口来监控你女朋友的情绪.而要实现这一切,你不需要别的什么东西,你只 ...

最新文章

  1. iptables加载顺序问题及优化方法
  2. 大众EA211djs和css的区别,宣传上却说捷达VS5用的发动机是EA211,但这款车的参数配置栏发动机型号写的却是DJS,谁能为我解惑吗?(只有斯柯达的柯米克的发动机型号写得才是EA211)...
  3. Solr建立索引时,过滤HTML标签
  4. 华为鸿蒙用着怎么样,首批华为鸿蒙用户体验如何?“差评”有点难听,但是很真实!...
  5. OpenShift 4 Hands-on Lab (11) 用户身份认证和资源访问限制
  6. OC @class关键字
  7. HDU 2531 (BFS搜索)
  8. SpringAOP原理解析
  9. 程序员那些必须掌握的排序算法(上)
  10. uniapp app真机测试
  11. linux延时函数及头文件,linux延时函数
  12. 网页瘦身方法-金瑞帆高端建站
  13. Nova的安装及其配置
  14. 无法打开位置服务器,电脑的定位功能无法打开怎么办?
  15. eclipse新建类auther自填充
  16. java计算机毕业设计医院住院部信息管理系统源程序+mysql+系统+lw文档+远程调试
  17. 19年11月最新Win10 LTSC系统封装部署教程(超详细)
  18. 说一下字典的:addEntriesFromDictionary用法
  19. 模式,动态,数据化及其他
  20. win7忘记密码,启动恢复

热门文章

  1. SAP FBL1N FBL3N FBL5N add fields
  2. MySQL修改密码的方法
  3. Docker中修改MySQL的密码
  4. 电脑上卸载软件的残留文件怎么清理?
  5. 智能水平创新高 华为手机驾驶保时捷汽车
  6. echarts 取消鼠标小手指的样式
  7. Numpy中np.indices函数用法详解
  8. vr全景技术中的千里眼大像素,让您一览而尽
  9. 全景丨0基础学习VR全景制作,后期篇第四章:全景图调色和细节处理(下,航拍)
  10. 【java技术面试第四讲】Java面试题04.java中int占几个字节