NIN网络-Network In Network​blog.csdn.net

梦里寻梦:(四十二)通俗易懂理解——CNN网络框架演进:LeNet至DenseNet​zhuanlan.zhihu.com

KevinCK:CNN系列模型发展简述(附github代码——已全部跑通)​zhuanlan.zhihu.com

https://www.cnblogs.com/guoyaohua/p/8534077.html​www.cnblogs.com

Lenet --> Alexnet --> ZFnet --> VGG --> NIN --> GoogLeNet --> ResNet --> DenseNet -->ResNeXt ---> EfficientNet

Lenet-5网络结构详解

闪光点:LeCun在1998年提出,定义了CNN的基本组件,是CNN的鼻祖。
自那时起,CNN的最基本的架构就定下来了:卷积层、池化层、全连接层。
LetNet-5 是一种入门级的神经网络模型,是一个简单的卷积神经网络,可以用来做手写体识别
含输入层总共8层网络,分别为:输入层(INPUT)、卷积层(Convolutions,C1)、池化层(Subsampling,S2)
C3、 S4、 C5、全连接层(F6)、输出层
LeNet-5跟现有的conv->pool->ReLU的套路不同,它使用的方式是conv1->pool->conv2->pool2再接全连接层,
但是不变的是,卷积层后紧接池化层的模式依旧不变经过卷积后输出维度大小的公式:
N: 输入的维度、F:卷积核大小、stride: 步长、pad: 扩充边缘
output = (N + 2*pad -F)/stride

import 

Alexnet网络结构详解

pytorch 使用torchsummary打印网络每层形状
----------------------------------------------------------------Layer (type)               Output Shape         Param #
================================================================Conv2d-1           [-1, 64, 55, 55]          23,296ReLU-2           [-1, 64, 55, 55]               0MaxPool2d-3           [-1, 64, 27, 27]               0Conv2d-4          [-1, 192, 27, 27]         307,392ReLU-5          [-1, 192, 27, 27]               0MaxPool2d-6          [-1, 192, 13, 13]               0Conv2d-7          [-1, 384, 13, 13]         663,936ReLU-8          [-1, 384, 13, 13]               0Conv2d-9          [-1, 256, 13, 13]         884,992ReLU-10          [-1, 256, 13, 13]               0Conv2d-11          [-1, 256, 13, 13]         590,080ReLU-12          [-1, 256, 13, 13]               0MaxPool2d-13            [-1, 256, 6, 6]               0
AdaptiveAvgPool2d-14            [-1, 256, 6, 6]               0Dropout-15                 [-1, 9216]               0Linear-16                 [-1, 4096]      37,752,832ReLU-17                 [-1, 4096]               0Dropout-18                 [-1, 4096]               0Linear-19                 [-1, 4096]      16,781,312ReLU-20                 [-1, 4096]               0Linear-21                 [-1, 1000]       4,097,000
================================================================

上图 Alexnet的整个网络结构是由5个卷积层和3个全连接层组成的,深度总共8层
AlexNet针对的是1000类的分类问题,输入图片规定是256×256的三通道彩色图片,为了
增强模型的泛化能力,避免过拟合,作者使用了随机裁剪的思路对原来256×256的图像进行
随机裁剪,得到尺寸为3×224×224的图像,输入到网络训练.
注意:输入Input的图像规格: 224X224X3(RGB图像),实际上会经过预处理变为227X227X3
因为 (224-11)/4+1 != 55,所以这里是做了padding再做卷积的,即先padiing图像至227×227,
再做卷积(227-11)/4+1 = 55AlexNet将CNN用到了更深更宽的网络中,其效果分类的精度更高相比于以前的LeNet 用到的trick:
0)数据增广技巧来增加模型泛化能力 256×256×3 -->随机裁剪224×224×3 -->进入网络
1)AlexNet使用ReLU代替了Sigmoid,其能更快的训练,同时解决sigmoid在训练较深的网络中出现的梯度消失
2)Dropout随机失活,随机忽略一些神经元,以避免过拟合
3)以前的CNN中普遍使用平均池化层,AlexNet全部使用最大池化层,避免了平均池化层的模糊化的效果,并且步长比池化的核的尺寸小,这样池化层的输出之间有重叠,提升了特征的丰富性
4)提出了LRN层,局部响应归一化 增加了泛化能力,做了平滑处理,提高了1%~2%的识别率, LRN 对局部神经元
的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元。

ZF-Net 网络解析

ZFNet是2013ImageNet分类任务的冠军,其网络结构没什么改进,只是调了调参,性能较Alex提升了不少。ZF-Net只是将AlexNet第一层卷积核由11变成7步长由4变为2,第3,4,5卷积层转变为384,384,256。这一年的ImageNet还是比较平静的一届,其冠军ZF-Net的名堂也没其他届的经典网络架构响亮。

import 

VGG16网络结构详解

https://zhuanlan.zhihu.com/p/79258431
VGGNet: 2014年ImageNet竞赛定位任务的第一名和分类任务的第二名的中的基础网络。
VGG16 是在 AlexNet 网络上每一层进行了改造,5个 stage 对应 AlexNet 中的5层卷积,3层全连接仍然不变
图片输入的大小还是沿用了 224x224x3
1) 共16层(不包括Max pooling层和softmax层)
2) 所有的卷积核都使用3*3的大小,max pooling池化核都使用大小为2*2
3) 采用步长stride=2,padding=0的Max pooling
4) 卷积层深度依次为64 -> 128 -> 256 -> 512 ->512VGGNet改进点总结:
1)使用了更小的3*3卷积核,和更深的网络。两个3*3卷积核的堆叠相对于5*5卷积核的视野,三个3*3
卷积核的堆叠相当于7*7卷积核的视野。 (好处:有更少的参数 3个堆叠的3*3结构只有7*7结构参数
数量的(3*3*3)/(7*7)=55% ) 另一方面拥有更多的非线性变换,增加了CNN对特征的学习能力。
2)VGG采用的是一种Pre-training的方式,先训练级别简单(层数较浅)的VGGNet的A级网络,然后使用A网络的权重来初始化后面的复杂模型,加快训练的收敛速度。
3)采用了Multi-Scale的方法来训练和预测。可以增加训练的数据量,防止模型过拟合,提升预测准确率 

# -*- coding:utf-8 -*-

NIN网络-Network In Network

Network In Network 是发表于 2014 年 ICLR 的一篇 paper。当前被引了 3298 次。这篇文章采用
较少参数就取得了 Alexnet 的效果,Alexnet 参数大小为 230M,而 Network In Network 仅为 29M,
这篇 paper 主要两大亮点:mlpconv (multilayer perceptron,MLP,多层感知机) 和Global Average Pooling(全局平均池化)。第一个卷积核是11x11x3x96,因此在一个patch块上卷积的输出是1x1x96的feature map(一个96维的向量).
在其后又接了一个MLP层,输出仍然是96.因此这个MLP层就等价于一个1 x 1 的卷积层
mlp conv另一种理解方式:在原来每一层输出后加一个 与通道数量相同1 x 1 的卷积层。
mlp conv层相当于先进行一次普通的卷积(比如3x3),紧跟再进行一次1x1的卷积。
见上图MLPCONV与CNN对比。作用:1. 其实相当于在通道之间做了特征融合。2. 每一层卷积之后加一个激活函数,比原结构多了一层激活函数,增加了结构的非线性表达能力。Global Average Pooling
整个featuremap平均池化结果作为softmax 输入,相较于Alexnet全连接的优点:1. 减少参数量(1000x1000+1000x6x6),全局平均池化没有参数,从而减轻过拟合2. 求和平均综合了整个featuremap的所有信息,全局平均池可以对空间信息进行汇总,因此对输入的空间转换具有更强的鲁棒性。3. 不限输入图片的大小

#NiN 网络由三个 mlpconv 块组成,最后一个 mlpconv 后使用全局平均池化。

GoogLeNet 网络结构解析

GoogLeNet系列解读_shuzfan的专栏-CSDN博客_googlenet​blog.csdn.net

大话CNN经典模型:GoogLeNet(从Inception v1到v4的演进) - 雪饼的个人空间 - OSCHINA​my.oschina.net

神经网络除了纵向的扩展,是否能进行横向的拓展? 提升网络性能最直接的办法就是增加网络深度和宽度,深度指网络层次数量、宽度指神经元数量。

GoogLeNet在2014的ImageNet分类任务上击败了VGG-Nets夺得冠军,GoogLeNet跟AlexNet,VGG-Nets这种单纯依靠加深网络结构进而改进网络性能的思路不一样,它另辟幽径,在加深网络的同时(22层),也在网络结构上做了创新,引入Inception结构代替了单纯的卷积+激活的传统操作(这思路最早由Network in Network提出)

闪光点:

  • 引入Inception结构
  • 中间层的辅助LOSS单元
  • 后面的全连接层全部替换为简单的全局平均pooling

GoogLeNet中的基础卷积块叫作Inception块,得名于同名电影《盗梦空间》 (Inception)

通过设计一个稀疏网络结构,但是能够产生稠密的数据,既能增加神经网络表现,又能保证计算资源的使用效率。一方面增加了网络的宽度,另一方面也增加了网络对尺度的适应性。

对上图做以下说明:
1. 采用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合;
2. 之所以卷积核大小采用1、3和5,主要是为了方便对齐。设定卷积步长stride=1之后,只要分别
设定pad=0、1、2,那么卷积之后便可以得到相同维度的特征,方便最后拼接在一起 out =((N + 2p -L)/s) +1
3. 文章说很多地方都表明pooling挺有效,所以Inception里面也嵌入了。
4. 网络越到后面,特征越抽象,而且每个特征所涉及的感受野也更大了,因此随着层数的增加,3x3和5x5卷积的比例也要增加。但是,使用5x5的卷积核仍然会带来巨大的计算量。 文章借鉴NIN2,采用1x1卷积核来进行降维。
例如:上一层的输出为100x100x128,经过具有256个输出的5x5卷积层之后(stride=1,pad=2),
输出数据为100x100x256。其中,卷积层的参数为128x5x5x256。假如上一层输出先经过具有32个输出的
1x1卷积层,再经过具有256个输出的5x5卷积层,那么最终的输出数据仍为为100x100x256,但卷积参数量
已经减少为128x1x1x32 + 32x5x5x256,大约减少了4倍。

基于Inception构建了GoogLeNet的网络结构如下(共22层)

对上图说明如下:
(1)GoogLeNet采用了模块化的结构(Inception结构),方便增添和修改;
(2)网络最后采用了average pooling(平均池化)来代替全连接层,该想法来自NIN(Network in Network)事实证明这样可以将准确率提高0.6%。但是,实际在最后还是加了一个全连接层,主要是为了方便对输出进行灵活调整;
(3)虽然移除了全连接,但是网络中依然使用了Dropout ;
(4)为了避免梯度消失,网络额外增加了2个辅助的softmax用于向前传导梯度(辅助分类器)。辅助分类器是将中间某一层的输出用作分类,并按一个较小的权重(0.3)加到最终分类结果中,这样相当于做了模型融合,同时给网络增加了反向传播的梯度信号,也提供了额外的正则化,对于整个网络的训练很有裨益。而在实际测试的时候,这两个额外的softmax会被去掉。

GoogLeNet Inception V2

Inception V2版本的解决方案就是修改Inception的内部计算逻辑,提出了比较特殊的“卷积”计算结构

先池化再作Inception卷积,或者先作Inception卷积再作池化。但是方法一(左图)先作pooling(池化)会导致特征表示遇到瓶颈(特征缺失),方法二(右图)是正常的缩小,但计算量很大。为了同时保持特征表示且降低计算量,将网络结构改为下图,使用两个并行化的模块来降低计算量(卷积、池化并行执行,再进行合并

使用Inception V2作改进版的GoogLeNet,网络结构图如下:

注:上表中的Figure 5指没有进化的Inception,Figure 6是指小卷积版的Inception(用3x3卷积核代替5x5卷积核),Figure 7是指不对称版的Inception(用1xn、nx1卷积核代替nxn卷积核)。

V2优点:
1. 学习VGGNet的特点,用两个3*3卷积代替5*5卷积,降低参数量
2. 提出了著名的Batch Normalization(BN)方法,BN算法是一个正则化方法,可以提高大网络的收敛速度.BN算法:就是对输入层信息分布标准化处理,使得规范化为N(0,1)的高斯分布,收敛速度大大提高。

Inception V3

1. RMSProp优化器
2. Inception V3一个最重要的改进是分解(Factorization),将7x7分解成两个一维的卷积(1x7,7x1)
3x3也是一样(1x3,3x1),这样的好处,既可以加速计算,又可以将1个卷积拆成2个卷积,
使得网络深度进一步增加,增加了网络的非线性(每增加一层都要进行ReLU)。
另外,网络输入从224x224变为了299x299。

Inception V4

Inception V4研究了Inception模块与残差连接的结合ResNet结构大大地加深了网络深度,还极大地提升了训练速度,同时性能也有提升。Inception V4主要利用残差连接(Residual Connection)来改进V3结构,得到Inception-ResNet-v1,Inception-ResNet-v2,Inception-v4网络。

V1提出inception结构,到v2添加了BN层,到V3使用分解卷积,到V4和残差网络结合。

ResNet 网络结构(里程碑式创新)

2015年何恺明推出的ResNet在ISLVRC和COCO上横扫所有选手,获得冠军。ResNet在网络结构上做了大创新,而不再是简单的堆积层数,ResNet在卷积神经网络的新思路,绝对是深度学习发展历程上里程碑式的事件。

闪光点

  • 层数非常深,已经超过百层(梯度消失/梯度爆炸)
  • 引入残差单元来解决退化问题(Degradation):即准确率会先上升然后达到饱和,再持续加深网络则会导致准确率下降
随着网络深度增加,网络的准确度应该同步增加,当然要注意过拟合问题。
但是网络深度增加的一个问题在于这些增加的层是参数更新的信号,因为梯度是从后向前传播的,
增加网络深度后,比较靠前的层梯度会很小。这意味着这些层基本上学习停滞了,这就是梯度消失问题。
深度网络的第二个问题在于训练,当网络更深时意味着参数空间更大,优化问题变得更难,因此简单地
去增加网络深度反而出现更高的训练误差,深层网络虽然收敛了,但网络却开始退化了,即增加网络
层数却导致更大的误差,比如下图,一个56层的网络的性能却不如20层的性能好,这不是因为
过拟合(训练集训练误差依然很高),这就是烦人的退化问题。残差网络ResNet设计一种残差模块让
我们可以训练更深的网络。

分析一下残差单元来理解ResNet的精髓

增加一个identity mapping(恒等映射),将原始所需学的函数H(x)转换成F(x)+x,然而优化F(x)会比H(x) 简单很多

从上图可以看出,数据经过了两条路线,一条是常规路线,另一条则是捷径(shortcut),
直接实现单位映射的直接连接的路线,这有点类似与电路中的“短路”。通过实验,这种带有
shortcut的结构确实可以很好地应对退化问题。我们把网络中的一个模块的输入和输出关系看作是
y=H(x),那么直接通过梯度方法求H(x)就会遇到上面提到的退化问题,如果使用了这种带
shortcut的结构,那么可变参数部分的优化目标就不再是H(x),若用F(x)来代表需要优化
的部分的话,则H(x)=F(x)+x,也就是F(x)=H(x)-x 因为在单位映射的假设中y=x就相当于观测值,
所以F(x)就对应着残差,因而叫残差网络。为啥要这样做,因为作者认为学习残差F(X)比直接学习H(X)简单!
设想下,现在我们只需要去学习输出和输入的差值(H(x)-x 即残差), 不再是学习一个完整的输出H(x),
优化起来简单很多。考虑到x的维度与F(X)维度可能不匹配情况,需进行维度匹配。这里论文中采用两种方法解决这一问题1. zero_padding:对恒等层进行0填充的方式将维度补充完整。这种方法不会增加额外的参数2. projection:在恒等层采用1x1的卷积核来增加维度。这种方法会增加额外的参数

import 

DenseNet 网络结构

2017最佳论文DenseNet,主要还是和ResNet及Inception网络做对比,思想上有借鉴,但却是全新的结构,网络结构并不复杂,却非常有效,在CIFAR指标上全面超越ResNet。可以说DenseNet吸收了ResNet最精华的部分,并在此上做了更加创新的工作,使得网络性能进一步提升。

DenseNet是借鉴了ResNet,是ResNet的升级版,从上述ResNet可以看到,一般每个Block会有一个skip connect,而DenseNet会在每层conv间有一个skip connect

闪光点:

  • 密集连接:缓解梯度消失问题,加强特征传播,极大的减少了参数量

需要明确一点,dense connectivity 仅仅是在一个dense block里的,不同dense block 之间是没有dense connectivity的

在同层深度下获得更好的收敛率,自然是有额外代价的。其代价之一,就是训练需要更多内存

densenet就同时做了两件事情,一是将网络中的每一层都直接与其前面层相连,提高特征的利用率;二是把网络的每一层设计得很窄,也就是卷积的输出通道数通常很小,只有几十,该层学习非常少的特征图并与输入concat使用。

import 

ResNeXt: 不明显增加参数量级的情况下提升了模型的准确率,同时由于拓扑结构相同,超参数也减少了,便于模型移植

ResNeXt是ResNet和Inception的结合体,不同于Inception v4的是,ResNext不需要人工设计复杂的Inception结构细节,而是每一个分支都采用相同的拓扑结构。ResNeXt的本质是分组卷积(Group Convolution),通过变量基数(Cardinality)来控制组的数量。分组卷机是 普通卷积和深度可分离卷积 的一个折中方案,即每个分支产生的Feature Map的通道数为n(n>1)

首先这是两者block的区别,左侧为ResNet的block结构,右侧的是ResNeXt的block结构。每一个方框代表一层,其中的三个数据代表的意义分别为(输入channel,filter大小,输出channel)。其好处就是在保证了FLOPs和参数量的前提下,通过更宽或者深的网络,来提高网络精度。同时每一个Block中每一条path在文章中被称为一个cardinality

EfficientNet

EfficientNet算法笔记 - yumoye - 博客园​www.cnblogs.com

作者认为目前常用的加宽网络加深网络增加分辨率这3种常用的提升网络指标的方式之间不应该是相互独立的。因此提出了compound model scaling算法,通过综合优化网络宽度、网络深度和分辨率达到指标提升的目的,能够达到准确率指标和现有分类网络相似的情况下,大大减少模型参数量和计算量。

单个维度做scaling存在什么问题吗?针对这个问题,作者做了Fig3这个实验,也就是针对某个分类网络的3个维度(宽度、深度和分辨率)分别做model scaling的结果对比。单独优化这3个维度都能提升模型效果,但上限也比较明显,基本上在Acc达到80后提升就很小了。

多个维度结合做scaling效果如何?针对这个问题,作者做了Fig4这个实验,相当于手动设置3个维度的model scaling参数。蓝色线表示的是只对宽度做model scaling的实验结果,上面的每个点表示不同宽度的网络,通过手动设置3个维度的model scaling参数就能有效提升模型的效果(突破80),这就说明多维度融合是有效的。

模型最终效果

官方的 B0 - B7  α β γ  params_dict = {# (width_coefficient, depth_coefficient, resolution, dropout_rate)'efficientnet-b0': (1.0, 1.0, 224, 0.2),'efficientnet-b1': (1.0, 1.1, 240, 0.2),'efficientnet-b2': (1.1, 1.2, 260, 0.3),'efficientnet-b3': (1.2, 1.4, 300, 0.3),'efficientnet-b4': (1.4, 1.8, 380, 0.4),'efficientnet-b5': (1.6, 2.2, 456, 0.4),'efficientnet-b6': (1.8, 2.6, 528, 0.5),'efficientnet-b7': (2.0, 3.1, 600, 0.5),}

cnn stride and padding_经典CNN网络解析相关推荐

  1. cnn stride and padding_卷积神经网络(CNN) 第 4 课(上)

    点此亲启 致各位 之前感觉深度学习高深莫测,paper中的各种名词让人望而生畏,高端落地应用络绎不绝,说实话有些恐惧,但是当你一点一点地开始接触它,慢慢了解到每个名词的含义,心里一句"昂~也 ...

  2. cnn stride and padding_彻底搞懂CNN中的卷积和反卷积

    前言 卷积和反卷积在CNN中经常被用到,想要彻底搞懂并不是那么容易.本文主要分三个部分来讲解卷积和反卷积,分别包括概念.工作过程.代码示例,其中代码实践部分主结合TensorFlow框架来进行实践.给 ...

  3. 图像分类网络-经典CNN网络简介

    在CNN网络结构的演化上,出现过许多优秀的CNN网络,CNN的经典结构始于1998年的LeNet,成于2012年历史性的AlexNet,从此大盛于图像相关领域,主要包括: 发展历史:Lenet --& ...

  4. CNN基本步骤以及经典卷积(LeNet、AlexNet、VGGNet、InceptionNet 和 ResNet)网络讲解以及tensorflow代码实现

    课程来源:人工智能实践:Tensorflow笔记2 文章目录 前言 1.卷积神经网络的基本步骤 1.卷积神经网络计算convolution 2.感受野以及卷积核的选取 3.全零填充Padding 4. ...

  5. 从零开始的深度学习(一) 经典CNN网络 LeNet-5

    从零开始的深度学习(一) 经典CNN网络 LeNet-5 之前的四篇博客围绕着一个大作业项目来进行的入门,由于小白初涉,因此行文中有时侧重于某些并不重要的东西,同时也忽略了许多其实蛮重要的东西,再加上 ...

  6. 迁移学习篇之如何迁移经典CNN网络-附迁移学习Alexnet,VGG,Googlenet,Resnet详细代码注释和方法-pytorch

    鸽了好久的迁移学习篇学习终于打算更新,这次我们来学习一个机器学习中经典常用的简单快速提高网络指标的trick,迁移学习,迁移学习本身是机器学习中的一个trick,但是近些年在深度学习中应用广泛.之前我 ...

  7. 四大经典CNN网络技术原理

    AI科技评论按:2017年2月28日下午3点,<TensorFlow实战>作者黄文坚做客[硬创公开课],为我们讲解了关于四大经典CNN网络:AlexNet.VGGNet.Google In ...

  8. CNN经典分类网络发展历程GoogLeNet、SqueezeNet、ResNet、ResNeXt、DenseNet

    本篇博文主要介绍2015年之后出现的经典分类网络的发展历程,前期经典分类网络网上有很多解析,主要包括LeNet.AlexNet.VGG等. 本篇博文主要介绍GoogLeNet.SqueezeNet.R ...

  9. CNN的几种经典模型

    本文主要介绍一下CNN的几种经典模型比较.之前自己也用过AlexNet和GoogleNet,网络上关于各种模型的介绍更是形形色色,自己就想着整理一下,以备自己以后查阅方便 LeNet5 先放一张图,我 ...

最新文章

  1. PostgreSQL SystemTap on Linux 转
  2. thinking-in-java(10)内部类
  3. Python与C语言的区别是什么?
  4. java特性多态,90%的人看完都说好
  5. strace动态调试 php,PHP实现通过strace定位故障原因的方法
  6. WDS部署服务之五高级功能
  7. call、apply、bind的区别,模拟call、apply和bind的实现
  8. Python爬取网页源码,图片和文字到本地
  9. 09 高效的PL/SQL程序设计
  10. thinkphp5.0连接mysql_thinkphp5.0数据库操作
  11. mac启动盘已满,如何“瘦身”
  12. DXP-2004软件安装
  13. 文件格式介绍:文本,图片,音频,视频
  14. crmeb单商户4.4开目录结构 crmeb二开文档 crmeb二开目录结构
  15. word如何调整字间距离_WORD如何调整行间距和字间距
  16. 【整理】详解Python中re.sub
  17. 2008年最后的感动
  18. HTML网页设计:三、图像标签之<img>标签
  19. GTD时间管理简洁做法
  20. 品牌技术专场重磅加盟,看音视频如何引领新趋势

热门文章

  1. 特斯拉三季度生产23.8万辆 交付超24万辆
  2. 一分钱解锁全网视频会员?加入团队还能月入百万?
  3. Apple Watch移动心电图ECG与房颤提示功能获药监局审核
  4. 我慕了!腾讯大手一挥,员工买房最高可申请免息借款90万
  5. 真降价还是假环保?华为客服回应手机取消充电器:不清楚
  6. 蔚来:首台ET7白车身合肥工厂下线
  7. 终于可以自定义喇叭声音:你的特斯拉可以“放屁”吓唬人了
  8. 在公司群匿名吐槽后当场“掉马”?QQ回应:真这样程序猿要被祭天
  9. 拼多多新款iPhone SE史上最低价来了,但遇上同样降价的iPhone XR,你选谁?
  10. 躺枪实惨!与新冠病毒“重名”,这款墨西哥国民啤酒宣布暂停生产...