CUDA 11功能展示

CUDA 11 Features Revealed

新的NVIDIA A100 GPU基于NVIDIA安培GPU架构,实现了加速计算的最大一代飞跃。A100 GPU具有革命性的硬件功能,我们很高兴宣布CUDA11与A100结合使用。
CUDA11使您能够利用新的硬件功能来加速HPC、基因组学、5G、渲染、深度学习、数据分析、数据科学、机器人和许多更多样化的工作负载。

CUDA11包含了从平台系统软件到开始开发GPU加速应用程序所需的所有功能。本文概述了此版本中的主要软件功能:

支持NVIDIA安培GPU体系结构,包括新的NVIDIA A100 GPU,用于加速扩展和扩展AI和HPC数据中心;具有NVSwitch结构的多GPU系统,如DGX A100和HGX A100。

多实例GPU(MIG)分区功能,特别有利于云服务提供商(csp)提高GPU利用率。

新的第三代张量核加速混合精度,矩阵运算对不同数据类型,包括TF32和Bfloat16。

用于任务图、异步数据移动、细粒度同步和二级缓存驻留控制的编程和API。

CUDA库中线性代数、FFT和矩阵乘法的性能优化。

对Nsight产品系列工具的更新,这些工具用于跟踪、分析和调试CUDA应用程序。

完全支持所有主要的CPU体系结构,包括x86_64、Arm64服务器和电源体系结构。

CUDA and NVIDIA Ampere microarchitecture GPUs

NVIDIA安培GPU微体系结构采用TSMC 7nm N7制造工艺,包含更多流式多处理器(SMs)、更大更快的内存以及与第三代NVLink互连的带宽,以提供巨大的计算吞吐量。
A100的40gb(5站点)高速HBM2内存的带宽为1.6tb/sec,比V100快1.7x以上。A100上的40 MB二级缓存几乎比TeslaV100大7倍,提供了2倍以上的二级缓存读取带宽。CUDA11在A100上提供了新的专用二级缓存管理和驻留控制API。A100中的短消息包括更大更快的组合一级缓存和共享内存单元(每短消息192 KB),以提供Volta V100 GPU总容量的1.5倍。
A100配备了专用硬件单元,包括第三代张量核心、更多视频解码器(NVDEC)单元、JPEG解码器和光流加速器。所有这些都被各种CUDA库用来加速HPC和AI应用程序。
接下来的几节将讨论NVIDIA A100中引入的主要创新,以及CUDA 11如何使您能够充分利用这些功能。CUDA 11为每个人都提供了一些东西,无论您是管理集群的平台DevOps工程师还是编写GPU加速应用程序的软件开发人员。有关NVIDIA安培GPU微体系结构的更多信息,请参阅NVIDIA安培体系结构深入文章。

Multi-Instance GPU

MIG功能可以在物理上将一个A100 GPU分成多个GPU。它允许多个客户端(如vm、容器或进程)同时运行,同时在这些程序之间提供错误隔离和高级服务质量(QoS)。

Figure 1. New MIG feature in A100.

A100是第一个可以通过NVLink扩展到完整GPU的GPU,或者通过降低每个GPU实例的成本来扩展到许多用户的MIG的GPU。MIG支持多个用例来提高GPU的利用率。这可以让CSPs租用单独的GPU实例,在GPU上运行多个推理工作负载,托管多个Jupyter笔记本会话以进行模型探索,或者在组织中的多个内部用户(单租户、多用户)之间共享GPU的资源。
MIG对CUDA是透明的,现有的CUDA程序可以在MIG不变的情况下运行,以最小化编程工作量。CUDA 11使用NVIDIA管理库(NVML)或其命令行接口NVIDIA smi(NVIDIA smi MIG子命令)在Linux操作系统上启用MIG实例的配置和管理。

使用NVIDIA容器工具包和启用MIG的A100,还可以使用Docker运行GPU容器(使用从Docker 19.03开始的–gpus选项)或使用NVIDIA设备插件扩展Kubernetes容器平台。
以下命令显示了使用nvidia smi的MIG管理:

# List gpu instance profiles:
# nvidia-smi mig -i 0 –lgip


System software platform support

为了在企业数据中心中使用,NVIDIA A100引入了新的内存错误恢复功能,可以提高恢复能力,避免影响正在运行的CUDA应用程序。先前架构上不可纠正的ECC错误将影响GPU上的所有运行工作负载,需要重置GPU。

在A100上,影响仅限于遇到错误并被终止的应用程序,而其他正在运行的CUDA工作负载不受影响。GPU不再需要重置才能恢复。NVIDIA驱动程序执行动态页面黑名单以标记页面不可用,以便当前和新应用程序不访问受影响的内存区域。

当GPU复位时,作为常规GPU/VM服务窗口的一部分,A100配备了一种称为行重映射的新硬件机制,该机制用备用单元替换内存中降级的单元,并避免在物理内存地址空间中创建任何洞。

带CUDA 11的NVIDIA驱动程序现在报告与行重映射有关的各种度量,包括带内(使用NVML/NVIDIA smi)和带外(使用系统BMC)。A100包括新的带外功能,在更多可用的GPU和NVSwitch遥测,控制和改进的总线传输数据速率之间的GPU和BMC。

为了提高多GPU系统(如DGX A100和HGX A100)的弹性和高可用性,系统软件支持禁用出现故障的GPU或NVSwitch节点的功能,而不是像前几代系统那样禁用整个基板。

CUDA 11是第一个为Arm服务器添加生产支持的版本。通过将Arm的节能CPU体系结构与CUDA结合起来,Arm生态系统将从GPU加速计算中受益,适用于各种用例:从edge、云和游戏到为超级计算机供电。CUDA 11支持Marvell基于ThunderX2的高性能服务器,并与Arm和生态系统中的其他硬件和软件合作伙伴密切合作,以快速实现对GPU的支持。

Third-generation, multi-precision Tensor Cores

NVIDIA A100中的每SM四个大张量核(总共432个张量核)为所有数据类型提供了更快的矩阵乘法累加(MMA)操作:Binary、INT4、INT8、FP16、Bfloat16、TF32和FP64。
您可以通过不同的深度学习框架、CUDA C++提供的CULCAS模板抽象或CUDA库、Cuulover、CursSuror或TunSoRT来访问张量核。

CUDA C++使用张量水平矩阵(WMMA)API来获得张量核。这种便携式API抽象公开了专门的矩阵加载、矩阵乘法和累加运算以及矩阵存储操作,以有效地使用CUDA C++程序的张量核。WMMA的所有函数和数据类型都可以在nvcuda::WMMA命名空间中使用。您还可以使用mma_sync PTX指令直接访问A100(即具有计算能力compute_80及更高版本的设备)的张量核。

CUDA 11增加了对新输入数据类型格式的支持:Bfloat16、TF32和FP64。Bfloat16是一种替代的FP16格式,但精度较低,与FP32的数值范围相匹配。它的使用导致较低的带宽和存储需求,因此更高的吞吐量。BFLAT16作为一个新的CUDA C++ ++ NVBBFLAT16数据类型,通过WMMA暴露在CUAAUBF16.H中,并由各种CUDA数学库支持。

TF32是一种特殊的浮点格式,用于张量核。TF32包括8位指数(与FP32相同)、10位尾数(与FP16精度相同)和一个符号位。它是默认的数学模式,允许您在不更改模型的情况下,通过FP32获得DL训练的加速比。最后,A100为MMA操作提供了双精度(FP64)支持,WMMA接口也支持MMA操作。

Figure 2. Table of supported data types, configurations, and performance for matrix operations.

Programming NVIDIA Ampere architecture GPUs

为了提高GPU的可编程性并利用NVIDIA A100 GPU的硬件计算能力,CUDA 11包含了新的API操作,用于内存管理、任务图加速、新指令和线程通信结构。下面我们来看看这些新操作,以及它们如何使您能够利用A100和NVIDIA安培微体系结构。

内存管理

最大化GPU内核性能的优化策略之一是最小化数据传输。如果内存驻留在全局内存中,则将数据读入二级缓存或共享内存的延迟可能需要几百个处理器周期。

例如,在GV100上,共享内存提供的带宽比全局内存快17倍或比L2快3倍。因此,一些具有生产者-消费者范式的算法可以观察到在内核之间的L2中持久化数据的性能优势,从而获得更高的带宽和性能。

在A100上,CUDA 11提供API操作,以留出40-MB L2缓存的一部分来持久化对全局内存的数据访问。持久化访问优先使用二级缓存的这一预留部分,而对全局内存的正常或流式访问只能在持久化访问未使用二级缓存的这一部分时使用。

二级持久性可以设置为在CUDA流或CUDA图内核节点中使用。在设置二级缓存区域时需要考虑一些因素。例如,多个CUDA内核在不同的流中并发执行,同时具有不同的访问策略窗口,共享二级备用缓存。下面的代码示例显示了为持久性预留二级缓存比率。

cudaGetDeviceProperties( &prop, device_id);

// Set aside 50% of L2 cache for persisting accesses

size_t size = min( int(prop.l2CacheSize * 0.50) , prop.persistingL2CacheMaxSize );

cudaDeviceSetLimit(cudaLimitPersistingL2CacheSize, size);

// Stream level attributes data structure

cudaStreamAttrValue attr ;​

attr.accessPolicyWindow.base_ptr = /*
beginning of range in global memory */ ;​

attr.accessPolicyWindow.num_bytes = /*
number of bytes in range */ ;​

// hitRatio causes the hardware to select the memory window to designate as persistent in the area set-aside in L2

attr.accessPolicyWindow.hitRatio = /* Hint for cache hit ratio */

// Type of access property on cache hit

attr.accessPolicyWindow.hitProp = cudaAccessPropertyPersisting;​

// Type of access property on cache miss

attr.accessPolicyWindow.hitProp = cudaAccessPropertyStreaming;

cudaStreamSetAttribute(stream,cudaStreamAttributeAccessPolicyWindow,&attr);

虚拟内存管理API操作已经扩展,以支持对固定GPU内存的压缩,从而减少二级到DRAM的带宽。这对于深入学习训练和推理用例非常重要。使用cuMemCreate创建可共享内存句柄时,将向API操作提供分配提示。

诸如3D模板或卷积等算法的有效实现涉及内存复制和计算控制流模式,其中数据从全局内存传输到线程块的共享内存中,然后是使用该共享内存的计算。全局到共享内存的拷贝被扩展成从全局内存读取到寄存器,然后写入共享内存。

CUDA 11允许您利用新的异步复制(async copy)范式。它本质上与将数据从全局复制到共享内存与计算重叠,并避免使用中间寄存器或一级缓存。异步复制的好处是:控制流不再两次遍历内存管道,并且不使用中间寄存器可以减少寄存器压力,增加内核占用率。在A100上,异步复制操作是硬件加速的。

下面的代码示例显示了一个使用异步复制的简单示例。生成的代码虽然性能更高,但可以通过多批异步复制操作的流水线进一步优化。这种额外的流水线可以消除代码中的一个同步点。
异步拷贝在CUDA 11中作为一个实验特性提供,并使用协作组集合公开。CUDA C++编程指南包括使用A级副本和多级加速流水线的AAA副本和A100中硬件加速的屏障操作的更高级示例。

//Without async-copy using namespace nvcuda::experimental;shared extern int smem[];​ // algorithm loop iteration​while ( … )
{​
__syncthreads(); // load element into shared mem for ( i = … ) {​ // uses intermediate register //
{int tmp=g[i]; smem[i]=tmp;}
smem[i] = gldata[i]; ​
}
​//With async-copy using namespace nvcuda::experimental;shared extern int smem[];​
pipeline pipe; // algorithm loop iteration​while ( … )
{​ __syncthreads(); // load element into shared mem for ( i = … ) {​ // initiate async memory copy
memcpy_async(smem[i], gldata[i], pipe); ​ }​ // wait for async-copy to complete
pipe.commit_and_wait();
__syncthreads();​
/* compute on smem[] */​ }​

任务图加速

CUDA图在CUDA 10中引入,代表了一种使用CUDA提交工作的新模型。一个图由一系列操作组成,如内存拷贝和内核启动,这些操作通过依赖关系连接起来,并与执行分开定义。

任务图允许定义一次重复运行的执行流。它们可以减少累计的发射开销,并提高应用程序的总体性能。这尤其适用于深度学习应用程序,这些应用程序可能会在任务大小和运行时减少的情况下启动多个内核,或者在任务之间具有复杂的依赖关系。

从A100开始,GPU提供任务图硬件加速来预取网格启动描述符、指令和常量。与以前的gpu(如V100)相比,这改善了在A100上使用CUDA图的内核启动延迟。

CUDAGraphAPI操作现在有一个轻量级机制来支持对实例化的图的就地更新,而不需要重建图。在图的重复实例化过程中,节点参数(如内核参数)通常会在图拓扑保持不变的情况下更改。图形API操作提供了一种更新整个图形的机制,在该机制中,您可以提供具有更新的节点参数的拓扑上相同的cudaGraph_t对象,或者显式更新单个节点。

此外,CUDA图现在支持协同内核启(cuLaunchCooperativeKernel),包括与CUDA流对等的流捕获。

线程集

下面是CUDA 11为协作组添加的一些增强,在CUDA 9中引入。协作组是一种集体编程模式,旨在使您能够显式地表示线程可以通信的粒度。这使得CUDA中出现了新的协作并行模式。

在CUDA 11中,协作组集合公开了新的A100硬件特性,并添加了一些API增强。有关完整的更改列表的更多信息,请参见CUDA C++编程指南。

A100引入了一个新的reduce指令,它对每个线程提供的数据进行操作。这是一个使用协作组的新集合,它提供了一个可移植的抽象,也可以在旧的架构上使用。reduce操作支持算术(例如add)和逻辑(例如and)操作。下面的代码示例显示了reduce集合。

// Simple Reduction Sum
#include <cooperative_groups/reduce.h>

const int threadId = cta.thread_rank();
int val = A[threadId];
// reduce across tiled partition
reduceArr[threadId] = cg::reduce(tile, val, cg::plus());
// synchronize partition
cg::sync(cta);
// accumulate sum using a leader and return sum

协作组提供了将父组划分为一维子组的集合操作(标记为“分区”),在这些子组中,线程合并在一起。这对于试图通过条件语句的基本块跟踪活动线程的控制流特别有用。
例如,可以使用标记的分区从一个warp级别组(不受2次方的限制)中形成多个分区,并在原子添加操作中使用。labeled_partition API操作计算条件标签,并将标签值相同的线程分配到同一组中。

以下代码示例显示自定义线程分区:

// Get current active threads (that is, coalesced_threads())cg::coalesced_group active = cg::coalesced_threads(); // Match threads with the same label using match_any()
int bucket = active.match_any(value);
cg::coalesced_group subgroup = cg::labeled_partition(active, bucket); // Choose a leader for each partition (for example, thread_rank = 0)//
if (subgroup.thread_rank() == 0)
{
threadId = atomicAdd(&addr[bucket], subgroup.size());
} // Now use shfl to transfer the result back to all threads in partition
return (subgroup.shfl(threadId, 0));

CUDA C++ language and compiler improvements

CUDA 11也是第一个正式包含CUB作为CUDA工具包的一部分的版本。CUB现在是支持的CUDA C++核心库之一。

CUDA 11的nvcc的主要特性之一是支持链路时间优化(LTO)以提高单独编译的性能。LTO使用–dlink time opt或-dlto选项,在编译期间存储中间代码,然后在链接时执行高级优化,例如跨文件内联代码。

CUDA 11中的NVCC增加了对ISO C++ 17的支持,并支持PGI、GCC、CLAN、ARM和微软VisualStudio上的新主机编译器。如果要尝试尚未支持的主机编译器,则在编译生成工作流期间,nvcc支持一个新的–allow-unsupported-compiler标志。nvcc增加了其他新功能,包括:

改进的lambda支持

依赖项文件生成增强功能(-MD,-MMD选项)

传递选项到宿主编译器

Figure 4. Platform support in CUDA 11.

CUDA libraries

CUDA 11中的库通过在线性代数、信号处理、基本数学运算和图像处理中常见的api之后使用最新和最强大的A100硬件特性,继续突破性能和开发人员生产力的界限。

在线性代数库中,您将看到A100上所有精度的张量核加速度,包括FP16、Bfloat16、TF32和FP64。这包括cuBLAS中的BLAS3运算、cuSOLVER中的因子分解和稠密线性解算,以及cuTENSOR中的张量收缩。

除了提高了精度范围外,还消除了张量核加速度对矩阵尺寸和对准的限制。对于适当的精度,加速度现在是自动的,不需要用户选择加入。cuBLAS的启发式算法在GPU实例上运行时自动适应资源,MIG在A100上运行。

Figure 6. Mixed-precision matrix multiply on A100 with cuBLAS.

CurLASS,CUDA C++模板的高性能GEMM抽象,支持A100提供的各种精度模式。有了CUDA11,CUTLASS现在可以实现与cuBLAS
95%以上的性能对等。这允许您编写自己的自定义CUDA内核,以便在NVIDIA GPU中编程张量内核。

cuFFT利用A100中较大的共享内存大小,从而在较大的批处理大小下为单精度fft带来更好的性能。最后,在多GPU A100系统上,袖口可伸缩,每GPU的性能是V100的两倍。
nvJPEG是一个GPU加速的JPEG解码库。与NVIDIA DALI(一个数据增强和图像加载库)一起,可以加速对图像分类模型,特别是计算机视觉的深入学习训练。图书馆加速了深度学习工作流的图像解码和数据扩充阶段。

A100包括一个5核硬件JPEG解码引擎,nvJPEG利用硬件后端对JPEG图像进行批量处理。通过专用硬件块的JPEG加速减轻了CPU上的瓶颈,并允许更好的GPU利用率。

选择硬件解码器由给定图像的nvjpeg解码自动完成,或者通过使用nvjpegCreateEx init函数显式选择硬件后端来完成。nvJPEG提供了基线JPEG解码的加速,以及各种颜色转换格式,例如YUV 420、422和444。

与仅使用CPU的处理相比,这将使图像解码速度提高18倍。如果您使用DALI,您可以直接受益于这种硬件加速,因为nvJPEG是抽象的。

Figure 9. nvJPEG Speedup vs. CPU. (Batch 128 with Intel Platinum 8168 @2GHz 3.7GHz Turbo HT on; with TurboJPEG)

CUDA数学库中的特性比一篇文章所能涵盖的要多得多。

Developer tools

CUDA 11继续在现有的开发工具组合中添加丰富的特性。这包括熟悉的Visual Studio插件、NVIDIA Nsight Integration for Visual Studio和Eclipse插件版本。它还包括独立的工具,如用于内核分析的Nsight Compute和用于系统范围性能分析的Nsight系统。Nsight Compute和Nsight系统现在在CUDA支持的所有三种CPU体系结构上都受支持:x86、POWER和Arm64。

Nsight Compute for CUDA 11的一个关键特性是能够生成应用程序的屋顶模型。屋顶模型是一种直观的方法,通过将浮点性能、算术强度和内存带宽结合到二维图中,您可以直观地了解内核特性。

通过查看屋顶线模型,可以快速确定内核是计算绑定的还是内存绑定的。您还可以了解进一步优化的潜在方向,例如,靠近屋顶线的内核可以优化使用计算资源。

有关详细信息,请参见屋顶线性能模型。

Figure 11. A Roofline model in Nsight Compute.

CUDA 11包括Compute Sanitizer,这是一个新一代的功能正确性检查工具,它提供了对越界内存访问和竞争条件的运行时检查。Compute Sanitizer是cuda memcheck工具的替代品。
下面的代码示例显示了计算清理器检查内存访问的示例。

//Out-of-bounds Array Access
global void oobAccess(int* in, int* out){
int bid = blockIdx.x;
int tid = threadIdx.x;
if (bid == 4)
{ out[tid] = in[dMem[tid]]; }}
int main()
{ … // Array of 8 elements, where element 4 causes the OOB std::array<int, Size> hMem = {0, 1, 2, 10, 4, 5, 6, 7};
cudaMemcpy(d_mem, hMem.data(), size,
cudaMemcpyHostToDevice);
oobAccess<<<10, Size>>>(d_in, d_out);
cudaDeviceSynchronize(); … $ /usr/local/cuda-11.0/Sanitizer/compute-sanitizer --destroy-on-device-error kernel --show-backtrace no basic========= COMPUTE-SANITIZERDevice: Tesla T4========= Invalid global read of size 4 bytes========= at 0x480 in /tmp/CUDA11.0/ComputeSanitizer/Tests/Memcheck/basic/basic.cu:40:oobAccess(int*,int*)========= by thread (3,0,0) in block (4,0,0)========= Address 0x7f551f200028 is out of bounds

下面的代码示例显示了用于竞争条件检查的计算清理器示例。

//Contrived Race Condition Example
global void Basic()
{
shared volatile int i;
i = threadIdx.x;
}
int main()
{
Basic<<<1,2>>>();
cudaDeviceSynchronize();
… $/usr/local/cuda-11.0/Sanitizer/compute-sanitizer --destroy-on-device-error kernel --show-backtrace no --tool racecheck --racecheck-report hazard raceBasic========= COMPUTE-SANITIZER========= ERROR: Potential WAW hazard detected at
shared 0x0 in block (0,0,0) :========= Write Thread (0,0,0) at 0x100 in /tmp/CUDA11.0/ComputeSanitizer/Tests/Racecheck/raceBasic/raceBasic.cu:11:Basic(void)========= Write Thread (1,0,0) at 0x100 in /tmp/CUDA11.0/ComputeSanitizer/Tests/Racecheck/raceBasic/raceBasic.cu:11:Basic(void)========= Current Value : 0, Incoming Value : 1================== RACECHECK SUMMARY: 1 hazard displayed (1 error, 0 warnings)

最后,尽管CUDA11不再支持在macOS上运行应用程序,但我们正在为macOS主机上的用户提供开发工具:

· Remote target debugging using cuda-gdb

· NVIDIA Visual Profiler

· Nsight Eclipse plugins

· The Nsight family of tools for remote profiling or tracing

Summary

CUDA11提供了一个基本的开发环境,用于为NVIDIA安培GPU体系结构构建应用程序,并在NVIDIA A100上为人工智能、数据分析和HPC工作负载构建强大的服务器平台,这两个平台都用于内部部署(DGX A100)和云部署(HGX A100)。

Figure 12. Different ways to get CUDA 11.

CUDA 11即将上市。与往常一样,您可以通过多种方式获得CUDA 11:下载本地安装程序包、使用包管理器安装或从各种注册中心获取容器。对于企业部署,CUDA11还包括RHEL8的驱动程序打包改进,使用模块化流来提高稳定性和减少安装时间。

要了解有关CUDA 11的更多信息并获得问题的答案,请注册以下即将举行的在线研讨会:

· Inside the NVIDIA Ampere Architecture

· CUDA New Features and Beyond

· Inside the HPC SDK: The Compilers, Libraries, and Tools for Accelerated Computing

· CUDA on NVIDIA Ampere Architecture: Taking Your Algorithms to the Next Level of Performance

· Optimizing Applications for NVIDIA Ampere GPU Architecture

· Tensor Core Performance on NVIDIA GPUs: The Ultimate Guide

· Developing CUDA Kernels to Push Tensor Cores to the Absolute Limit on NVIDIA A100

另外,请注意以下有关GTC的谈话,深入探讨本帖中所涉及的A100的功能。

· How CUDA Math Libraries Can Help You Unleash the Power of the New NVIDIA A100 GPU

· Inside NVIDIA’s ​Multi-Instance GPU Feature

· CUDA Developer Tools: Overview & Exciting New Features​​

CUDA 11功能展示相关推荐

  1. CUDA 11功能清单

    CUDA 11功能清单 基于NVIDIA Ampere GPU架构的新型NVIDIA A100 GPU在加速计算方面实现了最大的飞跃.A100 GPU具有革命性的硬件功能,CUDA 11与A100一起 ...

  2. PyTorch 1.7发布,支持CUDA 11、Windows分布式训练

    机器之心报道 参与:魔王.小舟 昨日,PyTorch 团队发布 PyTorch 1.7 版本.该版本增添了很多新特性,如支持 CUDA 11.Windows 分布式训练.增加了支持快速傅里叶变换(FF ...

  3. PyTorch 1.7发布:支持CUDA 11、Windows分布式训练

    木易 发自 凹非寺  量子位 报道 | 公众号 QbitAI 自从7月份CUDA 11发布以来,就陆陆续续听到了网友类似的吐槽: 这正说着,10月27日,PyTorch团队发布了PyTorch 1.7 ...

  4. Bootstrap4+MySQL前后端综合实训-Day09-AM【项目功能展示视频、小组汇报PPT、项目介绍】

    [Bootstrap4前端框架+MySQL数据库]前后端综合实训[10天课程 博客汇总表 详细笔记][附:实训所有代码] 目   录 项目功能展示视频(视频地址:https://live.csdn.n ...

  5. 太棒了!PyTorch 1.7发布,支持CUDA 11、Windows分布式训练

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:机器之心 AI博士笔记系列推荐 周志华<机器学习> ...

  6. PyTorch 1.7 发布:支持 CUDA 11、FFT 新 API、及 Windows 分布式训练

    PyTorch 1.7 现已发布,此版本增加了许多新的 API.包括对与 NumPy 兼容的 FFT 操作的支持.用于性能分析的工具.以及对基于分布式数据并行(Distributed Data Par ...

  7. 购买阿里云GPU虚拟化型实例规格族vgn6i抢占式实例并搭建CUDA 11.5和cuDNN 8.3.0

    1.阿里云GPU虚拟化型实例规格族vgn6i 官网地址:https://help.aliyun.com/document_detail/25378.htm?spm=a2c4g.11186623.0.0 ...

  8. SAP MM初阶之ERS功能展示

    SAP MM初阶之ERS功能展示 ERS - Evaluated Receipt Settlement(评估收货结算)是自动结算货物收货的过程.根据采购订单和收货的信息,在系统中自动过帐供应商发票(无 ...

  9. SAP QM 源检验(Source Inspection)功能展示

    SAP QM 源检验(Source Inspection)功能展示 SAP QM模块的源检验(Source Inspection),又称外检.它是一个很好的功能,可以实现如果外检不合格,则不让业务执行 ...

最新文章

  1. db2 linux 导入数据_「软件资料」-「软件使用」-Linux 导入、导出 MySQL 数据库命令...
  2. 在AngularJS中读取查询参数的最简洁方法是什么?
  3. Windows XP中防火墙后如何实现共享(图)
  4. 2020-11-6(简述html)
  5. python入门学习:4.if语句
  6. gc java root_聊聊Java的GC机制
  7. Docker - 在CentOS 7中安装Docker
  8. jQuery - (JQuery datatables api 使用解读)
  9. data数值设置 vue_怎么改变vue中data的数据
  10. PhpYun人才系统 与 Discuz 社区 通过 Ucenter 做会员整合
  11. Markdown编辑器基本语法
  12. mysql的事务隔离级别
  13. 监听是否到达页面滑动的可视区域最底部
  14. Python实现的文件夹同步
  15. 【大数据处理技术】实验7(推荐林子雨老师的教程)
  16. 鸡兔同笼问题c语言编程,鸡兔同笼问题C语言程序编写
  17. Vimac 0.3.14最新版 (一款让你用键盘代替鼠标软件)
  18. html单元格溢出,excel如何超出单元格显示
  19. Bootstrap的js插件之側边栏停靠(affix)
  20. 返利网app有那些?哪一个最好用?

热门文章

  1. 2022-2028年中国儿童保健品行业市场研究及前瞻分析报告
  2. 2022-2028年中国激光切管机行业市场研究及前瞻分析报告
  3. do还是doing imagine加to_中学必背英语短语集合:54个doing动名词的固定搭配
  4. Linux shell 学习笔记(6)— vim 编辑器使用方法及技巧
  5. 矩阵拼接 cat padding_pytorch
  6. Python 读取文本时的 read/readline/readlines
  7. kwargs.pop是什么意思
  8. 从底层吃透java内存模型(JMM)、volatile、CAS
  9. ADAS摄像头20个技术挑战
  10. X-Deep Learning功能模块