文章目录

  • 五、在MINST-FASHION上实现神经网络的学习流程
    • 1 导库,设置各种初始值
    • 2 导入数据,分割小批量
    • 3 定义神经网络的架构
    • 4 定义训练函数
    • 5 进行训练与评估
  • 六、简介版

五、在MINST-FASHION上实现神经网络的学习流程

本节课我们讲解了神经网络使用小批量随机梯度下降进行迭代的流程,现在我们要整合本节课中所有的代码实现一个完整的训练流程。首先要梳理一下整个流程:
1)设置步长lr ,动量值gamma,迭代次数 epochs,batch_size等信息,(如果需要)设置初始权重w0 ,
2)导入数据,将数据切分成batches
3)定义神经网络架构
4)定义损失函数L ( w ) L(w)L(w),如果需要的话,将损失函数调整成凸函数,以便求解最小值
5)定义所使用的优化算法
6)开始在epoches和batch上循环,执行优化算法:
6.1)调整数据结构,确定数据能够在神经网络、损失函数和优化算法中顺利运行
6.2)完成向前传播,计算初始损失
6.3)利用反向传播,在损失函数L ( w ) L(w)L(w)上对每一个w ww求偏导数
6.4)迭代当前权重
6.5)清空本轮梯度
6.6)完成模型进度与效果监控
7)输出结果

1 导库,设置各种初始值

import torch
from torch import nn
from torch import optim
from torch.nn import functional as F
from torch.utils.data import TensorDataset
from torch.utils.data import DataLoader
#确定数据、确定优先需要设置的值
lr = 0.15
gamma = 0.8
epochs = 5
bs = 128

2 导入数据,分割小批量

以往我们的做法是:

#torch.manual_seed(420)
#X = torch.rand((50000,20),dtype=torch.float32) * 100 #要进行迭代了,增加样本数量
#y = torch.randint(low=0,high=3,size=(50000,1),dtype=torch.float32)
#data = TensorDataset(X,y)
#data_withbatch = DataLoader(data,batch_size=bs, shuffle = True)

这次我们要使用PyTorch中自带的数据,MINST-FATION。

简介代码:

#==================简洁代码====================
import torchvision
import torchvision.transforms as transforms
mnist = torchvision.datasets.FashionMNIST(root='~/Datasets/FashionMNIST', train=True, download=False, transform=transforms.ToTensor())
batchdata = DataLoader(mnist,batch_size=bs, shuffle = True)
input_ = mnist.data[0].numel()
output_ = len(mnist.targets.unique())

详细代码:

import torchvision
import torchvision.transforms as transforms
#初次运行时会下载,需要等待较长时间
mnist = torchvision.datasets.FashionMNIST(root='/Users/zhucan/Desktop/FashionMNIST', train=True, download=True, transform=transforms.ToTensor())
len(mnist) #查看特征张量
#60000
mnist.data
#tensor([[[0, 0, 0,  ..., 0, 0, 0],
#         [0, 0, 0,  ..., 0, 0, 0],
#         [0, 0, 0,  ..., 0, 0, 0],
#         ...,
#         [0, 0, 0,  ..., 0, 0, 0],
#         [0, 0, 0,  ..., 0, 0, 0],
#         [0, 0, 0,  ..., 0, 0, 0]],
#
#        [[0, 0, 0,  ..., 0, 0, 0],
#         [0, 0, 0,  ..., 0, 0, 0],
#         [0, 0, 0,  ..., 0, 0, 0],
#         ...,
#         [0, 0, 0,  ..., 0, 0, 0],
#         [0, 0, 0,  ..., 0, 0, 0],
#         [0, 0, 0,  ..., 0, 0, 0]]], dtype=torch.uint8)
#这个张量结构看起来非常常规,可惜的是它与我们要输入到模型的数据结构有差异
mnist.data.shape
#torch.Size([60000, 28, 28])
#查看标签
mnist.targets
#tensor([9, 0, 0,  ..., 3, 0, 5])
#查看标签的类别
mnist.classes
#['T-shirt/top',
# 'Trouser',
# 'Pullover',
# 'Dress',
# 'Coat',
# 'Sandal',
# 'Shirt',
# 'Sneaker',
# 'Bag',
# 'Ankle boot']
#查看图像的模样
mnist[0]
#(tensor([[[0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0039, 0.0000, 0.0000, 0.0510,
#            0.2863, 0.0000, 0.0000, 0.0039, 0.0157, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0039, 0.0039, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0118, 0.0000, 0.1412, 0.5333,
#            0.4980, 0.2431, 0.2118, 0.0000, 0.0000, 0.0000, 0.0039, 0.0118,
#            0.0157, 0.0000, 0.0000, 0.0118],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0235, 0.0000, 0.4000, 0.8000,
#            0.6902, 0.5255, 0.5647, 0.4824, 0.0902, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0471, 0.0392, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.6078, 0.9255,
#            0.8118, 0.6980, 0.4196, 0.6118, 0.6314, 0.4275, 0.2510, 0.0902,
#            0.3020, 0.5098, 0.2824, 0.0588],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0039, 0.0000, 0.2706, 0.8118, 0.8745,
#            0.8549, 0.8471, 0.8471, 0.6392, 0.4980, 0.4745, 0.4784, 0.5725,
#            0.5529, 0.3451, 0.6745, 0.2588],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0039, 0.0039, 0.0039, 0.0000, 0.7843, 0.9098, 0.9098,
#            0.9137, 0.8980, 0.8745, 0.8745, 0.8431, 0.8353, 0.6431, 0.4980,
#            0.4824, 0.7686, 0.8980, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.7176, 0.8824, 0.8471,
#            0.8745, 0.8941, 0.9216, 0.8902, 0.8784, 0.8706, 0.8784, 0.8667,
#            0.8745, 0.9608, 0.6784, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.7569, 0.8941, 0.8549,
#            0.8353, 0.7765, 0.7059, 0.8314, 0.8235, 0.8275, 0.8353, 0.8745,
#            0.8627, 0.9529, 0.7922, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0039, 0.0118, 0.0000, 0.0471, 0.8588, 0.8627, 0.8314,
#            0.8549, 0.7529, 0.6627, 0.8902, 0.8157, 0.8549, 0.8784, 0.8314,
#            0.8863, 0.7725, 0.8196, 0.2039],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0235, 0.0000, 0.3882, 0.9569, 0.8706, 0.8627,
#            0.8549, 0.7961, 0.7765, 0.8667, 0.8431, 0.8353, 0.8706, 0.8627,
#            0.9608, 0.4667, 0.6549, 0.2196],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0157, 0.0000, 0.0000, 0.2157, 0.9255, 0.8941, 0.9020,
#            0.8941, 0.9412, 0.9098, 0.8353, 0.8549, 0.8745, 0.9176, 0.8510,
#            0.8510, 0.8196, 0.3608, 0.0000],
#           [0.0000, 0.0000, 0.0039, 0.0157, 0.0235, 0.0275, 0.0078, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.9294, 0.8863, 0.8510, 0.8745,
#            0.8706, 0.8588, 0.8706, 0.8667, 0.8471, 0.8745, 0.8980, 0.8431,
#            0.8549, 1.0000, 0.3020, 0.0000],
#           [0.0000, 0.0118, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.2431, 0.5686, 0.8000, 0.8941, 0.8118, 0.8353, 0.8667,
#            0.8549, 0.8157, 0.8275, 0.8549, 0.8784, 0.8745, 0.8588, 0.8431,
#            0.8784, 0.9569, 0.6235, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0706, 0.1725, 0.3216, 0.4196,
#            0.7412, 0.8941, 0.8627, 0.8706, 0.8510, 0.8863, 0.7843, 0.8039,
#            0.8275, 0.9020, 0.8784, 0.9176, 0.6902, 0.7373, 0.9804, 0.9725,
#            0.9137, 0.9333, 0.8431, 0.0000],
#           [0.0000, 0.2235, 0.7333, 0.8157, 0.8784, 0.8667, 0.8784, 0.8157,
#            0.8000, 0.8392, 0.8157, 0.8196, 0.7843, 0.6235, 0.9608, 0.7569,
#            0.8078, 0.8745, 1.0000, 1.0000, 0.8667, 0.9176, 0.8667, 0.8275,
#            0.8627, 0.9098, 0.9647, 0.0000],
#           [0.0118, 0.7922, 0.8941, 0.8784, 0.8667, 0.8275, 0.8275, 0.8392,
#            0.8039, 0.8039, 0.8039, 0.8627, 0.9412, 0.3137, 0.5882, 1.0000,
#            0.8980, 0.8667, 0.7373, 0.6039, 0.7490, 0.8235, 0.8000, 0.8196,
#            0.8706, 0.8941, 0.8824, 0.0000],
#           [0.3843, 0.9137, 0.7765, 0.8235, 0.8706, 0.8980, 0.8980, 0.9176,
#            0.9765, 0.8627, 0.7608, 0.8431, 0.8510, 0.9451, 0.2549, 0.2863,
#            0.4157, 0.4588, 0.6588, 0.8588, 0.8667, 0.8431, 0.8510, 0.8745,
#            0.8745, 0.8784, 0.8980, 0.1137],
#           [0.2941, 0.8000, 0.8314, 0.8000, 0.7569, 0.8039, 0.8275, 0.8824,
#            0.8471, 0.7255, 0.7725, 0.8078, 0.7765, 0.8353, 0.9412, 0.7647,
#            0.8902, 0.9608, 0.9373, 0.8745, 0.8549, 0.8314, 0.8196, 0.8706,
#            0.8627, 0.8667, 0.9020, 0.2627],
#           [0.1882, 0.7961, 0.7176, 0.7608, 0.8353, 0.7725, 0.7255, 0.7451,
#            0.7608, 0.7529, 0.7922, 0.8392, 0.8588, 0.8667, 0.8627, 0.9255,
#            0.8824, 0.8471, 0.7804, 0.8078, 0.7294, 0.7098, 0.6941, 0.6745,
#            0.7098, 0.8039, 0.8078, 0.4510],
#           [0.0000, 0.4784, 0.8588, 0.7569, 0.7020, 0.6706, 0.7176, 0.7686,
#            0.8000, 0.8235, 0.8353, 0.8118, 0.8275, 0.8235, 0.7843, 0.7686,
#            0.7608, 0.7490, 0.7647, 0.7490, 0.7765, 0.7529, 0.6902, 0.6118,
#            0.6549, 0.6941, 0.8235, 0.3608],
#           [0.0000, 0.0000, 0.2902, 0.7412, 0.8314, 0.7490, 0.6863, 0.6745,
#            0.6863, 0.7098, 0.7255, 0.7373, 0.7412, 0.7373, 0.7569, 0.7765,
#            0.8000, 0.8196, 0.8235, 0.8235, 0.8275, 0.7373, 0.7373, 0.7608,
#            0.7529, 0.8471, 0.6667, 0.0000],
#           [0.0078, 0.0000, 0.0000, 0.0000, 0.2588, 0.7843, 0.8706, 0.9294,
#            0.9373, 0.9490, 0.9647, 0.9529, 0.9569, 0.8667, 0.8627, 0.7569,
#            0.7490, 0.7020, 0.7137, 0.7137, 0.7098, 0.6902, 0.6510, 0.6588,
#            0.3882, 0.2275, 0.0000, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.1569,
#            0.2392, 0.1725, 0.2824, 0.1608, 0.1373, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000],
#           [0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000, 0.0000,
#            0.0000, 0.0000, 0.0000, 0.0000]]]),
#  9)
import matplotlib.pyplot as plt
plt.imshow(mnist[0][0].view((28, 28)).numpy()); #imageshow

plt.imshow(mnist[1][0].view((28, 28)).numpy());
#分割batch
batchdata = DataLoader(mnist,batch_size=bs, shuffle = True) #总共多少个batch?
len(batchdata) #查看会放入进行迭代的数据结构
#15
for x,y in batchdata:print(x.shape)print(y.shape)break
#torch.Size([128, 1, 28, 28])
#torch.Size([128])
input_ = mnist.data[0].numel() #特征的数目,一般是第一维之外的所有维度相乘的数
output_ = len(mnist.targets.unique()) #分类的数目
#最好确认一下没有错误
input_
#784
output_
#10

3 定义神经网络的架构

#定义神经网路的架构
class Model(nn.Module):def __init__(self,in_features=10,out_features=2):super().__init__() #self.normalize = nn.BatchNorm2d(num_features=1)self.linear1 = nn.Linear(in_features,128,bias=False)self.output = nn.Linear(128,out_features,bias=False)def forward(self, x):#x = self.normalize(x)x = x.view(-1, 28*28)#需要对数据的结构进行一个改变,这里的“-1”代表,我不想算,请pytorch帮我计算sigma1 = torch.relu(self.linear1(x))z2 = self.output(sigma1)sigma2 = F.log_softmax(z2,dim=1)return sigma2

4 定义训练函数

def fit(net,batchdata,lr=0.01,epochs=5,gamma=0):criterion = nn.NLLLoss() #定义损失函数opt = optim.SGD(net.parameters(), lr=lr,momentum=gamma) #定义优化算法correct = 0samples = 0for epoch in range(epochs):for batch_idx, (x,y) in enumerate(batchdata):y = y.view(x.shape[0])sigma = net.forward(x)loss = criterion(sigma,y)loss.backward()opt.step()opt.zero_grad()#求解准确率yhat = torch.max(sigma,1)[1]correct += torch.sum(yhat == y)samples += x.shape[0]if (batch_idx+1) % 125 == 0 or batch_idx == len(batchdata)-1:print('Epoch{}:[{}/{}({:.0f}%)]\tLoss:{:.6f}\t Accuracy:{:.3f}'.format(   epoch+1,samples,len(batchdata.dataset)*epochs,100*samples/(len(batchdata.dataset)*epochs),loss.data.item(),float(correct*100)/samples))

5 进行训练与评估

#实例化神经网络,调用优化算法需要的参数
torch.manual_seed(420)
net = Model(in_features=input_, out_features=output_)
fit(net,batchdata,lr=lr,epochs=epochs,gamma=gamma)
#Epoch1:[16000/300000(5%)]  Loss:0.314621    Accuracy:88.287
#Epoch1:[32000/300000(11%)] Loss:0.377433    Accuracy:88.159
#Epoch1:[48000/300000(16%)] Loss:0.380144    Accuracy:88.148
#Epoch1:[60000/300000(20%)] Loss:0.310791    Accuracy:88.140
#Epoch2:[76000/300000(25%)] Loss:0.273138    Accuracy:88.292
#Epoch2:[92000/300000(31%)] Loss:0.311703    Accuracy:88.390
#Epoch2:[108000/300000(36%)]    Loss:0.256979    Accuracy:88.397
#Epoch2:[120000/300000(40%)]    Loss:0.302862    Accuracy:88.426
#Epoch3:[136000/300000(45%)]    Loss:0.215847    Accuracy:88.585
#Epoch3:[152000/300000(51%)]    Loss:0.330663    Accuracy:88.638
#Epoch3:[168000/300000(56%)]    Loss:0.219652    Accuracy:88.644
#Epoch3:[180000/300000(60%)]    Loss:0.352059    Accuracy:88.672
#Epoch4:[196000/300000(65%)]    Loss:0.294500    Accuracy:88.699
#Epoch4:[212000/300000(71%)]    Loss:0.370549    Accuracy:88.747
#Epoch4:[228000/300000(76%)]    Loss:0.331915    Accuracy:88.813
#Epoch4:[240000/300000(80%)]    Loss:0.371244    Accuracy:88.828
#Epoch5:[256000/300000(85%)]    Loss:0.303841    Accuracy:88.883
#Epoch5:[272000/300000(91%)]    Loss:0.293404    Accuracy:88.950
#Epoch5:[288000/300000(96%)]    Loss:0.193660    Accuracy:88.986
#Epoch5:[300000/300000(100%)]   Loss:0.289494    Accuracy:88.994

我们现在已经完成了一个最基本的、神经网络训练并查看训练结果的代码,是不是感觉已经获得了很多支持呢?我们的模型最后得到的结果属于中规中矩,毕竟我们设置的网格结构只是最普通的全连接层,并且我们并没有对数据进行任何的处理或增强(在神经网络架构中,有被注释掉的两行关于batch normalization的代码,取消注释,你会看到神经网络的准确率瞬间增加了5%,这是常用的处理之一)。已经成熟的、更加稳定的神经网络架构可以很轻易在MINST-FASHION数据集上获得99%的准确率,因此我们还有很长的路要走。从下节课开始,我们将学习更完整的训练流程,并学习神经网络性能与效果优化相关的更多内容。








六、简介版




第十一课:(2)在MINST-FASHION上实现神经网络的学习流程相关推荐

  1. 【麦可网】Cocos2d-X跨平台游戏开发学习笔记---第二十一课:Cocos2D-X网格特效1-3

    [麦可网]Cocos2d-X跨平台游戏开发---学习笔记 第二十一课:Cocos2D-X网格特效1-3 ================================================ ...

  2. 量化交易 实战第十一课 回归法选股 part 1

    量化交易 实战第十一课 回归法选股 part 1 概述 回归法选股流程 步骤分析 代码 导包 1. 准备日期数据 2. 准备因子数据 3. 获取价格 4. 计算对应的收益率 5. 填充因子收益率 6. ...

  3. Kali Linux Web 渗透测试视频教程—第十一课-扫描、sql注入、上传绕过

    Kali Linux Web 渗透测试视频教程-第十一课-扫描.sql注入.上传绕过 文/玄魂 原文链接:http://www.xuanhun521.com/Blog/2014/10/25/kali- ...

  4. 八年级信息技术第五课用计算机写作,第十一课“用计算机写作”ppt课件2信息技术七上.ppt...

    第十一课"用计算机写作"ppt课件2信息技术七上 第十一课 用计算机写作 ;返回;二.教学重点与难点 ;(1)学生活动:观察.讨论. 教师活动: ;学生活动:明确学习目标. ?设计 ...

  5. Coursera公开课笔记: 斯坦福大学机器学习第十一课“机器学习系统设计(Machine learning system design)”

    Coursera公开课笔记: 斯坦福大学机器学习第十一课"机器学习系统设计(Machine learning system design)" 斯坦福大学机器学习斯坦福大学机器学习第 ...

  6. NeHe OpenGL教程 第二十一课:线的游戏

    转自[翻译]NeHe OpenGL 教程 前言 声明,此 NeHe OpenGL教程系列文章由51博客yarin翻译(2010-08-19),本博客为转载并稍加整理与修改.对NeHe的OpenGL管线 ...

  7. 第十一课 区块链常用共识算法介绍

    上一节课我们学习了共识算法理论基础,今天我们继续深入学习区块链共识算法,通过这节课我们将了解工作量证明.权威证明.权威授权证明.实用拜占庭容错等相关内容. 在学习课程的时候,你也可以领取BaaS平台为 ...

  8. 第十一课 Kubernetes生产级实践-ServiceMesh代表作istio

    第十一课 Kubernetes生产级实践-ServiceMesh代表作istio tags: k8s 慕课网 categories: ServiceMesh istio 文章目录 第十一课 Kuber ...

  9. 第十一课_编程语言发展史

    计算机编程语言的发展史 本课链接:计算机科学速成课第十一课 本节主要内容:计算机编程语言的发展史 使用计算机编写程序的发展史可以分为三个阶段: 一.第一阶段 使用二进制编写程序,先在纸上写伪代码,再人 ...

  10. OpenGL教程翻译 第二十一课 聚光灯

    第二十一课 聚光灯 原文地址:http://ogldev.atspace.co.uk/(源码请从原文主页下载) 背景 聚光灯是第三个也是最后一个我们将要介绍的光源类型(至少在一段时间内).他比平行光和 ...

最新文章

  1. led灯条串联图_飞利浦32寸LED液晶显示器故障维修记
  2. iphone6s无4g显示无服务器,iPhone 6S无信号,镇定修复显现4G
  3. C语言关键字 ISO/ANSI C90 C99 C11
  4. 大道至简第三章。感受。
  5. leetcode - 416. 分割等和子集
  6. linux cfs调度器_模型实现
  7. 布林通道参数用20还是26_布林通道(BOLL)策略的投资效果如何?
  8. 在VS中查看文件是谁签出的
  9. Metasploit中meterpreter里cmd乱码解决办法
  10. oracle切割字符串函数,Oracle字符串分割函数
  11. Hadoop-day01_(java代码模拟hadoop存储数据)
  12. navigator 导航标签
  13. Photoshop-选区的应用
  14. MATLAB学习笔记(一)常值函数与跳变函数的绘制
  15. cgroup-net_cls子系统分析
  16. python语音特征提取_使用Python从视频中提取语音
  17. 基于arduino的智能家居系统
  18. 公共基础知识:笔的演变
  19. [LBS学习笔记3]redis geo地理位置查询分析
  20. 跟着廖雪峰学python 001

热门文章

  1. IT公司速查手册的各大IT公司薪资和待遇内幕
  2. 三星s7250d下载php,HTML5表现令人满意_三星 S7250D(Wave M)_手机其它OS-中关村在线...
  3. 抢先式多线程网络蜘蛛
  4. 编码的奥秘:电筒密谈
  5. 北京的雾霾是大风吹走的吗
  6. 深入浅出Python机器学习3——K最近邻算法
  7. 10个实现炫酷UI设计效果的CSS生成工具
  8. Linux脚本(shell)详解
  9. SSM实现课程管理系统
  10. 喜讯 | 大势智慧获得全球软件领域最高权威CMMI5认证