摘要:六一儿童节,快来训练一款自己的游戏 AI,用代码让马里奥从大反派酷霸王的魔掌里救回桃花公主。

本文分享自华为云社区《儿童节,和 AI 一起通关 “超级马里奥兄弟”》,作者:华为云社区精选。

在蘑菇王国,流传着这样一个故事:

某天,操纵着强力魔法的大乌龟酷霸王一族侵略了蘑菇们居住的和平王国。蘑菇一族都被酷霸王变成了岩石、砖块等形状,蘑菇王国即将灭亡。

只有蘑菇王国的桃花公主,才能解开魔法,让蘑菇们苏醒。

然而,她却被大魔王酷霸王所捉住。

为了打倒乌龟一族、救出桃花公主、给蘑菇王国带回和平,水管工马里奥决定站出来,向酷霸王发起挑战。

是的,这就是童年游戏《超级马里奥》的故事。

你是不是仍旧对马里奥这个游戏记忆犹新,是不是仍旧对过关焦头烂额,六一儿童节,快来训练一款自己的游戏 AI,用代码让马里奥从大反派酷霸王的魔掌里救回桃花公主。

当 AI 玩起超级马里奥

基于华为云一站式AI开发平台ModelArts,利用强化学习中的 PPO 算法来玩超级马里奥,对于绝大部分关卡,训练出来的 AI 智能体都可以在 1500 个 episode 内学会过关。

ModelArts 是面向开发者的一站式 AI 平台,支持海量数据预处理及交互式智能标注、大规模分布式训练、自动化模型生成,及端 - 边 - 云模型按需部署能力,可以让 AI 应用开发到商用部署缩短为分钟级别。

就算不懂代码,也可以按照教程案例,通过简单的调参,一步步实现游戏 AI 开发,成为超级马里奥闯关王者。

话不多说,先来看看实际的效果:

超级马里奥游戏 AI 的整体开发流程为:创建马里奥环境 -> 构建 PPO 算法 -> 训练 -> 推理 -> 可视化效果,目前可以在AI Gallery上免费体验。

AI Gallery 是在 ModelArts 的基础上构建的开发者生态社区, 支持算法、模型、数据集、Notebook 案例和技术文章的共享。

下面,童年回忆杀走起。

PPO 算法科普

因为这个游戏 AI 是基于 PPO 算法来训练的,所以先简单科普一下强化学习算法。PPO 算法有两种主要形式:PPO-Penalty 和 PPO-Clip (PPO2)。在这里,我们讨论 PPO-Clip(OpenAI 使用的主要形式)。 PPO 的主要特点如下:

  • PPO 属于 on-policy 算法
  • PPO 同时适用于离散和连续的动作空间
  • 损失函数 PPO-Clip 算法最精髓的地方就是加入了一项比例用以描绘新老策略的差异,通过超参数 ϵ 限制策略的更新步长:
  • 更新策略:
  • 探索策略 PPO 采用随机探索策略。
  • 优势函数 表示在状态 s 下采取动作 a,相较于其他动作有多少优势,如果 > 0, 则当前动作比平均动作好,反之,则差

算法主要流程大致如下:

看起来有点复杂,不用担心,即便你不懂这些算法,有了华为云 ModelArts,可以跟着下面的步骤轻松实现超级马里奥游戏 AI 的强化学习。

开发步骤

本案例运行环境为 Pytorch-1.0.0,且需使用 GPU 运行,开始之前一定要选择对应的硬件规格。在 ModelArts Jupyter 中,只要点击代码前面的箭头,就能自动运行。

1. 程序初始化

第 1 步:安装基础依赖

!pip install -U pip
!pip install gym==0.19.0
!pip install tqdm==4.48.0
!pip install nes-py==8.1.0
!pip install gym-super-mario-bros==7.3.2

第 2 步:导入相关的库

import os
import shutil
import subprocess as sp
from collections import dequeimport numpy as np
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.multiprocessing as _mp
from torch.distributions import Categorical
import torch.multiprocessing as mp
from nes_py.wrappers import JoypadSpace
import gym_super_mario_bros
from gym.spaces import Box
from gym import Wrapper
from gym_super_mario_bros.actions import SIMPLE_MOVEMENT, COMPLEX_MOVEMENT, RIGHT_ONLY
import cv2
import matplotlib.pyplot as plt
from IPython import displayimport moxing as mox

2. 训练参数初始化

此处划重点,该部分参数可以自己调整,以训练出更好的效果。

opt={"world": 1,                # 可选大关:1,2,3,4,5,6,7,8"stage": 1,                # 可选小关:1,2,3,4 "action_type": "simple",   # 动作类别:"simple","right_only", "complex"'lr': 1e-4,                # 建议学习率:1e-3,1e-4, 1e-5,7e-5'gamma': 0.9,              # 奖励折扣'tau': 1.0,                # GAE参数'beta': 0.01,              # 熵系数'epsilon': 0.2,            # PPO的Clip系数'batch_size': 16,          # 经验回放的batch_size'max_episode':10,          # 最大训练局数'num_epochs': 10,          # 每条经验回放次数"num_local_steps": 512,    # 每局的最大步数"num_processes": 8,        # 训练进程数,一般等于训练机核心数"save_interval": 5,        # 每{}局保存一次模型"log_path": "./log",       # 日志保存路径"saved_path": "./model",   # 训练模型保存路径"pretrain_model": True,    # 是否加载预训练模型,目前只提供1-1关卡的预训练模型,其他需要从零开始训练"episode":5
}

如果你想选择其他关卡时,记得调整参数 world 和 stage ,这里默认的是第一关。

3. 创建环境

结束标志:

  • 胜利:mario 到达本关终点
  • 失败:mario 受到敌人的伤害、坠入悬崖或者时间用完

奖励函数:

  • 得分:收集金币、踩扁敌人、结束时夺旗
  • 扣分:受到敌人伤害、掉落悬崖、结束时未夺旗
# 创建环境
def create_train_env(world, stage, actions, output_path=None):# 创建基础环境env = gym_super_mario_bros.make("SuperMarioBros-{}-{}-v0".format(world, stage))env = JoypadSpace(env, actions)# 对环境自定义env = CustomReward(env, world, stage, monitor=None)env = CustomSkipFrame(env)return env
# 对原始环境进行修改,以获得更好的训练效果
class CustomReward(Wrapper):def __init__(self, env=None, world=None, stage=None, monitor=None):super(CustomReward, self).__init__(env)self.observation_space = Box(low=0, high=255, shape=(1, 84, 84))self.curr_score = 0self.current_x = 40self.world = worldself.stage = stageif monitor:self.monitor = monitorelse:self.monitor = Nonedef step(self, action):state, reward, done, info = self.env.step(action)if self.monitor:self.monitor.record(state)state = process_frame(state)reward += (info["score"] - self.curr_score) / 40.self.curr_score = info["score"]if done:if info["flag_get"]:reward += 50else:reward -= 50if self.world == 7 and self.stage == 4:if (506 <= info["x_pos"] <= 832 and info["y_pos"] > 127) or (832 < info["x_pos"] <= 1064 and info["y_pos"] < 80) or (1113 < info["x_pos"] <= 1464 and info["y_pos"] < 191) or (1579 < info["x_pos"] <= 1943 and info["y_pos"] < 191) or (1946 < info["x_pos"] <= 1964 and info["y_pos"] >= 191) or (1984 < info["x_pos"] <= 2060 and (info["y_pos"] >= 191 or info["y_pos"] < 127)) or (2114 < info["x_pos"] < 2440 and info["y_pos"] < 191) or info["x_pos"] < self.current_x - 500:reward -= 50done = Trueif self.world == 4 and self.stage == 4:if (info["x_pos"] <= 1500 and info["y_pos"] < 127) or (1588 <= info["x_pos"] < 2380 and info["y_pos"] >= 127):reward = -50done = Trueself.current_x = info["x_pos"]return state, reward / 10., done, infodef reset(self):self.curr_score = 0self.current_x = 40return process_frame(self.env.reset())
class MultipleEnvironments:def __init__(self, world, stage, action_type, num_envs, output_path=None):self.agent_conns, self.env_conns = zip(*[mp.Pipe() for _ in range(num_envs)])if action_type == "right_only":actions = RIGHT_ONLYelif action_type == "simple":actions = SIMPLE_MOVEMENTelse:actions = COMPLEX_MOVEMENTself.envs = [create_train_env(world, stage, actions, output_path=output_path) for _ in range(num_envs)]self.num_states = self.envs[0].observation_space.shape[0]self.num_actions = len(actions)for index in range(num_envs):process = mp.Process(target=self.run, args=(index,))process.start()self.env_conns[index].close()def run(self, index):self.agent_conns[index].close()while True:request, action = self.env_conns[index].recv()if request == "step":self.env_conns[index].send(self.envs[index].step(action.item()))elif request == "reset":self.env_conns[index].send(self.envs[index].reset())else:raise NotImplementedError
def process_frame(frame):if frame is not None:frame = cv2.cvtColor(frame, cv2.COLOR_RGB2GRAY)frame = cv2.resize(frame, (84, 84))[None, :, :] / 255.return frameelse:return np.zeros((1, 84, 84))
class CustomSkipFrame(Wrapper):def __init__(self, env, skip=4):super(CustomSkipFrame, self).__init__(env)self.observation_space = Box(low=0, high=255, shape=(skip, 84, 84))self.skip = skipself.states = np.zeros((skip, 84, 84), dtype=np.float32)def step(self, action):total_reward = 0last_states = []for i in range(self.skip):state, reward, done, info = self.env.step(action)total_reward += rewardif i >= self.skip / 2:last_states.append(state)if done:self.reset()return self.states[None, :, :, :].astype(np.float32), total_reward, done, infomax_state = np.max(np.concatenate(last_states, 0), 0)self.states[:-1] = self.states[1:]self.states[-1] = max_statereturn self.states[None, :, :, :].astype(np.float32), total_reward, done, infodef reset(self):state = self.env.reset()self.states = np.concatenate([state for _ in range(self.skip)], 0)return self.states[None, :, :, :].astype(np.float32)

4. 定义神经网络

神经网络结构包含四层卷积网络和一层全连接网络,提取的特征输入 critic 层和 actor 层,分别输出 value 值和动作概率分布。

class Net(nn.Module):def __init__(self, num_inputs, num_actions):super(Net, self).__init__()self.conv1 = nn.Conv2d(num_inputs, 32, 3, stride=2, padding=1)self.conv2 = nn.Conv2d(32, 32, 3, stride=2, padding=1)self.conv3 = nn.Conv2d(32, 32, 3, stride=2, padding=1)self.conv4 = nn.Conv2d(32, 32, 3, stride=2, padding=1)self.linear = nn.Linear(32 * 6 * 6, 512)self.critic_linear = nn.Linear(512, 1)self.actor_linear = nn.Linear(512, num_actions)self._initialize_weights()def _initialize_weights(self):for module in self.modules():if isinstance(module, nn.Conv2d) or isinstance(module, nn.Linear):nn.init.orthogonal_(module.weight, nn.init.calculate_gain('relu'))nn.init.constant_(module.bias, 0)def forward(self, x):x = F.relu(self.conv1(x))x = F.relu(self.conv2(x))x = F.relu(self.conv3(x))x = F.relu(self.conv4(x))x = self.linear(x.view(x.size(0), -1))return self.actor_linear(x), self.critic_linear(x)

5. 定义 PPO 算法

def evaluation(opt, global_model, num_states, num_actions,curr_episode):print('start evalution !')torch.manual_seed(123)if opt['action_type'] == "right":actions = RIGHT_ONLYelif opt['action_type'] == "simple":actions = SIMPLE_MOVEMENTelse:actions = COMPLEX_MOVEMENTenv = create_train_env(opt['world'], opt['stage'], actions)local_model = Net(num_states, num_actions)if torch.cuda.is_available():local_model.cuda()local_model.eval()state = torch.from_numpy(env.reset())if torch.cuda.is_available():state = state.cuda()plt.figure(figsize=(10,10))img = plt.imshow(env.render(mode='rgb_array'))done=Falselocal_model.load_state_dict(global_model.state_dict()) #加载网络参数\while not done:if torch.cuda.is_available():state = state.cuda()logits, value = local_model(state)policy = F.softmax(logits, dim=1)action = torch.argmax(policy).item()state, reward, done, info = env.step(action)state = torch.from_numpy(state)img.set_data(env.render(mode='rgb_array')) # just update the datadisplay.display(plt.gcf())display.clear_output(wait=True)if info["flag_get"]:print("flag getted in episode:{}!".format(curr_episode))torch.save(local_model.state_dict(),"{}/ppo_super_mario_bros_{}_{}_{}".format(opt['saved_path'], opt['world'], opt['stage'],curr_episode))opt.update({'episode':curr_episode})env.close()return Truereturn False
def train(opt):#判断cuda是否可用if torch.cuda.is_available():torch.cuda.manual_seed(123)else:torch.manual_seed(123)if os.path.isdir(opt['log_path']):shutil.rmtree(opt['log_path'])os.makedirs(opt['log_path'])if not os.path.isdir(opt['saved_path']):os.makedirs(opt['saved_path'])mp = _mp.get_context("spawn")#创建环境envs = MultipleEnvironments(opt['world'], opt['stage'], opt['action_type'], opt['num_processes'])#创建模型model = Net(envs.num_states, envs.num_actions)if opt['pretrain_model']:print('加载预训练模型')if not os.path.exists("ppo_super_mario_bros_1_1_0"):mox.file.copy_parallel("obs://modelarts-labs-bj4/course/modelarts/zjc_team/reinforcement_learning/ppo_mario/ppo_super_mario_bros_1_1_0","ppo_super_mario_bros_1_1_0")if torch.cuda.is_available():model.load_state_dict(torch.load("ppo_super_mario_bros_1_1_0"))model.cuda()else:model.load_state_dict(torch.load("ppo_super_mario_bros_1_1_0",torch.device('cpu')))else:model.cuda()model.share_memory()optimizer = torch.optim.Adam(model.parameters(), lr=opt['lr'])#环境重置[agent_conn.send(("reset", None)) for agent_conn in envs.agent_conns]#接收当前状态curr_states = [agent_conn.recv() for agent_conn in envs.agent_conns]curr_states = torch.from_numpy(np.concatenate(curr_states, 0))if torch.cuda.is_available():curr_states = curr_states.cuda()curr_episode = 0#在最大局数内训练while curr_episode<opt['max_episode']:if curr_episode % opt['save_interval'] == 0 and curr_episode > 0:torch.save(model.state_dict(),"{}/ppo_super_mario_bros_{}_{}_{}".format(opt['saved_path'], opt['world'], opt['stage'], curr_episode))curr_episode += 1old_log_policies = []actions = []values = []states = []rewards = []dones = []#一局内最大步数for _ in range(opt['num_local_steps']):states.append(curr_states)logits, value = model(curr_states)values.append(value.squeeze())policy = F.softmax(logits, dim=1)old_m = Categorical(policy)action = old_m.sample()actions.append(action)old_log_policy = old_m.log_prob(action)old_log_policies.append(old_log_policy)#执行actionif torch.cuda.is_available():[agent_conn.send(("step", act)) for agent_conn, act in zip(envs.agent_conns, action.cpu())]else:[agent_conn.send(("step", act)) for agent_conn, act in zip(envs.agent_conns, action)]state, reward, done, info = zip(*[agent_conn.recv() for agent_conn in envs.agent_conns])state = torch.from_numpy(np.concatenate(state, 0))if torch.cuda.is_available():state = state.cuda()reward = torch.cuda.FloatTensor(reward)done = torch.cuda.FloatTensor(done)else:reward = torch.FloatTensor(reward)done = torch.FloatTensor(done)rewards.append(reward)dones.append(done)curr_states = state_, next_value, = model(curr_states)next_value = next_value.squeeze()old_log_policies = torch.cat(old_log_policies).detach()actions = torch.cat(actions)values = torch.cat(values).detach()states = torch.cat(states)gae = 0R = []#gae计算for value, reward, done in list(zip(values, rewards, dones))[::-1]:gae = gae * opt['gamma'] * opt['tau']gae = gae + reward + opt['gamma'] * next_value.detach() * (1 - done) - value.detach()next_value = valueR.append(gae + value)R = R[::-1]R = torch.cat(R).detach()advantages = R - values#策略更新for i in range(opt['num_epochs']):indice = torch.randperm(opt['num_local_steps'] * opt['num_processes'])for j in range(opt['batch_size']):batch_indices = indice[int(j * (opt['num_local_steps'] * opt['num_processes'] / opt['batch_size'])): int((j + 1) * (opt['num_local_steps'] * opt['num_processes'] / opt['batch_size']))]logits, value = model(states[batch_indices])new_policy = F.softmax(logits, dim=1)new_m = Categorical(new_policy)new_log_policy = new_m.log_prob(actions[batch_indices])ratio = torch.exp(new_log_policy - old_log_policies[batch_indices])actor_loss = -torch.mean(torch.min(ratio * advantages[batch_indices],torch.clamp(ratio, 1.0 - opt['epsilon'], 1.0 + opt['epsilon']) *advantages[batch_indices]))critic_loss = F.smooth_l1_loss(R[batch_indices], value.squeeze())entropy_loss = torch.mean(new_m.entropy())#损失函数包含三个部分:actor损失,critic损失,和动作entropy损失total_loss = actor_loss + critic_loss - opt['beta'] * entropy_lossoptimizer.zero_grad()total_loss.backward()torch.nn.utils.clip_grad_norm_(model.parameters(), 0.5)optimizer.step()print("Episode: {}. Total loss: {}".format(curr_episode, total_loss))finish=Falsefor i in range(opt["num_processes"]):if info[i]["flag_get"]:finish=evaluation(opt, model,envs.num_states, envs.num_actions,curr_episode)if finish:breakif finish:break

6. 训练模型

训练 10 Episode,耗时约 5 分钟

train(opt)

7. 使用模型推理游戏

定义推理函数

def infer(opt):if torch.cuda.is_available():torch.cuda.manual_seed(123)else:torch.manual_seed(123)if opt['action_type'] == "right":actions = RIGHT_ONLYelif opt['action_type'] == "simple":actions = SIMPLE_MOVEMENTelse:actions = COMPLEX_MOVEMENTenv = create_train_env(opt['world'], opt['stage'], actions)model = Net(env.observation_space.shape[0], len(actions))if torch.cuda.is_available():model.load_state_dict(torch.load("{}/ppo_super_mario_bros_{}_{}_{}".format(opt['saved_path'],opt['world'], opt['stage'],opt['episode'])))model.cuda()else:model.load_state_dict(torch.load("{}/ppo_super_mario_bros_{}_{}_{}".format(opt['saved_path'], opt['world'], opt['stage'],opt['episode']),map_location=torch.device('cpu')))model.eval()state = torch.from_numpy(env.reset())plt.figure(figsize=(10,10))img = plt.imshow(env.render(mode='rgb_array'))while True:if torch.cuda.is_available():state = state.cuda()logits, value = model(state)policy = F.softmax(logits, dim=1)action = torch.argmax(policy).item()state, reward, done, info = env.step(action)state = torch.from_numpy(state)img.set_data(env.render(mode='rgb_array')) # just update the datadisplay.display(plt.gcf())display.clear_output(wait=True)if info["flag_get"]:print("World {} stage {} completed".format(opt['world'], opt['stage']))breakif done and info["flag_get"] is False:print('Game Failed')break
infer(opt)
World 1 stage 1 completed

最后

六一儿童节,快来华为云 AI Gallery 上体验 AI 闯关超级马里奥,无需考虑计算资源,环境的搭建,在 ModelArts 里跟着运行代码,点击链接在ModelArts里运行简单几行代码,手把手带你5分钟速成游戏王。

华为伙伴暨开发者大会 2022 火热来袭,重磅内容不容错过!

【精彩活动】

勇往直前・做全能开发者→12 场技术直播前瞻,8 大技术宝典高能输出,还有代码密室、知识竞赛等多轮神秘任务等你来挑战。即刻闯关,开启终极大奖!点击踏上全能开发者晋级之路吧!

【技术专题】

未来已来,2022 技术探秘→华为各领域的前沿技术、重磅开源项目、创新的应用实践,站在智能世界的入口,探索未来如何照进现实,干货满满点击了解

点击关注,第一时间了解华为云新鲜技术~

儿童节,和 AI 一起通关 “超级马里奥兄弟”相关推荐

  1. 基于 Paddle2.0 的强化学习新玩法 —— 通关超级马里奥兄弟

    基于 Paddle2.0 的强化学习新玩法 -- 通关超级马里奥兄弟 本文目录 基于 Paddle2.0 的强化学习新玩法 -- 通关超级马里奥兄弟 前言 马里奥游戏环境简介 PPO 算法简介 基于 ...

  2. AI又对游戏下手了,用强化学习通关超级马里奥兄弟

    [飞桨开发者说]王子瑞,四川大学电气工程学院2018级自动化专业本科生,飞桨开发者技术专家PPDE,RoboMaster川大火锅战队成员,强化学习爱好者 超级马里奥兄弟作为几代人的童年回忆,陪伴了我们 ...

  3. AI为超级马里奥兄弟创造了游戏新级别——GECCO 2018最佳论文提名

    作者 | Vanessa Volz.Jacob Schrum.Jialin Liu. Simon M. Lucas.Adam Smith.Sebastian Risi 译者 |林椿眄 编辑 | Jan ...

  4. 游戏感:虚拟感觉的游戏设计师指南——第十三章 超级马里奥兄弟

    这是一本游戏设计方面的好书 转自天:天之虹的博客:http://blog.sina.com.cn/jackiechueng 感谢天之虹的无私奉献 Word版可到本人的资源中下载 第十三章超级马里奥兄弟 ...

  5. linux+tux游戏,Linux吉祥物游戏SuperTux 0.5.0版发布 类《超级马里奥兄弟》

    Supertux是一款跨平台的类似Super Mario Bros(超级马里奥兄弟)的游戏,其比较大的特点是使用了Tux(即Linux系统的的吉祥物)替代马里奥做主角,控制方式非常类似超级马里奥,不过 ...

  6. 【历史上的今天】9 月 13 日:计算机先驱诞生日;第一台装载硬盘的超级计算机;《超级马里奥兄弟》发布

    整理 | 王启隆 透过「历史上的今天」,从过去看未来,从现在亦可以改变未来. 今天是 2021 年 9 月 13 日,在历史上的今天,许多计算机先驱诞生,其中便有个人计算机(PC)之父 Ed Robe ...

  7. 【历史上的今天】9 月 13 日:“海盗湾”创始人出生;第一台装载硬盘的超级计算机;《超级马里奥兄弟》发布

    整理 | 王启隆 透过「历史上的今天」,从过去看未来,从现在亦可以改变未来. 今天是 2022 年 9 月 13 日,在历史上的今天,许多计算机先驱诞生,其中便有个人计算机(PC)之父 Ed Robe ...

  8. 用深度强化学习玩超级马里奥兄弟

    介绍 从本文中,你将学习如何使用 Deep Q-Network 和 Double Deep Q-Network(带代码!)玩超级马里奥兄弟. 超级马里奥是任天堂在 1980 年代开发和发行的著名游戏. ...

  9. 超级马里奥python_在4分钟55秒内观看《疯狂的击败超级马里奥兄弟》

    超级马里奥python There's a new world record for beating Nintendo's 1985 classic Super Mario Bros. Kosmic, ...

最新文章

  1. mybatis注解开发
  2. 树状数组模板1——单点修改区间查询
  3. c3p0 mysql 连接池配置文件_数据库连接池c3p0的使用
  4. NHibernate分页的测试
  5. 计算机社区活动,计算机与信息学院“e修哥”党支部进社区开展志愿服务活动...
  6. BOOST_PP_IS_EMPTY宏相关的测试程序
  7. mysql函数和索引冲突问题_Mysql索引常见问题汇总
  8. mmap和munmap对文件进行操作(读写等)
  9. 圆弧齿轮啮合原理_图解八种齿轮的加工原理
  10. 力扣46. 全排列(JavaScript)
  11. left join效率为什么低_为什么自考的你学习效率特别低?对号入座
  12. cisco接口模式转换
  13. bulma.css_在5分钟内学习Bulma CSS-初学者教程
  14. pyaudio:基于pyaudio利用Python编程从电脑端录制音频保存到指定文件夹+将录音读取出来
  15. 写作分册王诚pdf_后王诚时代|老铁们,管综写作还能跟谁?
  16. java毕业设计广告投放mybatis+源码+调试部署+系统+数据库+lw
  17. H265跟H264编码效率的一个比较
  18. wince植入胎压监测_【折腾】小菲wince车载导航功能扩展
  19. 考研数学 每日一题 第四题
  20. 如何下载并使用HTK工具包

热门文章

  1. 【老米之家老域名课堂小知识】谁在管理域名?
  2. 牧牛商学院,区块链推进经济社会相关领域规则体系重构
  3. 开始觉醒的消费群体该如何连接?
  4. 找资料总结1553B总线协议知识和HI-1575数据手册
  5. MySQL控制流函数-if 、elseif、else、case...when
  6. 英语钻石法则(二)------没必要专门的学习语法
  7. 泰山OFFICE技术讲座:微软雅黑字体的难看及改进
  8. python处理office文件的第三方库_Python读写Excel文件第三方库汇总,你想要的都在这儿!...
  9. 显示桌面图标放到任务栏
  10. 安装SQL Server详细教程