dolphinscheduler搭建以及遇到的问题

  • 1、基础软件安装(必装项请自行安装)**
  • 2、下载二进制tar.gz包**
  • 3、创建部署用户和hosts映射**
  • 4、配置hosts映射和ssh打通及修改目录权限**
  • 5、数据库初始化**
  • 6、修改运行参数**
  • 7、一键部署**
  • 8、登录系统
  • 9、启停服务
  • 附录一:
    • 一、遇到的第一个问题在配置免密登录上,**
    • 二、遇到的第二个问题是程序在运行工作流会报错:**
    • 三、遇到的第三个问题是 资源中心中创建文件或者文件夹时候 报错 hdfs。。**
    • 四、classloader.check-leaked-classloader**
    • 五、提示hadoop_classpath**
    • 六、flink中的dolphinscheduler日志文件不存在**
    • 七、 启动hive任务时候报错:java.lang.NoSuchMethodError:com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V**
    • 八、 停止flink程序不能正常显示状态,报错 Cannt run program “pstree”,no such file。

搭建过程主要是参考官网上的搭建步骤

https://dolphinscheduler.apache.org/zh-cn/docs/1.3.6/user_doc/cluster-deployment.html

1、基础软件安装(必装项请自行安装)**

  • PostgreSQL (8.2.15+) or MySQL (5.7系列):两者任选其一即可,如 MySQL 则需要 JDBC Driver 5.1.47+
    本文主要用的mysql为例

  • JDK (1.8+):必装,请安装好后在 /etc/profile 下配置 JAVA_HOME 及 PATH 变量

  • ZooKeeper (3.4.6+):必装

  • Hadoop (2.6+) or MinIO:选装,如果需要用到资源上传功能,可以选择上传到 Hadoop or MinIO 上

    注意:DolphinScheduler本身不依赖 Hadoop、Hive、Spark,仅是会调用他们的 Client,用于提交对应的任务

2、下载二进制tar.gz包**

  • 请下载最新版本的后端安装包至服务器部署目录,比如创建 /opt/dolphinscheduler 做为安装部署目录,下载地址: 下载,下载后上传 tar 包到该目录中,并进行解压
**# 创建部署目录,部署目录请不要创建在 /root、/home 等高权限目录**
mkdir -p /opt/dolphinscheduler
cd /opt/dolphinscheduler**# 解压缩**
tar -zxvf apache-dolphinscheduler-1.3.6-bin.tar.gz -C /opt/dolphinschedulermv apache-dolphinscheduler-1.3.6-bin  dolphinscheduler-bin

3、创建部署用户和hosts映射**

  • 在所有部署调度的机器上创建部署用户,并且一定要配置 sudo 免密。假如我们计划在 ds1,ds2,ds3,ds4 这 4 台机器上部署调度,首先需要在每台机器上都创建部署用户
**# 创建用户需使用root登录,设置部署用户名,请自行修改,后面以 dolphinscheduler 为例**
useradd dolphinscheduler**# 设置用户密码,请自行修改,后面以 dolphinscheduler123 为例**
echo "dolphinscheduler123" | passwd --stdin dolphinscheduler**# 配置 sudo 免密**
echo 'dolphinscheduler  ALL=(ALL)  NOPASSWD: NOPASSWD: ALL' >> /etc/sudoers
sed -i 's/Defaults    requirett/#Defaults    requirett/g' /etc/sudoers

注意:

  • 因为是以 sudo -u {linux-user} 切换不同 linux 用户的方式来实现多租户运行作业,所以部署用户需要有 sudo 权限,而且是免密的
  • 如果发现 /etc/sudoers 文件中有 “Default requiretty” 这行,也请注释掉
  • 如果用到资源上传的话,还需要在 HDFS或者MinIO 上给该部署用户分配读写的权限

4、配置hosts映射和ssh打通及修改目录权限**

  • 以第一台机器( hostname 为 ds1 )作为部署机,在 ds1 上配置所有待部署机器的 hosts,在 ds1 以 root 登录
vi /etc/hosts# add ip hostname
192.168.xxx.xxx ds1
192.168.xxx.xxx ds2
192.168.xxx.xxx ds3
192.168.xxx.xxx ds4

注意:请删掉或者注释掉 127.0.0.1 这行

  • 同步 ds1 上的 /etc/hosts 到所有部署机器
for ip in ds2 ds3;     # 请将此处 ds2 ds3 替换为自己要部署的机器的 hostname
dosudo scp -r /etc/hosts  $ip:/etc/          # 在运行中需要输入 root 密码
done

备注:当然 通过 sshpass -p xxx sudo scp -r /etc/hosts $ip:/etc/ 就可以省去输入密码了

centos 下 sshpass的安装:

1. 先安装 epelyum install -y epel-releaseyum repolist2. 安装完成 epel 之后,就可以按照 sshpass 了yum install -y sshpass
- 在 ds1 上,切换到部署用户并配置 ssh 本机免密登录
su dolphinscheduler;ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys

注意:正常设置后,dolphinscheduler 用户在执行命令 ssh localhost 是不需要再输入密码

  • 在 ds1 上,配置部署用户 dolphinscheduler ssh 打通到其他待部署的机器

```powershellsu dolphinscheduler;for ip in ds2 ds3;     # 请将此处 ds2 ds3 替换为自己要部署的机器的 hostnamedossh-copy-id  $ip   # 该操作执行过程中需要手动输入 dolphinscheduler 用户的密码done
**# 当然 通过 sshpass -p xxx ssh-copy-id $ip 就可以省去输入密码了**
- 在 ds1 上,修改目录权限,使得部署用户对 dolphinscheduler-bin 目录有操作权限
sudo chown -R dolphinscheduler:dolphinscheduler dolphinscheduler-bin

5、数据库初始化**

  • 进入数据库,默认数据库是 PostgreSQL,如选择 MySQL 的话,后续需要添加 mysql-connector-java 驱动包到 DolphinScheduler 的 lib 目录下,这里以 MySQL 为例
mysql -h192.168.xx.xx -P3306 -uroot -p
  • 进入数据库命令行窗口后,执行数据库初始化命令,设置访问账号和密码。注: {user} 和 {password} 需要替换为具体的数据库用户名和密码
   mysql> CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci;mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'%' IDENTIFIED BY '{password}';mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO '{user}'@'localhost' IDENTIFIED BY '{password}';mysql> flush privileges;
  • 创建表和导入基础数据

    • 修改 conf 目录下 datasource.properties 中的下列配置
      vi conf/datasource.properties
    • 如果选择 MySQL,请注释掉 PostgreSQL 相关配置(反之同理),还需要手动添加 [ mysql-connector-java 驱动 jar ] 包到 lib 目录下,这里下载的是 mysql-connector-java-5.1.47.jar,然后正确配置数据库连接相关信息
 # postgre# spring.datasource.driver-class-name=org.postgresql.Driver# spring.datasource.url=jdbc:postgresql://localhost:5432/dolphinscheduler# mysqlspring.datasource.driver-class-name=com.mysql.jdbc.Driverspring.datasource.url=jdbc:mysql://xxx:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8&allowMultiQueries=true     需要修改ipspring.datasource.username=xxx                       需要修改为上面的{user}值spring.datasource.password=xxx                      需要修改为上面的{password}值
  • 修改并保存完后,执行 script 目录下的创建表及导入基础数据脚本
  sh script/create-dolphinscheduler.sh

注意: 如果执行上述脚本报 “/bin/java: No such file or directory” 错误,请在/etc/profile 下配置 JAVA_HOME 及 PATH 变量

6、修改运行参数**

  • 修改 conf/env 目录下的 dolphinscheduler_env.sh 环境变量(以相关用到的软件都安装在 /opt/soft 下为例)

      export HADOOP_HOME=/opt/soft/hadoopexport HADOOP_CONF_DIR=/opt/soft/hadoop/etc/hadoop# export SPARK_HOME1=/opt/soft/spark1export SPARK_HOME2=/opt/soft/spark2export PYTHON_HOME=/opt/soft/pythonexport JAVA_HOME=/opt/soft/javaexport HIVE_HOME=/opt/soft/hiveexport FLINK_HOME=/opt/soft/flinkexport DATAX_HOME=/opt/soft/datax/bin/datax.pyexport PATH=$HADOOP_HOME/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME:$PATH
    

    注: 这一步非常重要,例如 JAVA_HOME 和 PATH 是必须要配置的,没有用到的可以忽略或者注释掉

  • 将 JDK 软链到 /usr/bin/java 下(仍以 JAVA_HOME=/opt/soft/java 为例)

    sudo ln -s /opt/soft/java/bin/java /usr/bin/java

  • 修改一键部署配置文件 conf/config/install_config.conf 中的各参数,特别注意以下参数的配置

    **

# 这里填 mysql or postgresql**dbtype="mysql"**# 数据库连接地址**dbhost="192.168.xx.xx:3306"**# 数据库名**dbname="dolphinscheduler"**# 数据库用户名,此处需要修改为上面设置的 {user} 具体值**username="xxx"**# 数据库密码,如果有特殊字符,请使用 \ 转义,需要修改为上面设置的 {password} 具体值**password="xxx"**# Zookeeper 地址**zkQuorum="192.168.xx.xx:2181,192.168.xx.xx:2181,192.168.xx.xx:2181"**# 将 DS 安装到哪个目录,如: /opt/soft/dolphinscheduler,不同于现在的目录**installPath="/opt/soft/dolphinscheduler"**# 使用哪个用户部署,使用第 3 节创建的用户**deployUser="dolphinscheduler"**# 邮件配置,以 qq 邮箱为例****# 邮件协议**mailProtocol="SMTP"**# 邮件服务地址**mailServerHost="smtp.qq.com"**# 邮件服务端口**mailServerPort="25"**# mailSender和 mailUser 配置成一样即可****# 发送者**mailSender="xxx@qq.com"**# 发送用户**mailUser="xxx@qq.com"**# 邮箱密码**mailPassword="xxx"**# TLS 协议的邮箱设置为 true,否则设置为 false**starttlsEnable="true"**# 开启 SSL 协议的邮箱配置为 true,否则为 false。注意: starttlsEnable 和 sslEnable 不能同时为 true**sslEnable="false"**# 邮件服务地址值,参考上面 mailServerHost**sslTrust="smtp.qq.com"**# 业务用到的比如 sql 等资源文件上传到哪里,可以设置:HDFS,S3,NONE,单机如果想使用本地文件系统,请配置为 HDFS,因为 HDFS 支持本地文件系统;如果不需要资源上传功能请选择 NONE。强调一点:使用本地文件系统不需要部署 hadoop**resourceStorageType="HDFS"**# 如果上传资源保存想保存在 hadoop 上,hadoop 集群的 NameNode 启用了 HA 的话,需要将 hadoop 的配置文件 core-site.xml 和 hdfs-site.xml 放到安装路径的 conf 目录下,本例即是放到 /opt/soft/dolphinscheduler/conf 下面,并配置 namenode cluster 名称;如果 NameNode 不是 HA,则只需要将 mycluster 修改为具体的 ip 或者主机名即可**defaultFS="hdfs://mycluster:8020"**# 如果没有使用到 Yarn,保持以下默认值即可;如果 ResourceManager 是 HA,则配置为 ResourceManager 节点的主备 ip 或者 hostname,比如 "192.168.xx.xx,192.168.xx.xx";如果是单 ResourceManager 请配置 yarnHaIps="" 即可**yarnHaIps="192.168.xx.xx,192.168.xx.xx"**# 如果 ResourceManager 是 HA 或者没有使用到 Yarn 保持默认值即可;如果是单 ResourceManager,请配置真实的 ResourceManager 主机名或者 ip**singleYarnIp="yarnIp1"**# 资源上传根路径,主持 HDFS 和 S3,由于 hdfs支持本地文件系统,需要确保本地文件夹存在且有读写权限**resourceUploadPath="/data/dolphinscheduler"**# 具备权限创建 resourceUploadPath的用户**hdfsRootUser="hdfs"**# 在哪些机器上部署 DS 服务,本机选 localhost**ips="ds1,ds2,ds3,ds4"# ssh 端口,默认22sshPort="22"**# master 服务部署在哪台机器上**masters="ds1,ds2"**# worker 服务部署在哪台机器上,并指定此 worker 属于哪一个 worker 组,下面示例的 default 即为组名**workers="ds3:default,ds4:default"**# 报警服务部署在哪台机器上**alertServer="ds2"**# 后端 api 服务部署在在哪台机器上**apiServers="ds1"

特别注意:如果需要用资源上传到 Hadoop 集群功能, 并且 Hadoop 集群的 NameNode 配置了 HA 的话 ,需要开启 HDFS 类型的资源上传,同时需要将 Hadoop 集群下的 core-site.xml 和 hdfs-site.xml 复制到 /opt/dolphinscheduler/conf,非 NameNode HA 跳过次步骤

7、一键部署**

  • 切换到部署用户 dolphinscheduler,然后执行一键部署脚本
sh install.sh

注意:第一次部署的话,在运行中第 3 步 3,stop server 出现 5 次以下信息,此信息可以忽略

sh: bin/dolphinscheduler-daemon.sh: No such file or directory
  • 脚本完成后,会启动以下 5 个服务,使用 jps 命令查看服务是否启动( jps 为 JDK 自带)

      MasterServer         ----- master服务WorkerServer         ----- worker服务LoggerServer         ----- logger服务ApiApplicationServer ----- api服务AlertServer          ----- alert服务
    

如果以上服务都正常启动,说明自动部署成功

部署成功后,可以进行日志查看,日志统一存放于 logs 文件夹内

 logs/├── dolphinscheduler-alert-server.log├── dolphinscheduler-master-server.log|—— dolphinscheduler-worker-server.log|—— dolphinscheduler-api-server.log|—— dolphinscheduler-logger-server.log

8、登录系统

  • 访问前端页面地址,接口 ip (自行修改) http://192.168.xx.xx:12345/dolphinscheduler

9、启停服务

  • 一键停止集群所有服务
  sh ./bin/stop-all.sh
  • 一键开启集群所有服务
sh ./bin/start-all.sh

附录一:

一、遇到的第一个问题在配置免密登录上,**

如果节点名称中包含{-}那么在执行发送密钥的时候就会出现报错,会认为-后面是一个参数,加密可以参考:

修改目标服务器的/etc/ssh/sshd_config中的PermitRootLogin 为 yes ,
然后重启sshsystemctl restart sshd.service1、使用root用户登录,进入到目录/root/.ssh,没有.ssh 需要创建该文件夹chmod 700 /root/.ssh chmod 644 /root/.ssh/authorized_keys2、执行命令:ssh-keygen -t rsa一路回车,完成后会在目录/root/.ssh下面生成文件 id_rsa和id_rsa.pub3、将公钥写入文件authorized_keys:cat id_rsa.pub >> authorized_keys4、重复1、2、3,直到要免密登录的所有机器都生成了id_rsa和id_rsa.pub文件和authorized_keys5、将其他机器的公钥拷贝到第一台机器authorized_keys文件中:
ssh-copy-id -i ~/.ssh/id_rsa.pub root@ip
需要输入密码6、将第一台机器的authorized_keys复制到其他机器
scp /root/.ssh/authorized_keys ip:/root/.ssh/
需要输入密码

二、遇到的第二个问题是程序在运行工作流会报错:**

具体为:找不到租户

租户:即为在linux中的用户,唯一

原因在于用户未关联相应的租户也就是没有在用户名中关联租户

1、租户管理中添加租户:2、用户关联租户

3、在工作流定义完成保存的时候选择租户dolphinscheduler

三、遇到的第三个问题是 资源中心中创建文件或者文件夹时候 报错 hdfs。。**

这个问题的主要原因是

deployUser=“dolphinscheduler”,用户无修改创建hdfs文件的权限

  • deployUser是指ds的部署用户,该用户需要在部署ds的机器上打通sudo免密,并且需要具有操作hdfs的权限,建议挂到hadoop的supergroup组下。
sudo useradd -d /home/{username} -m {username}
sudo passwd {username}# 添加sudo权限
echo "{username} ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/{username}
sudo chmod 0440 /etc/sudoers.d/{username}

四、classloader.check-leaked-classloader**

使用默认配置(将flink copy到worker节点的/opt/soft/flink下),会遇到这个错误


Exception in thread "Thread-5" java.lang.IllegalStateException: Trying to access closed classloader. Please check if you store classloaders directly or indirectly in static fields. If the stacktrace suggests that the leak occurs in a third party library and cannot be fixed immediately, you can disable this check with the configuration 'classloader.check-leaked-classloader'.at org.apache.flink.runtime.execution.librarycache.FlinkUserCodeClassLoaders$SafetyNetWrapperClassLoader.ensureInner(FlinkUserCodeClassLoaders.java:164)at org.apache.flink.runtime.execution.librarycache.FlinkUserCodeClassLoaders$SafetyNetWrapperClassLoader.getResource(FlinkUserCodeClassLoaders.java:183)at org.apache.hadoop.conf.Configuration.getResource(Configuration.java:2780)at org.apache.hadoop.conf.Configuration.getStreamReader(Configuration.java:3036)at org.apache.hadoop.conf.Configuration.loadResource(Configuration.java:2995)at org.apache.hadoop.conf.Configuration.loadResources(Configuration.java:2968)at org.apache.hadoop.conf.Configuration.getProps(Configuration.java:2848)at org.apache.hadoop.conf.Configuration.get(Configuration.java:1200)at org.apache.hadoop.conf.Configuration.getTimeDuration(Configuration.java:1812)at org.apache.hadoop.conf.Configuration.getTimeDuration(Configuration.java:1789)

只需要按提示在flink-conf.yaml里面增加“classloader.check-leaked-classloader: false”就可以

[root@37e3e6d56452 flink]# tail conf/flink*.yaml

classloader.check-leaked-classloader: false

五、提示hadoop_classpath**

这个报错跟dolphin无关 主要是因为找不到HADOOP_CLASSPATH
具体如下:

java.lang.IllegalStateException: No Executor found. Please make sure to export the HADOOP_CLASSPATH environment variable or have hadoop in your classpath. For more information refer to the "Deployment" section of the official Apache Flink documentation

我用的是1.12版本的flink程序,需要设置HADOOP_CLASSPATH 才可以提交到yarn,
提交前需要设置HADOOP_CLASSPATH,建议修改bin/flink 脚本,在第一行增加
export HADOOP_CLASSPATH=hadoop classpath
以下为修改后的 bin/flink文件示意

#!/usr/bin/env bash
################################################################################
#  Licensed to the Apache Software Foundation (ASF) under one
#  or more contributor license agreements.  See the NOTICE file
#  distributed with this work for additional information
#  regarding copyright ownership.  The ASF licenses this file
#  to you under the Apache License, Version 2.0 (the
#  "License"); you may not use this file except in compliance
#  with the License.  You may obtain a copy of the License at
#
#      http://www.apache.org/licenses/LICENSE-2.0
#
#  Unless required by applicable law or agreed to in writing, software
#  distributed under the License is distributed on an "AS IS" BASIS,
#  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
#  See the License for the specific language governing permissions and
# limitations under the License.
################################################################################
export HADOOP_CLASSPATH=`hadoop classpath`

六、flink中的dolphinscheduler日志文件不存在**

具体报错为:

[INFO] 2021-07-19 16:01:30.062  - [taskAppId=TASK-1-1-2]:[129] -  -> 2021-07-19 16:01:29,707 main ERROR FileManager (/home/fiot/middleinstall/flink-1.11.2/log/flink-dolphinscheduler-client-fh-node3.log)
java.io.FileNotFoundException: /home/fiot/middleinstall/flink-1.11.2/log/flink-dolphinscheduler-client-fh-node3.log (Permission denied)java.io.FileNotFoundException: /home/fiot/middleinstall/flink-1.11.2/log/flink-dolphinscheduler-client-fh-node3.log (Permission denied)

解决办法是:

在每个flink节点的flink的log目录下创建日志文件:
sudo touch /home/fiot/middleinstall/flink-1.11.2/log/flink-dolphinscheduler-client-fh-node1.log
sudo touch /home/fiot/middleinstall/flink-1.11.2/log/flink-dolphinscheduler-client-fh-node2.log
sudo touch /home/fiot/middleinstall/flink-1.11.2/log/flink-dolphinscheduler-client-fh-node3.logsudo chown dolphinscheduler:dolphinscheduler flink-dolphinscheduler-client-fh-node1.log
sudo chown dolphinscheduler:dolphinscheduler flink-dolphinscheduler-client-fh-node2.log
sudo chown dolphinscheduler:dolphinscheduler flink-dolphinscheduler-client-fh-node3.logsudo chmod 644  flink-dolphinscheduler-client-fh-node1.log
sudo chmod 644  flink-dolphinscheduler-client-fh-node2.log
sudo chmod 644  flink-dolphinscheduler-client-fh-node3.log

七、 启动hive任务时候报错:java.lang.NoSuchMethodError:com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V**

解决办法是:

mv $HIVE_HOME/lib/guava-27.0-jre.jar /home/fiot/middleinstall/dolphinscheduler-bin/lib/rm -rf $DOLPHINESCHEDULER_HOME/lib/guava-20.0.jarchown dolphinscheduler:dolphinscheduler  $DOLPHINESCHEDULER_HOME/lib/guava-27.0-jre.jarscp $DOLPHINESCHEDULER_HOME/lib/guava-27.0-jre.jar node2:$DOLPHINESCHEDULER_HOME/lib/guava-27.0-jre.jar
scp $DOLPHINESCHEDULER_HOME/lib/guava-27.0-jre.jar node3:$DOLPHINESCHEDULER_HOME/lib/guava-27.0-jre.jar当然这个问题可以在一键部署之前直接拷贝至dolphin文件夹中 这样就能保证所有机器都是最新的guava包

八、 停止flink程序不能正常显示状态,报错 Cannt run program “pstree”,no such file。

解决办法:安装psmisc

yum -y install psmisc

dolphinscheduler搭建以及搭建使用中遇到的问题相关推荐

  1. openstack-t swift搭建(完美搭建)2021

    swift搭建 前言 基本配置 安装开始 创建身份服务凭据 controller 安装和配置的部件 controller 准备工作 object1(compute) 安装和配置的部件 object1( ...

  2. ADG架构搭建4 -- 搭建一主两备ADG架构

    本文接该系列文章的上一篇:ADG架构搭建3 – 一主一备ADG主备切换 前言 请先参照文章<ADG架构搭建1–Oracle安装>完成第三台服务器的Oracle安装. 本文将完成的ADG架构 ...

  3. ORACLE之DG搭建1-DG搭建要求

    ORACLE之DG搭建1-DG搭建要求 Data Guard的软硬件需求 1.硬件及操作系统需求 (1)同一个Data Guard 配置中的所有oracle 数据库必须运行于相同的平台. (2)服务器 ...

  4. LNMP搭建+论坛搭建

    LNMP搭建+论坛搭建 一:关闭防火墙 systemctl stop firewalld systemctl disable firewalld setenforce 0 二:创建运行用户 usera ...

  5. 【停车场车辆管理系统】从零搭建——AdminController搭建

    [停车场车辆管理系统]从零搭建--项目分析 [停车场车辆管理系统]从零搭建--数据库搭建 [停车场车辆管理系统]从零搭建--后端搭建 [停车场车辆管理系统]从零搭建--后端Model类 [停车场车辆管 ...

  6. 【停车场车辆管理系统】从零搭建——Mapper搭建

    [停车场车辆管理系统]从零搭建--项目分析 [停车场车辆管理系统]从零搭建--数据库搭建 [停车场车辆管理系统]从零搭建--后端搭建 [停车场车辆管理系统]从零搭建--后端Model类 [停车场车辆管 ...

  7. 【停车场车辆管理系统】从零搭建——数据库搭建

    [停车场车辆管理系统]从零搭建--项目分析 [停车场车辆管理系统]从零搭建--数据库搭建 [停车场车辆管理系统]从零搭建--后端搭建 [停车场车辆管理系统]从零搭建--后端Model类 [停车场车辆管 ...

  8. Gitlab搭建安装及使用中遇到的问题。

    一.CentOS7安装gitlab-ce 1.下载及安装rpm软件包. 下载RPM包 curl -LJO https://mirrors.tuna.tsinghua.edu.cn/gitlab-ce/ ...

  9. python环境搭建_搭建Python编程环境

    说明:本文面向信息技术新教材环境下的中学生或者编程小白.Python作为新教材落实计算思维的主要载体,有其独特的魅力.千里之行始于足下,搭建Python运行环境是跨出进入新世界大门的第一步. 搭建Py ...

最新文章

  1. MVC案例-架构分析
  2. ip地址子网划分工具_大型视频监控网络系统如何规划ip地址?
  3. spring 自定义标签的实现
  4. jmeter的基本功能使用详解
  5. 把两个salmon和sea bass特征结合起来能够提高区分的准确率
  6. 百万大数据架构师学习笔记
  7. Visual Basic.NET中访问数据的方法(zz)
  8. vulkan api_Vulkan开放标准API支持,针对Linux的新游戏以及更多游戏
  9. 用mplfinance库定制A股常用的K线、均线图
  10. AI(3)--- 机器学习常见的七个步骤
  11. go语言调用c指针接口,GoLang之调用C接口的使用方法
  12. @ARGV:perl命令行参数
  13. poj 3268 bzoj 1631: [Usaco2007 Feb]Cow Party(最短路)
  14. 罗技g402鼠标宏设置教程
  15. hadoop组件---面向列的开源数据库(九)--python--python使用thrift连接hbase
  16. JavaScript下雨效果
  17. 单片机第三讲 ——中断及定时器基本知识
  18. 高德地图红绿灯读秒是怎么实现的?(二)
  19. IT和商业之间的纽带——商业数据分析师
  20. 单身率最高的行业,还真是自找的!

热门文章

  1. spring boot 根据模板导出word功能实现,包含html内容,及office打开乱码问题的解决!!!
  2. powermill2020错误代码1603_未知错误1603解决方法
  3. 新闻周刊文字内容_央视新闻周刊文字版官网-央视新闻周刊文字版2020下载-游戏大玩家...
  4. 淘宝买家谈阿里质量意识
  5. C++读取OBJ文件 对于f数据 取出任意自己想要的数据
  6. 校招拼多多笔试题(前端工程师)
  7. Erlang JAM二三话
  8. (转)Elasticsearch .net client NEST使用说明 2.x
  9. pyspark之dataframe当前行与上一行值求差
  10. 转载 json 文章