HBase 是一种分布式、可扩展、支持海量数据存储的NoSQL 数据库。

逻辑结构

物理存储结构

数据模型

逻辑上,HBase的数据模型同关系型数据库很类似,数据存储在一张表中,有行有列。HBase的底层物理存储结构(K-V)。

Name Space

命名空间,类似于关系型数据库的 DatabBase 概念,每个命名空间下有多个表。HBase 有两个自带的命名空间,分别是 hbase和 default,hbase 中存放的是 HBase 内置的表,default 表是用户默认使用的命名空间。

Region

类似于关系型数据库的表概念。不同的是,HBase定义表时只需要声明列族即可,不需要声明具体的列。这意味着,往HBase 写入数据时,字段可以动态、按需指定。和关系型数据库相比,HBase 能够轻松应对字段变更的场景。

Row

HBase 表中的每行数据都由一个 RowKey 和多个 Column(列)组成,数据是按照 RowKey 的字典顺序存储的,并且查询数据时只能根据 RowKey 进行检索,所以 RowKey 的设计十分重要。

Column

HBase中的每个列都由 Column Family(列族)和 Column Qualifier(列限定符)进行限定,例如 info:name,info:age。建表时,只需指明列族,而列限定符无需预先定义。

TimeStamp

用于标识数据的不同版本(version),每条数据写入时,如果不指定时间戳,系统会自动为其加上该字段,其值为写入HBase 的时间。

Cell

由{rowkey, column Family:columnQualifier, time Stamp} 唯一确定的单元。cell 中的数据是没有类型的,全部是字节码形式存贮。

Region Server

RegionServer 为 Region 的管理者,其实现类为 HRegionServer,主要作用如下: 对于数据的操作:get, put, delete;

对于 Region的操作:splitRegion、compactRegion。

Master

Master是所有 Region Server 的管理者,其实现类为 HMaster,主要作用如下:

对于表的操作:create,delete, alter

对于RegionServer的操作:分配regions 到每个RegionServer,监控每个RegionServer的状态,负载均衡和故障转移。

Zookeeper

HBase 通过 Zookeeper来做 Master 的高可用、RegionServer 的监控、元数据的入口以及集群配置的维护等工作。

HDFS

HDFS 为 HBase 提供最终的底层数据存储服务,同时为 HBase 提供高可用支持。

HBase Shell 操作

help  查看当前数据库中有哪些表list建表create 'student','info'插入数据到表put 'student','1001','info:sex','male'put 'student','1001','info:age','18'扫描表scan 'student'scan 'student',{STARTROW => '1001', STOPROW  => '1001'}scan 'student',{STARTROW => '1001'}查看表结构describe 'student'更新指定字段的数据put 'student','1001','info:name','Nick' 查看指定行或指定列族:列的数据get 'student','1001' get 'student','1001','info:name'统计表数据行数count 'student'删除某 rowkey 的全部数据deleteall 'student','1001'删除某 rowkey 的某一列数据delete 'student','1002','info:sex'清空表数据truncate 'student'删除表disable 'student'drop 'student'变更表信息,将 info 列族中的数据存放 3 个版本alter 'student',{NAME=>'info',VERSIONS=>3} get 'student','1001',{COLUMN=>'info:name',VERSIONS=>3}

架构原理

StoreFile

保存实际数据的物理文件,StoreFile 以 HFile 的形式存储在 HDFS 上。每个 Store 会有一个或多个StoreFile(HFile),数据在每个 StoreFile中都是有序的。

MemStore

写缓存,由于HFile 中的数据要求是有序的,所以数据是先存储在 MemStore 中,排好序后,等到达刷写时机才会刷写到HFile,每次刷写都会形成一个新的 HFile。

WAL

由于数据要经MemStore 排序后才能刷写到 HFile,但把数据保存在内存中会有很高的概率导致数据丢失,为了解决这个问题,数据会先写在一个叫做Write-Ahead logfile 的文件中,再写入MemStore 中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。

写流程

  1. Client 先访问  zookeeper,获取  hbase:meta 表位于哪个Region Server。

  2. 访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey, 查询出目标数据位于哪个Region Server 中的哪个Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的meta cache,方便下次访问。

  3. 与目标 RegionServer 进行通讯;

  4. 将数据顺序写入(追加)到WAL;

  5. 将数据写入对应的MemStore,数据会在 MemStore进行排序;

  6. 向客户端发送 ack;

  7. 等达到 MemStore 的刷写时机后,将数据刷写到 HFile。

MemStore Flush

MemStore 刷写时机:

1、当某个 memstroe 的大小达到了 hbase.hregion.memstore.flush.size(默认值128M),其所在 region 的所有 memstore 都会刷写

当 memstore的大小达到了下面值时,flush会阻塞客户端读写。

hbase.hregion.memstore.flush.size(默认值 128M)* hbase.hregion.memstore.block.multiplier(默认值4)

2、当 regionserver 中 memstore 的总大小达到了下面值时

java_heapsize * hbase.regionserver.global.memstore.size(默认值 0.4)* hbase.regionserver.global.memstore.size.lower.limit(默认值 0.95)

region 会按照其所有 memstore 的大小顺序(由大到小)依次进行刷写。直到 regionserver中所有memstore的总大小减小到上述值以下。

当regionserver 中 memstore 的总大小达到下面值时,会阻止继续往所有的 memstore写数据。

java_heapsize * hbase.regionserver.global.memstore.size(默认值 0.4)

3、到达自动刷写的时间,也会触发memstoreflush。自动刷新的时间间隔配置

hbase.regionserver.optionalcacheflushinterval(默认 1 小时)

4、当 WAL 文件的数量超过hbase.regionserver.max.logs,region 会按照时间顺序依次进行刷写,直到WAL 文件数量减小到hbase.regionserver.max.logs以下(已经废弃,无需手动设置,最大值为 32)。

读流程

  1. Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。

  2. 访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。

  3. 与目标 Region Server 进行通讯;

  4. 分别在 Block Cache(读缓存),MemStore 和 Store File(HFile)中查询目标数据,并将查到的所有数据进行合并。此处所有数据是指同一条数据的不同版本(time stamp)或者不同的类型(Put/Delete)。

  5. 将从文件中查询到的数据块(Block,HFile 数据存储单元,默认大小为 64KB)缓存到Block Cache。

  6. 将合并后的最终结果返回给客户端。

StoreFile Compaction

由于memstore 每次刷写都会生成一个新的HFile,且同一个字段的不同版本和不同类型有可能会分布在不同的HFile 中,因此查询时需要遍历所有的 HFile。

为了减少 HFile 的个数,以及清理掉过期和删除的数据,会进行 StoreFile Compaction。Compaction 分为两种,分别是 Minor Compaction 和 Major Compaction。

Minor Compaction会将临近的若干个较小的 HFile  合并成一个较大的HFile,但不会清理过期和删除的数据。

Major Compaction 会将一个 Store 下的所有的 HFile 合并成一个大 HFile,并且清理掉过期和删除的数据。

Region Split

默认情况下,每个Table 起初只有一个 Region,随着数据的不断写入,Region 会自动进行拆分。刚拆分时,两个子 Region 都位于当前的 Region Server,但处于负载均衡的考虑, HMaster 有可能会将某个 Region转移给其他的 Region Server。

RegionSplit 时机:

当 1 个 region 中 的 某 个 Store 下所有 StoreFile的 总 大 小 超 过

Min(R^2 * hbase.hregion.memstore.flush.size,hbase.hregion.max.filesize)

该 Region 就会进行拆分,其中R为当前 Region Server 中属于该 Table 的个数(0.94版本之后)。

HBase API

package com.mk;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.*;import org.apache.hadoop.hbase.client.*;import org.apache.hadoop.hbase.util.Bytes;import java.io.IOException;/** * @author yj * @date 2020/09/06 22:28 */public class TestAPI {    private static Connection connection = null;    private static Admin admin = null;    static {        try {            Configuration configuration = HBaseConfiguration.create();            configuration.set("hbase.zookeeper.quorum","node1,node2,node3");            connection = ConnectionFactory.createConnection(configuration);            admin = connection.getAdmin();        } catch (IOException e) {            e.printStackTrace();        }    }    public static void close() {        if (admin != null){            try {                admin.close();            } catch (IOException e) {                e.printStackTrace();            }        }        if (connection != null){            try {                connection.close();            } catch (IOException e) {                e.printStackTrace();            }        }    }    //判断表是否存在    public static boolean isTableExist(String tableName) throws IOException {        //HBaseConfiguration configuration = new HBaseConfiguration();        //Configuration configuration = HBaseConfiguration.create();        //configuration.set("hbase.zookeeper.quorum","node1,node2,node3");        //HBaseAdmin admin = new HBaseAdmin(configuration);        //Connection connection = ConnectionFactory.createConnection(configuration);        //Admin admin = connection.getAdmin();        boolean exists = admin.tableExists(TableName.valueOf(tableName));        //admin.close();        return exists;    }    //建表    public static void createTable(String tableName,String... cfs) throws IOException {        if (cfs.length <= 0){            System.out.println("cfs is null");            return;        }        if (isTableExist(tableName)) {            System.out.println(tableName+" was exist");        }        HTableDescriptor hTableDescriptor = new HTableDescriptor(TableName.valueOf(tableName));        for (String cf : cfs) {            HColumnDescriptor hColumnDescriptor = new HColumnDescriptor(cf);            hTableDescriptor.addFamily(hColumnDescriptor);        }        admin.createTable(hTableDescriptor);    }    //删表    public static void dropTable(String tableName) throws IOException {        if (!isTableExist(tableName)) {            System.out.println(tableName+" is not exist");        }        admin.disableTable(TableName.valueOf(tableName));        admin.deleteTable(TableName.valueOf(tableName));    }    //建namespace    public static void createNameSpace(String ns) {        NamespaceDescriptor namespaceDescriptor = NamespaceDescriptor.create(ns).build();        try {            admin.createNamespace(namespaceDescriptor);        }catch (NamespaceExistException e) {            System.out.println(ns+" Namespace is exist");        } catch (IOException e) {            e.printStackTrace();        }    }    //插入数据    public static void putData(String tableName,String rowKey,String cf,String cn,String value) throws IOException {        Table table = connection.getTable(TableName.valueOf(tableName));        Put put = new Put(Bytes.toBytes(rowKey));        put.addColumn(Bytes.toBytes(cf),Bytes.toBytes(cn),Bytes.toBytes(value));        table.put(put);        table.close();    }    //get数据    public static void getData(String tableName,String rowKey,String cf,String cn) throws IOException {        Table table = connection.getTable(TableName.valueOf(tableName));        Get get = new Get(Bytes.toBytes(rowKey));        //get.addFamily(Bytes.toBytes(cf));        get.addColumn(Bytes.toBytes(cf),Bytes.toBytes(cn));        get.setMaxVersions();        Result result = table.get(get);        for (Cell cell : result.rawCells()) {            System.out.println("cf: "+ Bytes.toString(CellUtil.cloneFamily(cell)) +                    "\ncn: "+ Bytes.toString(CellUtil.cloneQualifier(cell)) +                    "\nvalue: "+ Bytes.toString(CellUtil.cloneValue(cell)));        }        table.close();    }    //scan table    public static void scanTable(String tableName) throws IOException {        Table table = connection.getTable(TableName.valueOf(tableName));        Scan scan = new Scan(Bytes.toBytes("1001"),Bytes.toBytes("1003"));        ResultScanner resultScanner = table.getScanner(scan);        for (Result result : resultScanner) {            for (Cell cell : result.rawCells()) {                System.out.println("rk: "+ Bytes.toString(CellUtil.cloneRow(cell)) +                        "\ncf: "+ Bytes.toString(CellUtil.cloneFamily(cell)) +                        "\ncn: "+ Bytes.toString(CellUtil.cloneQualifier(cell)) +                        "\nvalue: "+ Bytes.toString(CellUtil.cloneValue(cell)));            }        }        table.close();    }    //删除data    public static void deleteData(String tableName,String rowKey,String cf,String cn) throws IOException {        Table table = connection.getTable(TableName.valueOf(tableName));        Delete delete = new Delete(Bytes.toBytes(rowKey));        delete.addColumns(Bytes.toBytes(cf),Bytes.toBytes(cn));        table.delete(delete);        table.close();    }    public static void main(String[] args) throws IOException {        //System.out.println(isTableExist("fruit"));        //createTable("stu","info1","info2");        //dropTable("stu");        //createNameSpace("pro");        //createTable("pro:stu","info1","info2");        //putData("pro:stu","1003","info1","addr","cd");        //getData("pro:stu","1001","info1","name");        //getData("pro:stu","1001","info1","name");        //scanTable("pro:stu");        deleteData("pro:stu","1003","info1","name");        close();    }}

与 Hive 的集成

Hive

数据仓库:Hive 的本质其实就相当于将 HDFS 中已经存储的文件在 Mysql 中做了一个双射关系,以方便使用 HQL 去管理查询。

用于数据分析、清洗:Hive 适用于离线的数据分析和清洗,延迟较高。

基于 HDFS、MapReduce:Hive 存储的数据依旧在 DataNode上,编写的 HQL 语句终将是转换为MapReduce 代码执行。

HBase

数据库:是一种面向列族存储的非关系型数据库。

用于存储结构化和非结构化的数据:适用于单表非关系型数据的存储,不适合做关联查询,类似JOIN 等操作。

基于 HDFS:数据持久化存储的体现形式是 HFile,存放于 DataNode 中,被ResionServer 以 region 的形式进行管理。

延迟较低,接入在线业务使用:面对大量的企业数据,HBase 可以直线单表大量数据的存储,同时提供了高效的数据访问速度。

HBase 与 Hive 集成使用

Hive lib中添加HBase 的 Jar

ln -s $HBASE_HOME/lib/hbase-common-1.3.1.jar $HIVE_HOME/lib/hbase-common-1.3.1.jarln -s $HBASE_HOME/lib/hbase-server-1.3.1.jar $HIVE_HOME/lib/hbase-server-1.3.1.jarln -s $HBASE_HOME/lib/hbase-client-1.3.1.jar $HIVE_HOME/lib/hbase-client-1.3.1.jarln -s $HBASE_HOME/lib/hbase-protocol-1.3.1.jar $HIVE_HOME/lib/hbase-protocol-1.3.1.jarln -s $HBASE_HOME/lib/hbase-it-1.3.1.jar $HIVE_HOME/lib/hbase-it-1.3.1.jarln -s $HBASE_HOME/lib/htrace-core-3.1.0-incubating.jar $HIVE_HOME/lib/htrace-core-3.1.0-incubating.jarln -s $HBASE_HOME/lib/hbase-hadoop2-compat-1.3.1.jar $HIVE_HOME/lib/hbase-hadoop2-compat-1.3.1.jarln -s $HBASE_HOME/lib/hbase-hadoop-compat-1.3.1.jar $HIVE_HOME/lib/hbase-hadoop-compat-1.3.1.jar

hive-site.xml中添加zookeeper

<property>   <name>hive.zookeeper.quorumname>   <value>node1,node2,node3value> property> <property>   <name>hive.zookeeper.client.portname>   <value>2181value> property>
建立 Hive 表,关联 HBase 表,插入数据到 Hive 表同时能够影响 HBase 表
CREATE TABLE hive_hbase_emp_table(empno int,ename string,job string,mgr int,hiredate string,sal double,comm double,deptno int)STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

test

#hiveinsert into hive_hbase_emp_table values(1,'chris','dataeg',5,'2020-09-08',2.1,301,501);select * from hive_hbase_emp_table;#hbasescan 'hbase_emp_table'

在 Hive 中创建一个外部表来关联 HBase 中已有的表,借助 Hive 来分析

CREATE EXTERNAL TABLE relevance_hbase_emp(empno int,ename string,job string,mgr int,hiredate string,sal double,comm double,deptno int)STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

关联后就可以使用 Hive 函数进行一些分析操作了

HBase优化

高可用

在 HBase 中HMaster 负责监控 HRegionServer 的生命周期,均衡 RegionServer 的负载, 如果 HMaster 挂掉了,那么整个HBase 集群将陷入不健康的状态,并且此时的工作状态并不会维持太久。HBase 支持对 HMaster 的高可用配置。

  1. 在conf 目录下创建 backup-masters 文件

    touch conf/backup-masters

  2. 配置高可用HMaster 节点

    echo node2 > conf/backup-masters

  3. 分发到其他节点

预分区

每一个 region 维护着 StartRow 与 EndRow,如果加入的数据符合某个 Region 维护的RowKey 范围,则该数据交给这个Region 维护。那么依照这个原则,我们可以将数据所要投放的分区提前大致的规划好,以提高 HBase 性能。

  • 手动设定预分区

    create 'staff1','info','partition1',SPLITS => ['1000','2000','3000','4000']

  • 生成 16 进制序列预分区

    create 'staff2','info','partition2',{NUMREGIONS => 15, SPLITALGO => 'HexStringSplit'}

  • 按照文件中设置的规则预分区

    vim  splits.txt 000001002003create 'staff3','partition3',SPLITS_FILE => 'splits.txt'

使用 JavaAPI 创建预分区
//自定义算法,产生一系列 hash 散列值存储在二维数组中byte[][] splitKeys = 某个散列值函数//创建 HbaseAdmin 实例HBaseAdmin hAdmin = new HBaseAdmin(HbaseConfiguration.create());//创建 HTableDescriptor 实例HTableDescriptor tableDesc = new HTableDescriptor(tableName);//通过 HTableDescriptor 实例和散列值二维数组创建带有预分区的 Hbase 表hAdmin.createTable(tableDesc, splitKeys);

RowKey设计

一条数据的唯一标识就是 RowKey,那么这条数据存储于哪个分区,取决于 RowKey 处于哪个一个预分区的区间内,设计 RowKey 的主要目的 ,就是让数据均匀的分布于所有的region 中,在一定程度上防止数据倾斜。接下来我们就谈一谈RowKey 常用的设计方案。

生成随机数、hash、散列值

字符串反转,可以在一定程度上散列逐步 put 进来的数据。

20170524000001 转成 1000004250710220170524000002 转成 20000042507102

字符串拼接

20170524000001_a12e20170524000001_93i7

内存优化

HBase 操作过程中需要大量的内存开销,毕竟 Table 是可以缓存在内存中的,一般会分配整个可用内存的 70%给HBase 的 Java 堆。但是不建议分配非常大的堆内存,因为 GC 过程持续太久会导致 RegionServer处于长期不可用状态,一般 16~48G 内存就可以了,如果因为框架占用内存过高导致系统内存不足,框架一样会被系统服务死。

基础优化

允许在 HDFS 的文件中追加内容

hdfs-site.xml、hbase-site.xml

属性:dfs.support.append解释:开启 HDFS 追加同步,可以优秀的配合 HBase 的数据同步和持久化。默认值为 true

优化 DataNode允许的最大文件打开数

hdfs-site.xml

属性:dfs.datanode.max.transfer.threads解释:HBase 一般都会同一时间操作大量的文件,根据集群的数量和规模以及数据动作,设置为 4096 或者更高。默认值:4096

优化延迟高的数据操作的等待时间

hdfs-site.xml

属性:dfs.image.transfer.timeout解释:如果对于某一次数据操作来讲,延迟非常高,socket 需要等待更长的时间,建议把该值设置为更大的值(默认 60000 毫秒),以确保 socket 不会被 timeout 掉。

优化数据的写入效率

mapred-site.xml

属性:mapreduce.map.output.compress、mapreduce.map.output.compress.codec解释:开启这两个数据可以大大提高文件的写入效率,减少写入时间。第一个属性值修改为true,第二个属性值修改为:org.apache.hadoop.io.compress.GzipCodec 或者其他压缩方式。

设置 RPC监听数量

hbase-site.xml

属性:Hbase.regionserver.handler.count解释:默认值为 30,用于指定 RPC 监听的数量,可以根据客户端的请求数进行调整,读写请求较多时,增加此值。

优化 HStore 文件大小

hbase-site.xml

属性:hbase.hregion.max.filesize解释:默认值 10737418240(10GB),如果需要运行 HBase 的 MR 任务,可以减小此值,因为一个 region 对应一个 map 任务,如果单个 region 过大,会导致 map 任务执行时间过长。该值的意思就是,如果 HFile 的大小达到这个数值,则这个 region 会被切分为两个 Hfile

优化 HBase客户端缓存

hbase-site.xml

属性:hbase.client.write.buffer解释:用于指定 Hbase 客户端缓存,增大该值可以减少 RPC 调用次数,但是会消耗更多内存,反之则反之。一般我们需要设定一定的缓存大小,以达到减少 RPC 次数的目的。

指定 scan.next 扫描 HBase所获取的行数

hbase-site.xml

属性:hbase.client.scanner.caching解释:用于指定 scan.next 方法获取的默认行数,值越大,消耗内存越大。

flush、compact、split 机制

当 MemStore 达到阈值,将 Memstore 中的数据 Flush 进 Storefile;compact 机制则是把 flush 出来的小文件合并成大的Storefile 文件。split 则是当 Region 达到阈值,会把过大的 Region 一分为二。

涉及属性:

即:128M 就是 Memstore 的默认阈值hbase.hregion.memstore.flush.size:134217728即:这个参数的作用是当单个 HRegion 内所有的 Memstore 大小总和超过指定值时,flush该 HRegion 的所有 memstore。RegionServer 的 flush 是通过将请求添加一个队列,模拟生产消费模型来异步处理的。那这里就有一个问题,当队列来不及消费,产生大量积压请求时,可能会导致内存陡增,最坏的情况是触发 OOM。

hbase.regionserver.global.memstore.upperLimit:0.4hbase.regionserver.global.memstore.lowerLimit:0.38即:当 MemStore 使用内存总量达到hbase.regionserver.global.memstore.upperLimit 指定值时将会有多个 MemStores flush 到文件中,MemStore flush 顺序是按照大小降序执行的,直到刷新到MemStore 使用内存略小于 lowerLimit。

hbase查看表结构_HBase相关推荐

  1. hbase查看表结构_HBase简介和基本命令

    [162] 一.HBase简介 1.1什么是HBase HBase 是一个高可靠性.高性能.面向列.可伸缩的分布式存储系统,利用 HBASE 技 术可在廉价 PC Server 上搭建起大规模结构化存 ...

  2. hbase查看表结构_HBase语法

    一.HBase的DDL语法 1.    help ①help :查看所有的hbase的shell命令 ②help 'cmd' :寻求指定命令的使用方法 e.g. help 'create_namesp ...

  3. hbase查看表结构_HBase 与Hive的集成

    HBase与Hive的对比 Hive 数据仓库 Hive的本质其实就相当于将HDFS中已经存储的文件在Mysql中做了一个双射关系,以方便使用HQL去管理查询. 用于数据分析.清洗 Hive适用于离线 ...

  4. hbase查看表结构_HBase 常用 Shell 命令手册

    HBase 是一个开源的分布式非关系型数据库,在大数据行业中应用很广泛.Google 三篇论文奠定了大数据的理论基础,其中 HBase 就可以看做是 BigTable 的实现,用来存储大规模的数据.H ...

  5. hbase查看表结构_HBase基本使用之DDL学习

    先将服务启动 hbase自带了shell命令行,我们使用下 在hbase目录下执行 bin/hbase 有很多说明 进入客户端 bin/hbase shell 有个提示:如果shell要删除命令,需要 ...

  6. MYSQL中如何查看表结构命令_mysql查看表结构命令

    mysql查看表结构命令,如下: desc 表名; show columns from 表名; describe 表名; show create table 表名; use information_s ...

  7. hive表信息查询:查看表结构、表操作等--转

    原文地址:http://www.aboutyun.com/forum.PHP?mod=viewthread&tid=8590&highlight=Hive 问题导读: 1.如何查看hi ...

  8. MySQL查看表结构的实际操作命令简介

    以下的文章主要是对MySQL查看表结构的实际操作命令的实际操作步骤的描述,下面就是其具体方案的详细解析,希望在你今后的MySQL查看表结构的实际操作命令学习中会在所帮助.以下就是正文的主要内容描述. ...

  9. mysql查看表结构命令

    原文:http://www.blogjava.net/etlan/archive/2007/07/12/129794.html mysql查看表结构命令 mysql查看表结构命令,如下: desc 表 ...

最新文章

  1. CPM-2细节发布!10大技术打通大模型「任督二脉」,单卡单机跑「千亿模型」不再是梦...
  2. 关于jQuery的$.getJSON乱码问题
  3. python试卷生成_Python学习笔记文件读写之生成随机的测试试卷文件
  4. 懒惰的人有福了——VS代码段编辑器SnippetEditor 可对vs所有代码段进行编辑和创建包括C#\J#\VB.NET等...
  5. 10.15 sigstjmp以及siglongjmp函数
  6. 【图像压缩】基于matlab GUI小波变换图像压缩【含Matlab源码 609期】
  7. android笔画输入法的字库,献给爱好笔画输入的机友们 速度才是王道之大众码新笔画输入法...
  8. 高斯分布4——联合概率分布
  9. 浅析浏览器书签的导入和导出
  10. 【附源码】计算机毕业设计java信用卡增值业务系统设计与实现
  11. WordPress安装教程
  12. Python | 基础学习(二)函数基础、非数字型变量(列表、元组、字典、字符串)、切片、for循环
  13. 微软官方工具_微软官方小工具,每天让你眼前一新
  14. 产品概念之3/4:五层次理论 —— 消费者体验视角的产品概念
  15. TCP/IP协议分层
  16. Linux---虚拟机安装Linux系统与联网实现
  17. 简单整系数滤波器去除心电信号的基线漂移
  18. 紫光旗下企业正和美光科技谈判存储技术授权及设立合资公司
  19. INFRARED INDUSTRIES气体分析仪
  20. Java版浏览器源代码(可以打开html文件)下载

热门文章

  1. Vivado下生成及烧写MCS文件
  2. centos下忘记mysql密码_CentOS下忘记mysql密码的解决办法
  3. python实现多个gui互相协作或这多个软件同时服务一个业务的方式
  4. 2019年,为什么Web前端工程师薪资越来越高?
  5. 人工智能深度学习Caffe框架介绍,优秀的深度学习架构
  6. 三层交换机工作原理(转载)
  7. .NET Core 配置Configuration杂谈
  8. ListView使用技巧
  9. 我的实用设计模式 - Simple Factory和Reflection
  10. 7个杀手级的开源监测工具