时序数据库介绍和使用

发布时间:2018-06-10 18:17,

浏览次数:655

<>1.基础

<>1.1 时序数据的定义

什么是时间序列数据(Time Series

Data,TSD,以下简称时序)从定义上来说,就是一串按时间维度索引的数据。用描述性的语言来解释什么是时序数据,简单的说,就是这类数据描述了某个被测量的主体在一个时间范围内的每个时间点上的测量值。它普遍存在于IT基础设施、运维监控系统和物联网中。

对时序数据进行建模的话,会包含三个重要部分,分别是:主体,时间点和测量值。套用这套模型,你会发现你在日常工作生活中,无时无刻不在接触着这类数据。

* 如果你是一个股民,某只股票的股价就是一类时序数据,其记录着每个时间点该股票的股价。

* 如果你是一个运维人员,监控数据是一类时序数据,例如对于机器的CPU的监控数据,就是记录着每个时间点机器上CPU的实际消耗值。

时序数据从时间维度上将孤立的观测值连成一条线,从而揭示软硬件系统的状态变化。孤立的观测值不能叫时序数据,但如果把大量的观测值用时间线串起来,我们就可以研究和分析观测值的趋势及规律。

<>1.2 时序数据的特点

<>1.2.1 时序数据的数学模型

上面介绍了时序数据的基本概念,也说明了分析时序数据的意义。那么时序数据该怎样存储呢?数据的存储要考虑其数学模型和特点,时序数据当然也不例外。所以这里先介绍时序数据的数学模型和特点。

下图为一段时序数据,记录了一段时间内的某个集群里各机器上各端口的出入流量,每半小时记录一个观测值。这里以图中的数据为例,介绍下时序数据的数学模型(不同的时序数据库中,基本概念的称谓有可能不同,这里以腾讯CTSDB为准):

*

measurement: 度量的数据集,类似于关系型数据库中的 table;

*

point: 一个数据点,类似于关系型数据库中的 row;

*

timestamp: 时间戳,表征采集到数据的时间点;

*

tag: 维度列,代表数据的归属、属性,表明是哪个设备/模块产生的,一般不随着时间变化,供查询使用;

*

field: 指标列,代表数据的测量值,随时间平滑波动,不需要查询。

如上图所示,这组数据的measurement为Network,每个point由以下部分组成:

*

timestamp:时间戳

*

两个tag:host、port,代表每个point归属于哪台机器的哪个端口

*

两个field:bytes_in、bytes_out,代表piont的测量值,半小时内出入流量的平均值

同一个host、同一个port,每半小时产生一个point,随着时间的增长,field(bytes_in、bytes_out)不断变化。如host:host4,port:51514,timestamp从02:00

到02:30的时间段内,bytes_in 从

37.937上涨到38.089,bytes_out从2897.26上涨到3009.86,说明这一段时间内该端口服务压力升高。

<>1.2.2 时序数据特点

* 数据模式: 时序数据随时间增长,相同维度重复取值,指标平滑变化:这点从上面的Network表的数据变化可以看出。

* 写入: 持续高并发写入,无更新操作

:时序数据库面对的往往是百万甚至千万数量级终端设备的实时数据写入(如摩拜单车2017年全国车辆数为千万级),但数据大多表征设备状态,写入后不会更新。

* 查询: 按不同维度对指标进行统计分析,且存在明显的冷热数据,一般只会频繁查询近期数据。

<>1.3 时序数据的存储

<>1.3.1 传统关系型数据库存储时序数据的问题

有了时序数据后,该存储在哪里呢?首先我们看下传统的关系型数据库解决方案在存储时序数据时会遇到什么问题。

很多人可能认为在传统关系型数据库上加上时间戳一列就能作为时序数据库。数据量少的时候确实也没问题。但时序数据往往是由百万级甚至千万级终端设备产生的,写入并发量比较高,属于海量数据场景。

MySQL在海量的时序数据场景下存在如下问题:

* 存储成本大:对于时序数据压缩不佳,需占用大量机器资源;

* 维护成本高:单机系统,需要在上层人工的分库分表,维护成本高;

* 写入吞吐低:单机写入吞吐低,很难满足时序数据千万级的写入压力;

* 查询性能差:适用于交易处理,海量数据的聚合分析性能差。

另外,使用Hadoop生态(Hadoop、Spark等)存储时序数据会有以下问题:

* 数据延迟高:离线批处理系统,数据从产生到可分析,耗时数小时、甚至天级;

* 查询性能差:不能很好的利用索引,依赖MapReduce任务,查询耗时一般在分钟级。

可以看到时序数据库需要解决以下几个问题:

* 时序数据的写入:如何支持每秒钟上千万上亿数据点的写入。

* 时序数据的读取:如何支持在秒级对上亿数据的分组聚合运算。

* 成本敏感:由海量数据存储带来的是成本问题。如何更低成本的存储这些数据,将成为时序数据库需要解决的重中之重。

<>1.3.2 时序数据库

***时序数据库产品的发明都是为了解决传统关系型数据库在时序数据存储和分析上的不足和缺陷,这类产品被统一归类为时序数据库。***针对时序数据的特点对写入、存储、查询等流程进行了优化,这些优化与时序数据的特点息息相关:

*

存储成本:

利用时间递增、维度重复、指标平滑变化的特性,合理选择编码压缩算法,提高数据压缩比;

通过预降精度,对历史数据做聚合,节省存储空间。

*

高并发写入:

批量写入数据,降低网络开销;

数据先写入内存,再周期性的dump为不可变的文件存储。

*

低查询延时,高查询并发:

优化常见的查询模式,通过索引等技术降低查询延时;

通过缓存、routing等技术提高查询并发。

<>1.3.3 时序数据的存储原理

传统数据库存储采用的都是 B tree,这是由于其在查询和顺序插入时有利于减少寻道次数的组织形式。我们知道磁盘寻道时间是非常慢的,一般在 10ms

左右。磁盘的随机读写慢就慢在寻道上面。对于随机写入 B tree 会消耗大量的时间在磁盘寻道上,导致速度很慢。我们知道 SSD

具有更快的寻道时间,但并没有从根本上解决这个问题。

对于 90% 以上场景都是写入的时序数据库,B tree 很明显是不合适的。

业界主流都是采用 LSM tree 替换 B tree,比如 Hbase, Cassandra 等 nosql 。这里我们详细介绍一下。

LSM tree 包括内存里的数据结构和磁盘上的文件两部分。分别对应 Hbase 里的 MemStore 和 HLog;对应 Cassandra 里的

MemTable 和 sstable。

LSM tree 操作流程如下:

* 数据写入和更新时首先写入位于内存里的数据结构。为了避免数据丢失也会先写到 WAL 文件中。

* 内存里的数据结构会定时或者达到固定大小会刷到磁盘。这些磁盘上的文件不会被修改。

* 随着磁盘上积累的文件越来越多,会定时的进行合并操作,消除冗余数据,减少文件数量。

可以看到 LSM tree 核心思想就是通过内存写和后续磁盘的顺序写入获得更高的写入性能,避免了随机写入。但同时也牺牲了读取性能,因为同一个 key

的值可能存在于多个 HFile 中。为了获取更好的读取性能,可以通过 bloom filter 和 compaction 得到,这里限于篇幅就不详细展开。

###1.3.4 分布式存储

时序数据库面向的是海量数据的写入存储读取,单机是无法解决问题的。所以需要采用多机存储,也就是分布式存储。

分布式存储首先要考虑的是如何将数据分布到多台机器上面,也就是分片(sharding)问题。下面我们就时序数据库分片问题展开介绍。分片问题由分片方法的选择和分片的设计组成。

####分片方法

时序数据库的分片方法和其他分布式系统是相通的。

* 哈希分片:这种方法实现简单,均衡性较好,但是集群不易扩展。

* 一致性哈希:这种方案均衡性好,集群扩展容易,只是实现复杂。代表有 Amazon 的 DynamoDB 和开源的 Cassandra。

* 范围划分:通常配合全局有序,复杂度在于合并和分裂。代表有 Hbase。

<>分片设计

分片设计简单来说就是以什么做分片,这是非常有技巧的,会直接影响写入读取的性能。

**结合时序数据库的特点,根据 measurement+tags 分片是比较好的一种方式,因为往往会按照一个时间范围查询,这样相同 metric 和

tags 的数据会分配到一台机器上连续存放,顺序的磁盘读取是很快的。**再结合上面讲到的单机存储内容,可以做到快速查询。

进一步我们考虑时序数据时间范围很长的情况,需要根据时间范围再分成几段,分别存储到不同的机器上,这样对于大范围时序数据就可以支持并发查询,优化查询速度。

如下图,第一行和第三行都是同样的 tag(sensor=95D8-7913;city= 上海),所以分配到同样的分片,而第五行虽然也是同样的

tag,但是根据时间范围再分段,被分到了不同的分片。第二、四、六行属于同样的 tag(sensor=F3CC-20F3;city= 北京)也是一样的道理。

<>1.4 开源时序数据库介绍

<>1.4.1开源时序数据库对比

目前行业内比较流行的开源时序数据库产品有 InfluxDB、OpenTSDB、Prometheus、Graphite等,其产品特性对比如下图所示:

<>1.4.2 InfluxDB介绍

InfluxDB是一个开源的时序数据库,使用GO语言开发,特别适合用于处理和分析资源监控数据这种时序相关数据。而InfluxDB自带的各种特殊函数如求标准差,随机取样数据,统计数据变化比等,使数据统计和实时分析变得十分方便。

<>重要概念

influxdb里面有一些重要概念:database,timestamp,field key, field value, field set,tag

key,tag value,tag set,measurement, retention policy

,series,point。结合下面的例子数据来说明这几个概念:

name: census -———————————— time butterflies honeybees location scientist

2015-08-18T00:00:00Z 12 23 1 langstroth 2015-08-18T00:00:00Z 1 30 1 perpetua

2015-08-18T00:06:00Z 11 28 1 langstroth 2015-08-18T00:06:00Z 3 28 1 perpetua

2015-08-18T05:54:00Z 2 11 2 langstroth 2015-08-18T06:00:00Z 1 10 2 langstroth

2015-08-18T06:06:00Z 8 23 2 perpetua 2015-08-18T06:12:00Z 7 22 2 perpetua

timestamp

既然是时间序列数据库,influxdb的数据都有一列名为time的列,里面存储UTC时间戳。

field key,field value,field set

butterflies和honeybees两列数据称为字段(fields),influxdb的字段由field key和field

value组成。其中butterflies和honeybees为field key,它们为string类型,用于存储元数据。

而butterflies这一列的数据12-7为butterflies的field

value,同理,honeybees这一列的23-22为honeybees的field value。field

value可以为string,float,integer或boolean类型。field value通常都是与时间关联的。

field key和field value对组成的集合称之为field set。如下:

butterflies = 12 honeybees = 23 butterflies = 1 honeybees = 30 butterflies =

11 honeybees = 28 butterflies = 3 honeybees = 28 butterflies = 2 honeybees = 11

butterflies = 1 honeybees = 10 butterflies = 8 honeybees = 23 butterflies = 7

honeybees = 22

在influxdb中,字段必须存在。注意,字段是没有索引的。如果使用字段作为查询条件,会扫描符合查询条件的所有字段值,性能不及tag。类比一下,fields相当于SQL的没有索引的列。

tag key,tag value,tag set

location和scientist这两列称为标签(tags),标签由tag key和tag value组成。location这个tag

key有两个tag value:1和2,scientist有两个tag value:langstroth和perpetua。tag key和tag

value对组成了tag set,示例中的tag set如下:

location = 1, scientist = langstroth location = 2, scientist = langstroth

location = 1, scientist = perpetua location = 2, scientist = perpetua

tags是可选的,但是强烈建议你用上它,因为tag是有索引的,tags相当于SQL中的有索引的列。tag value只能是string类型

如果你的常用场景是根据butterflies和honeybees来查询,那么你可以将这两个列设置为tag,而其他两列设置为field,tag和field依据具体查询需求来定。

measurement

measurement是fields,tags以及time列的容器,measurement的名字用于描述存储在其中的字段数据,类似mysql的表名。如上面例子中的measurement为census。measurement相当于SQL中的表,本文中我在部分地方会用表来指代measurement。

retention policy

retention policy指数据保留策略,示例数据中的retention

policy为默认的autogen。它表示数据一直保留永不过期,副本数量为1。你也可以指定数据的保留时间,如30天。

series

series是共享同一个retention policy,measurement以及tag set的数据集合。示例中数据有4个series,如下:

Arbitrary series number Retention policy Measurement Tag set series 1 autogen

census location = 1,scientist = langstroth series 2 autogen census location =

2,scientist = langstroth series 3 autogen census location = 1,scientist =

perpetua series 4 autogen census location = 2,scientist = perpetua

point

point则是同一个series中具有相同时间的field set,points相当于SQL中的数据行。如下面就是一个point:

name: census ----------------- time butterflies honeybees location scientist

2015-08-18T00:00:00Z 1 30 1 perpetua

database

上面提到的结构都存储在数据库中,示例的数据库为my_database。一个数据库可以有多个measurement,retention policy,

continuous

queries以及user。influxdb是一个无模式的数据库,可以很容易的添加新的measurement,tags,fields等。而它的操作却和传统的数据库一样,可以使用类SQL语言查询和修改数据。

influxdb不是一个完整的CRUD数据库,它更像是一个CR-ud数据库。它优先考虑的是增加和读取数据而不是更新和删除数据的性能,而且它阻止了某些更新和删除行为使得创建和读取数据更加高效。

更多详细介绍请见:https://www.jianshu.com/p/a1344ca86e9b

<>2.部署

<>2.1 influxdb部署

yum部署:

<1> 配置YUM源

cat <

Repository- RHEL\$releasever baseurl =

https://repos.influxdata.com/rhel/\$releasever/\$basearch/stable enabled = 1

gpgcheck = 1 gpgkey = https://repos.influxdata.com/influxdb.key EOF

<2> yum安装

yum install influxdb -y systemctl start influxdb systemctl enable influxdb

rpm部署:

wget https://dl.influxdata.com/influxdb/releases/influxdb-1.5.2.x86_64.rpm yum

-y localinstall influxdb-1.5.2.x86_64.rpm

docker部署:

docker run --name=influxdb -d -p 8086:8086 -v /etc/localtime:/etc/localtime

daocloud.io/liukuan73/influxdb:1.4

备注:假如是收集collectd的内容,还需要映射25826端口-p 25826:25826

##2.2 grafana部署

rpm部署:

wget

https://s3-us-west-2.amazonaws.com/grafana-releases/release/grafana-5.0.4-1.x86_64.rpm

yum -y localinstall grafana-5.0.4-1.x86_64.rpm systemctl enable grafana-server

systemctl start grafana-server

docker部署:

docker run -d -p 3000:3000 --name=grafana -e "GF_SERVER_HTTP_PORT=3000" -e

"GF_AUTH_BASIC_ENABLED=false" -e "GF_AUTH_ANONYMOUS_ENABLED=true" -e

"GF_AUTH_ANONYMOUS_ORG_ROLE=Admin" -e "GF_SERVER_ROOT_URL=/"

daocloud.io/liukuan73/grafana:5.0.0

<>3.使用

有三种方法可以将数据写入InfluxDB,包括:

* 客户端库

* 调用restapi

* 命令行(类sql语句)

##3.1 调用客户端库操作influxdb

以collectd+influxdb+grafana为例介绍通过collectd采集主机性能指标,然后通过influxdb的客户端库写入influxdb,最后在grafana展示的完整过程。

<>3.1.1 collectd部署

1、yum安装

sudo yum -y install epel-release sudo yum -y install collectd

2、数据写入 influxdb ,修改配置

vi /etc/collectd.conf LoadPlugin network # # client setup:

Server "10.142.232.155" "25826" #

systemctl enable collectd systemctl start collectd systemctl status collectd

<>3.1.2 influxdb配置

1、创建collectd数据库

influx -host '10.142.232.155' -port '8086' Connected to http://127.0.0.1:8086

version 1.5.2 InfluxDB shell version: 1.5.2 > create database collectd > use

collectd > create user "collectd" with password '123456' with all privileges

2、配置influxdb,开启对collectd数据的接收

vim /etc/influxdb/influxdb.conf [[collectd]] enabled = true port = 25826

database = "collectd" #刚创建的collectd数据库,来自collectd的数据写入这个数据库。没事先创建好的话会启动失败

<>3.1.3 grafana配置

<>1、配置influxdb数据源

点击“Add data source”配置数据源:

<>2.配置dashboard

网络流量统计

创建graph,切换编辑模式“Toggle Edit Mode”, 然后输入自定义SQL查询

输入查询语句:

SELECT derivative("value") AS "value" FROM "interface_rx" WHERE "host" =

'k8sslave04' AND "type" = 'if_octets' AND "instance" = 'eno16777984'

备注:

函数 derivative 意为导数, 微积分中的概念. value 为传输总量(字节), derivative(“value”) 为 value

在时间上的增量.其中:

* host = k8sslave04

* type = if_octets

* instance = eno16777984

系统负载

输入查询语句:

SELECT mean("value") FROM "load_longterm" WHERE "host" = 'k8sslave04' AND

$timeFilter GROUP BY time($interval) fill(null) SELECT mean("value") FROM

"load_midterm" WHERE "host" = 'k8sslave04' AND $timeFilter GROUP BY

time($interval) fill(null) SELECT mean("value") FROM "load_shortterm" WHERE

"host" = 'k8sslave04' AND $timeFilter GROUP BY time($interval) fill(null)

内存用量

输入查询语句:

SELECT mean("value") FROM "memory_value" WHERE "type_instance" = 'used' AND

$timeFilter GROUP BY time($interval) fill(null)

效果

<>3.2 RestAPI操作

<>3.2.1 实例

创建数据库:

要创建数据库,请将POST请求发送到/query终结点,并将URL参数q设置为CREATE DATABASE。

下面的示例主机上运行的InfluxDB发送请求,并创建数据库test:

curl -i -XPOST http://influxdb-ip:8086/query --data-urlencode "q=CREATE

DATABASE test"

写入单条数据:

通过向/write端点发送POST请求,HTTP-API是将数据写入InfluxDB的主要方式。下面的例子向test数据库写了一个点。

数据由度量cpu_load_short,标签键host和region和对应的标签值server01和us-west,字段值为0.64的字段键value和时间戳1434055562000000000组成。

curl -i -XPOST 'http://influxdb-ip:8086/write?db=test' --data-binary

'cpu_load_short,host=server01,region=us-west value=0.64 1434055562000000000'

写入点时,必须在db查询参数中指定一个现有的数据库。 如果您没有使用rp查询参数提供保留策略,则会将点写入数据库的默认保留策略。

请参阅API参考文档以获取可用查询参数的完整列表。

写入多条数据:

一次将多个点Post到不同序列,只需要用行将多个点分隔即可。这种批量方式具有高性能。以下示例将三个点写入数据库mydb。

第一点属于拥有度量cpu_load_short及标签集host =

server02且用服务器本地时间戳的序列。第二点属于拥有度量cpu_load_short及标签集host = server02,region

=us-west且具有指定时间戳1422568543702900257的序列。第三个点与第二个点具有相同的指定时间戳,但是将其写入拥有度量cpu_load_short和标签集direction=in,host=server01,region=us-west的序列。

curl -i -XPOST 'http://influxdb-ip:8086/write?db=test' --data-binary

'cpu_load_short,host=server02 value=0.67

cpu_load_short,host=server02,region=us-west value=0.55 1422568543702900257

cpu_load_short,direction=in,host=server01,region=us-west value=2.0

1422568543702900257'

写入来自文件的数据:

通过将@filename传给curl来从文件中写入点。文件中的数据应该遵循InfluxDB的行协议语法。格式正确的文件示例(cpu_data.txt):

cpu_load_short,host=server02 value=0.67

cpu_load_short,host=server02,region=us-west value=0.55 1422568543702900257

cpu_load_short,direction=in,host=server01,region=us-west value=2.0

1422568543702900257

将cpu_data.txt中数据写入mydb数据库:

curl -i -XPOST 'http://influxdb-ip:8086/write?db=test' --data-binary

@cpu_data.txt

注意:如果数据文件中超过5,000个点,可能需要将该文件分成几个文件,以便将数据批量写入InfluxDB。 默认情况下,HTTP请求在五秒钟后超时。

InfluxDB在超时之后仍然会尝试写出这些点,但是不能确认它们是否成功写入。

###3.2.2 HTTP响应总结

* 2xx:如果你的写请求收到HTTP 204 No Content,那就成功了!

* 4xx:InfluxDB无法理解请求。

* 5xx:系统过载或严重受损。

无架构设计

InfluxDB是一个无架构的数据库。

您可以随时添加新的度量,标签和字段。请注意,如果您尝试写入与已写入数据类型不相同的数据(例如,将字符串写入之前接受整数的字段),InfluxDB将拒绝这些数据。

错误响应的例子:

将浮点数写入先前接受布尔值的字段中:

curl -i -XPOST 'https://influxdb-ip:8086/writedb=hamlet' --data-binary

'tobeornottobe booleanonly=true' curl -i -XPOST

'https://influxdb-ip:8086/writedb=hamlet' --data-binary 'tobeornottobe

booleanonly=5'

返回:

HTTP/1.1 400 Bad Request Content-Type: application/json Request-Id: [...]

X-Influxdb-Version: 1.4.x Date: Wed, 01 Mar 2017 19:38:01 GMT Content-Length:

150 {"error":"field type conflict: input field \"booleanonly\" on measurement

\"tobeornottobe\" is type float, already exists as type boolean dropped=1"}

Writing a point to a database that doesn’t exist: curl -i -XPOST

'https://localhost:8086/writedb=atlantis' --data-binary 'liters value=10'

returns: HTTP/1.1 404 Not Found Content-Type: application/json Request-Id:

[...] X-Influxdb-Version: 1.4.x Date: Wed, 01 Mar 2017 19:38:35 GMT

Content-Length: 45 {"error":"database not found: \"atlantis\""} Next steps Now

that you know how to write data with the built-in HTTP API discover how to

query them with the Querying Data guide! For more information about writing

data with the HTTP API, please see the API reference documentation.

将点写入不存在的数据库

curl -i -XPOST 'https://localhost:8086/writedb=atlantis' --data-binary 'liters

value=10'

返回:

HTTP/1.1 404 Not Found Content-Type: application/json Request-Id: [...]

X-Influxdb-Version: 1.4.x Date: Wed, 01 Mar 2017 19:38:35 GMT Content-Length:

45 {"error":"database not found: \"atlantis\""}

<>3.3命令行操作

InfluxDB提供类SQL语法,如果熟悉SQL的话会非常容易上手。

一些操作实例请见:https://www.linuxdaxue.com/influxdb-basic-operation.html

<>参考:

http://www.infoq.com/cn/articles/storage-in-sequential-databases

https://zhuanlan.zhihu.com/p/32627177

https://segmentfault.com/a/1190000006868587

http://www.zhimengzhe.com/shujuku/MySQL/414763.html

https://blog.csdn.net/a464057216/article/details/53043551

https://blog.csdn.net/wudufeng/article/details/78567866

https://www.linuxdaxue.com/influxdb-basic-operation.html

https://www.jianshu.com/p/a1344ca86e9b

MYSQL有时序数据库的用法_时序数据库介绍和使用相关推荐

  1. 机械动作时序图怎么画_时序图是怎么画的

    匿名用户 1级 2017-01-14 回答 一.时序图简介(Brief introduction) 时序图(Sequence Diagram)是显示对象之间交互的图,这些对象是按时间顺序排列的.顺序图 ...

  2. MySQL二进制日志文件的用法_数据恢复

    文章目录 开启二进制日志功能 关闭/打开二进制日志记录 刷新二进制日志文件 查看二进制日志文件的存储位置 利用二进制日志文件恢复数据的本质 二进制日志提取/导出到脚本文件中 查看当前二进制日志的最后一 ...

  3. 用来mysql备份的是什么意思_备份数据库有什么用

    展开全部 对于MySQL数据库,备份与恢复e5a48de588b662616964757a686964616f31333433646464相关的术语包括:备份(backup).还原(restore). ...

  4. MySQL数据库三段式_对数据库模式进行规范化处理,是在数据库设计的什么阶段?...

    对数据库模式进行规范化处理,是在数据库设计的"逻辑设计阶段".数据库的逻辑结构设计就是把概念结构设计阶段设计好的基本实体-关系图转换为与选用的数据库管理系统产品所支持的数据模型相符 ...

  5. mysql关系型数据库的优点和缺点_关系型数据库和非关系型数据库的区别和特点...

    关系型数据库 采用关系模型来组织数据结构的数据库(二维表) cle    DB2    SQLServer    Mysql     SQLite都是关系型数据库 优点:容易理解,它的逻辑类似常见的表 ...

  6. MySQL删除数据库的命令_删除数据库的命令是什么?

    删除数据库的命令是"DELETE DATA",具体格式为"DROP DATABASE [IF EXISTS] 数据库名;",可以删除数据库中的所有表格并同时删除 ...

  7. oracle数据库imp用法,imp导入数据库的用法

    66.2. exp/imp 创建导入,导出用户 sqlplus /nolog conn system/manager GRANT CREATE USER,DROP USER,ALTER USER ,C ...

  8. 数据库健康状况监视_监视数据库运行状况和行为:哪些指标重要?

    数据库健康状况监视 我们对数据库的谈论不够. 在这个工具时代,我们监视我们的应用程序,基础结构甚至用户,但是有时我们忘记了我们的数据库也应受到监视. 这主要是因为大多数数据库都能很好地完成其工作,因此 ...

  9. 数据库即时搜索_加速数据库恢复; 即时回滚和数据库恢复

    数据库即时搜索 Accelerated database recovery will be the topic of this article, including killing an active ...

最新文章

  1. 2014-5-14 我的战斗效果
  2. python使用正则表达式判别用户输入密码的强弱并提示
  3. Visio对象插入Word后周围空白过大
  4. [转]TensorFlow如何进行时序预测
  5. 可疑文件_特制的ZIP文件能够绕过电子邮件安全网关
  6. python2.7教程 pdf_PYTHON基础教程至60课(2.7版本)整理
  7. 【平衡规划】Arithmetic Operations(CF1654E)
  8. LESS vs SASS?选择哪种CSS样式编程语言?
  9. 国内外大厂集结,远程办公大考成绩单发布!
  10. 微软Windows Hello曝漏洞!外接一个USB摄像头,分分钟破解你的电脑
  11. doe五步法_DOE方法介绍
  12. 分享几个音乐下载网站
  13. 网络数据保障ptop_网络影响未来十大预言 宽带应用将与新媒体融合
  14. 服务器自带的防篡改,防篡改系统
  15. HDRP UI上渲染模型的解决方式及常见问题
  16. Django实现用户管理
  17. dba怎么报考_深圳dba双证报考时间
  18. Ubuntu硬盘空间不足时,添加硬盘的方法
  19. java语言基础知识笔记
  20. Hive启动报错 java.lang.RuntimeException: org.apache.hadoop.hive.ql.metadata.HiveException: java.lang

热门文章

  1. 【新坑】全彩点阵驱动协议转换计划
  2. 孤岛,隧道逃离问题(贪心+伪动态规划)
  3. matlab三维立体空间图,三维空间作图.ppt
  4. 详解js中的继承(一)
  5. 枚举+递归+DFS基础模板类算法总结
  6. StyleGAN2人脸属性编辑-破解FaceAPP
  7. 海尔H40E10刷机教程(经验分享)
  8. 微信群之社群经济的魔力
  9. 2022-2028全球与中国医疗设备包装市场现状及未来发展趋势
  10. 【用Rust玩嵌入式】用STM32做一个拇指琴音符指示器