基于MinIO/Deleta Lake/Dremio和Superset或Metabase搭建简单的数据湖
数据湖架构
大多数公司都有大量的业务数据,这些数据通常孤立在各种存储系统中,包括数据库和数据仓库。为了充分利用这些数据资产,您应该将数据集中并整合到统一的数据存储中,以增强分析能力。
通过数据湖架构,组织可以更大规模地简化跨职能企业分析。查询数据湖和收获丰富洞察的能力带来了巨大的商业价值。当正确的建立和部署,数据湖给你的能力:
集中、整合和编目业务数据,从而消除与数据孤岛相关的问题
以无缝方式集成广泛的数据源和格式
助力数据科学并利用机器学习
通过向多个用户提供自助服务工具来实现企业数据的大众化。
以下是对数据湖架构的组件1到6的简要说明。
数据源:包括大量结构化和非结构化数据源输入数据湖。其中包括关系数据库、设备日志、企业数据、SaaS 数据、文档、云数据等等。
数据处理: 数据湖包含所有类型的数据资产,其中大部分不是实时产生的。因此,加载到数据湖中的大多数数据都以批处理格式存储。在将数据放入湖中之前,使用lambda 架构或Kafka Streams等实时数据框架(如: Spark)进行流处理。
数据转化:虽然数据湖是用于保存数据的统一中央存储库,但这些数据不会未经任何清理或处理就加载到数据湖中,并可以将其处于更好的结构或格式(如:DELTA LAKE/ICEBERG/HUDI)中以便于分析。
数据存储:这里是存储不同类型数据的地方。MinIO等工具用于存储目的。
数据分析: 数据湖允许企业中的各个团队使用他们选择的分析工具和框架(如: Dremio)访问数据。分析师可以利用这些数据,而无需将其移动到单独的存储中进行处理、分析、提炼或转换。
报告: 数据湖连接到现代商业智能工具,如 Apache Superset、Metabase 或 Tableau,用于准备数据以进行分析和构建报告。
对于想要存储多种类型的数据并从其数据资产中获得巨大价值的企业来说,数据湖非常强大。
基础环境
Docker
Docker版本: 20.10.10
访问地址
Portainer
地址:http://10.0.0.198:9999/#!/home
用户名/密码 admin/ admin123
MinIO
地址: http://10.0.0.198:9009/dashboard
用户名/密码 minio/minio123
Spark
地址: http://10.0.0.198
Dremio
地址: http://10.0.0.198:9047
用户名/密码 dremio/ dremio123
Metabase
地址: http://10.0.0.198:3000
用户名/密码 test123@sina.com / test123@sina.com
在 Linux 系统上安装 Compose
在 Linux 上,你可以从GitHub 上的Compose 存储库发布页面下载 Docker Compose 二进制文件 。按照链接中的说明进行操作,其中包括curl
在终端中运行命令以下载二进制文件。这些分步说明也包含在下面。
对于
alpine
,需要以下依赖包:py-pip
,python3-dev
,libffi-dev
,openssl-dev
,gcc
,libc-dev
,rust
,cargo
和make
。
下载 Docker Compose 的当前稳定版本:
sudo curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
要安装不同版本的 Compose,请替换
1.29.2
为你要使用的 Compose 版本。
对二进制文件应用可执行权限:
sudo chmod +x /usr/local/bin/docker-compose
注意:如果
docker-compose
安装后命令失败,请检查你的路径。你还可以/usr/bin
在路径中创建指向或任何其他目录的符号链接。
例如:
sudo ln -s /usr/local/bin/docker-compose /usr/bin/docker-compose
bash 补全命令
在当前的 Linux 操作系统上(在非最小安装中),bash 完成应该可用。
将完成脚本放在/etc/bash_completion.d/
.
sudo curl \-L https://raw.githubusercontent.com/docker/compose/1.29.2/contrib/completion/bash/docker-compose \-o /etc/bash_completion.d/docker-compose
重新加载你的终端。你可以关闭然后打开一个新终端,或者source ~/.bashrc
在当前终端中使用命令重新加载你的设置。
测试安装。
docker-compose --version
docker-compose version 1.29.2, build 1110ad01
MinIO
在Docker Compose上部署分布式MinIO,请下载docker-compose.yaml到你的当前工作目录。Docker Compose会pull MinIO Docker Image,所以你不需要手动去下载MinIO binary。然后运行下面的命令
安装
# 配置信息
#################### MINIO #####################
x-minio-image: &minio-image minio/minio:RELEASE.2021-07-30T00-02-00Z
x-minio-data-dir: &minio-data-dir# 映射文件路径- /mydata/minio/data:/data#用于部署运行所依赖的基础环境组件
version: '3.9'
services:# 1.MinIO服务器minio:image: *minio-imagecontainer_name: minioports:- "9000:9000"- "9009:9009"restart: alwaysdeploy:resources:limits:cpus: '0.50'memory: 512Mreservations:cpus: '0.25'memory: 256Mcommand: server /data --console-address ":9009"environment:MINIO_ROOT_USER: minioMINIO_ROOT_PASSWORD: minio123 #大于等于8位logging:options:max-size: "2048M" # 最大文件上传限制max-file: "10"driver: json-filevolumes: *minio-data-dirhealthcheck:test: ["CMD", "curl", "-f", "http://10.0.0.198:9000/minio/health/live"]interval: 30stimeout: 20sretries: 3
参考链接:
https://www.jianshu.com/p/aaa797181c2d
Spark3(包含Deleta Lake)
# 2.spark3(包含Deleta Lake)# 2.1 spark-masterspark:image: datamechanics/spark:jvm-only-3.1-latesthostname: sparkcommand: /opt/spark/sbin/start-master.shenvironment:- "SPARK_MASTER_HOST=spark"ports:- "8080:8080"- "7077:7077"# 2.2 spark-workerworker:image: datamechanics/spark:jvm-only-3.1-latesthostname: workercommand: /opt/spark/sbin/start-worker.shenvironment:- "SPARK_MASTER_HOST=spark"ports:- "8080:8080"- "7077:7077"
spark 集成delta lake 以及minio s3
运行命令
# 1. 进入根目录 cd # 2. spark 集成delta lake 以及minio s3 ./bin/spark-shell \ --packages io.delta:delta-core_2.12:1.0.0,org.apache.hadoop:hadoop-aws:3.2.0 \ --conf "spark.hadoop.fs.s3a.access.key=minio" \ --conf "spark.hadoop.fs.s3a.secret.key=minio123" \ --conf "spark.hadoop.fs.s3a.endpoint=http://10.0.0.198:9000" \ --conf "spark.databricks.delta.retentionDurationCheck.enabled=false" \ --conf "spark.sql.extensions=io.delta.sql.DeltaSparkSessionExtension" \ --conf "spark.sql.catalog.spark_catalog=org.apache.spark.sql.delta.catalog.DeltaCatalog" # 3. 创建delta lake table--先在minio中创建名为delta-lake的bucket,然后生成随机数保存都firstdemo中 spark.range(50000000).write.format("delta").save("s3a://delta-lake/firstdemo")
运行示例
185@spark:~/work-dir$ cd
185@spark:~$ ./bin/spark-shell \
--packages io.delta:delta-core_2.12:1.0.0,org.apache.hadoop:hadoop-aws:3.2.0 \
--conf "spark.hadoop.fs.s3a.access.key=minio" \
--conf "spark.hadoop.fs.s3a.secret.key=minio123" \
--conf "spark.hadoop.fs.s3a.endpoint=http://10.0.0.198:9000" \
--conf "spark.databricks.delta.retentionDurationCheck.enabled=false" \
--conf "spark.sql.extensions=io.delta.sql.DeltaSparkSessionExtension" \
--conf "spark.sql.catalog.spark_catalog=org.apache.spark.sql.delta.catalog.DeltaCatalog"
:: loading settings :: url = jar:file:/opt/spark/jars/ivy-2.4.0.jar!/org/apache/ivy/core/settings/ivysettings.xml
Ivy Default Cache set to: /opt/spark/.ivy2/cache
The jars for the packages stored in: /opt/spark/.ivy2/jars
io.delta#delta-core_2.12 added as a dependency
org.apache.hadoop#hadoop-aws added as a dependency
:: resolving dependencies :: org.apache.spark#spark-submit-parent-b3b3485b-6bb5-42b7-a4fc-5a6ceee32dbe;1.0confs: [default]found io.delta#delta-core_2.12;1.0.0 in centralfound org.antlr#antlr4;4.7 in centralfound org.antlr#antlr4-runtime;4.7 in centralfound org.antlr#antlr-runtime;3.5.2 in centralfound org.antlr#ST4;4.0.8 in centralfound org.abego.treelayout#org.abego.treelayout.core;1.0.3 in centralfound org.glassfish#javax.json;1.0.4 in centralfound com.ibm.icu#icu4j;58.2 in centralfound org.apache.hadoop#hadoop-aws;3.2.0 in centralfound com.amazonaws#aws-java-sdk-bundle;1.11.375 in central
:: resolution report :: resolve 350ms :: artifacts dl 9ms:: modules in use:com.amazonaws#aws-java-sdk-bundle;1.11.375 from central in [default]com.ibm.icu#icu4j;58.2 from central in [default]io.delta#delta-core_2.12;1.0.0 from central in [default]org.abego.treelayout#org.abego.treelayout.core;1.0.3 from central in [default]org.antlr#ST4;4.0.8 from central in [default]org.antlr#antlr-runtime;3.5.2 from central in [default]org.antlr#antlr4;4.7 from central in [default]org.antlr#antlr4-runtime;4.7 from central in [default]org.apache.hadoop#hadoop-aws;3.2.0 from central in [default]org.glassfish#javax.json;1.0.4 from central in [default]---------------------------------------------------------------------| | modules || artifacts || conf | number| search|dwnlded|evicted|| number|dwnlded|---------------------------------------------------------------------| default | 10 | 0 | 0 | 0 || 10 | 0 |---------------------------------------------------------------------
:: retrieving :: org.apache.spark#spark-submit-parent-b3b3485b-6bb5-42b7-a4fc-5a6ceee32dbeconfs: [default]0 artifacts copied, 10 already retrieved (0kB/9ms)
21/11/04 05:10:33 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
21/11/04 05:10:41 WARN Utils: Service 'SparkUI' could not bind on port 4040. Attempting port 4041.
Spark context Web UI available at http://localhost:4041
Spark context available as 'sc' (master = local[*], app id = local-1636002641781).
Spark session available as 'spark'.
Welcome to____ __/ __/__ ___ _____/ /___\ \/ _ \/ _ `/ __/ '_//___/ .__/\_,_/_/ /_/\_\ version 3.1.1/_/Using Scala version 2.12.10 (OpenJDK 64-Bit Server VM, Java 1.8.0_312)
Type in expressions to have them evaluated.
Type :help for more information.scala> spark.range(50000000).write.format("delta").save("s3a://delta-lake/firstdemo")
21/11/04 05:12:09 WARN MemoryManager: Total allocation exceeds 95.00% (906,992,014 bytes) of heap memory
Scaling row group sizes to 96.54% for 7 writers
21/11/04 05:12:09 WARN MemoryManager: Total allocation exceeds 95.00% (906,992,014 bytes) of heap memory
Scaling row group sizes to 84.47% for 8 writers
21/11/04 05:12:14 WARN MemoryManager: Total allocation exceeds 95.00% (906,992,014 bytes) of heap memory
Scaling row group sizes to 96.54% for 7 writers
参考链接:
http://spark.apache.org/docs/latest/running-on-kubernetes.html
https://cloud.tencent.com/developer/article/1156852
https://www.cnblogs.com/rongfengliang/p/14928505.html
https://community.dremio.com/t/error-restore-backup/6114/19
Dremio
version: “3.2”
services:mssql:container_name: mssqlimage: microsoft/mssql-server-linux:2017-latestports:- “1433:1433”environment:SA_PASSWORD: “A_P@ssw0rd”ACCEPT_EULA: “Y”dremio_coordinator:container_name: dremioimage: dremio/dremio-ossvolumes:- C:\MYSHARE:/MNT/MYSHAREenvironment:CONF: “is_coordinator”EXECTUORS : "dremio_executor_1,dremio_executor_2"ports:- “9047:9047”- “31010:31010”- “32010:32010”- “45678:45678”links:- mssqldremio_executor_1:container_name: dremioimage: dremio/dremio-ossvolumes:- C:\MYSHARE:/MNT/MYSHAREenvironment:CONF: “is_executor"ID "1"ports:- “9047:9047”- “31010:31010”- “32010:32010”- “45678:45678”links:- dremio_coordinatordremio_executor_2:container_name: dremioimage: dremio/dremio-ossvolumes:- C:\MYSHARE:/MNT/MYSHAREenvironment:CONF: “is_executor"ID: "2"ports:- “9047:9047”- “31010:31010”- “32010:32010”- “45678:45678”links:- dremio_coordinator
Dremio: 将 Minio 配置为分布式存储
https://glory.blog.csdn.net/article/details/120747823
Dremio的基本使用
了解 Dremio
Dremio:使用你的第一个数据集
使用 Tableau 可视化你的第一个数据集
参考链接:
Docker-compose example
https://github.com/dremio/dremio-cloud-tools/tree/master/charts/dremio_v2
https://github.com/dremio/dremio-cloud-tools
https://github.com/big-data-europe/docker-spark
https://www.dremio.com/tutorials/getting-oriented-to-dremio/
Dremio架构分析
Dremio案例_本地Json文件数据分析
Superset
安装
1. Clone Superset 的 Github 仓库
使用以下命令在终端中克隆 Superset 的 repo:
$ git clone https://github.com/apache/superset.git
一旦该命令成功完成,你应该会superset
在当前目录中看到一个新文件夹。
2.通过Docker Compose启动Superset
导航到你在步骤 1 中创建的文件夹:
$ cd superset
然后,运行以下命令:
$ docker-compose -f docker-compose-non-dev.yml up
**注意:**这将在非开发模式下
启动Superset,不会反映对代码库的更改。如果你想在开发模式下
运行 superset 来测试本地更改,只需将之前的命令替换为:docker-compose up
,然后等待superset_node
容器完成资产构建。
配置 Docker Compose
你可以分别使用docker/.env
和为开发和非开发模式配置 Docker Compose 设置docker/.env-non-dev
。这些环境文件为 Docker Compose 设置中的大多数容器设置环境,一些变量影响多个容器,而其他变量只影响单个容器。
一个重要的变量是SUPERSET_LOAD_EXAMPLES
决定superset_init
容器是否将示例数据和可视化加载到数据库和 Superset 中。这些示例对大多数人很有帮助,但对于有经验的用户来说可能没有必要。加载过程有时可能需要几分钟和大量 CPU,因此你可能希望在资源受限的设备上禁用它。
**注意:**用户通常希望从 Superset 连接到其他数据库。目前,最简单的方法是修改docker-compose-non-dev.yml
文件并将你的数据库添加为其他服务所依赖的服务(通过x-superset-depends-on
)。其他人尝试network_mode: host
在 Superset 服务上进行设置,但这些通常会破坏安装,因为配置需要使用 Docker Compose DNS 解析器来获取服务名称。如果你对此有好的解决方案,请告诉我们!
4. 登录Superset
你的本地 Superset 实例还包括一个 Postgres 服务器来存储你的数据,并且已经预加载了一些 Superset 附带的示例数据集。你现在可以通过 Web 浏览器访问 Superset 访问http://localhost:8088
。
使用默认用户名和密码登录:
username: admin
password: admin
在Superset中添加Dremio 驱动程序
Superset 需要为要连接的每种其他类型的数据库安装 Python 数据库驱动程序。通过 本地设置 Superset 时docker-compose
, 将自动安装requirements.txt和 requirements-dev.txt 中包含的驱动程序和包 。
在本节中,我们将介绍如何安装 MySQL 连接器库。所有附加库的连接器库安装过程都是相同的,我们将在本节结束时为每个数据库推荐连接器库。
1. 确定你需要的驱动程序
弄清楚如何安装你选择的数据库驱动程序。
在示例中,我们将逐步介绍在 Superset 中安装 dremio
驱动程序的过程。
2.安装Dremio驱动
由于我们目前通过 运行在 Docker 容器内docker compose
,因此我们不能简单地pip install mysqlclient
在本地 shell 上运行 并期望将驱动程序安装在 Docker 容器中以进行Superset。
为了解决这个问题,Supersetdocker compose
设置附带了一种机制,供你在本地安装包,Git 将忽略本地开发的目的。请按照以下步骤操作:
创建 requirements-local.txt
# From the repo root...
touch ./docker/requirements-local.txt
添加在上述步骤中选择的驱动程序:
echo "sqlalchemy_dremio" >> ./docker/requirements-local.txt
使用内置的新驱动程序重建本地映像:
docker-compose build --force-rm
Docker 镜像的重建完成后(这需要几分钟),你可以使用以下命令重新启动:
docker-compose up
另一种选择是通过 Docker Compose 启动 Superset 使用 中的配方docker-compose-non-dev.yml
,这将使用预先构建的前端资产并跳过前端资产的构建:
docker-compose -f docker-compose-non-dev.yml up
3.连接到Dremio
现在你已经在本地安装了 Dremio驱动程序,你应该可以对其进行测试。
我们现在可以在 Superset 中创建一个可用于连接到 Dremio实例的数据源。假设你的 MySQL 实例在本地运行并且可以通过 localhost 访问,请在“SQL Alchemy URI”中使用以下连接字符串,通过转到 Superset 中的 Sources > Databases > + 图标(添加新数据源)。
对于Dremio推荐的连接器库是 sqlalchemy_dremio。
ODBC 的预期连接字符串(默认端口为 31010)格式如下:
dremio://{username}:{password}@{host}:{port}/{database_name}/dremio?SSL=1
Arrow Flight (Dremio 4.9.1+. 默认端口为 32010) 的预期连接字符串格式如下:
dremio+flight://{username}:{password}@{host}:{port}/dremio
单击“测试连接”,它应该会给你一个“OK”消息。如果没有,请查看你的终端以获取错误消息,并寻求帮助。
你可以为你希望Superset能够连接到的每个数据库重复此过程。
Dremio 的这篇博文提供了一些关于将 Superset 连接到 Dremio 的额外有用说明。
参考链接:
使用 Docker Compose 在本地安装 Superset
Dremio连接器
https://www.dremio.com/tutorials/dremio-apache-superset/
https://pypi.org/project/sqlalchemy-dremio/
在 Docker 中添加新的数据库驱动程序
使用 Apache Superset 对数据湖进行数据分析
Metabase
安装
添加外部依赖项或插件
要添加外部依赖 JAR 文件,例如 Oracle 或 Vertica JDBC 驱动程序或第 3 方 Metabase 驱动程序,你需要在主机系统中创建一个目录plugins
并将其绑定,以便/plugins
使用--mount
或-v
/将其作为路径供 Metabase使用--volume
。
例如,如果你在主机系统上命名了一个目录/path/to/plugins
,则可以使用以下--mount
选项将其内容提供给 Metabase :
docker run -d -p 3000:3000 \--mount type=bind,source=/usr/local/jt/deploy-datalake/datalake/metabase/plugins,destination=/plugins \--name metabase metabase/metabase
请注意,Metabase 将使用此目录提取与默认 Metabase 发行版捆绑在一起的插件(例如 SQLite 等各种数据库的驱动程序),因此它必须是 Docker 可读和可写的。插件要具备可执行权限。
注意
- 新建文件夹
/mydata/minio/data
- 新建文件夹
/usr/local/jt/deploy-datalake/datalake/metabase/plugins
, 并存放dremio.metabase-driver.jar
插件, 赋予可读可写可执行权限- spark整理使用了host模式, 修改启动命令中
command: /opt/spark/sbin/start-worker.sh spark://10.0.0.198:7077
的主机地址
Metabase基本使用
Metabase入门
x-rays帮助快速洞察数据
参考链接:
https://github.com/Baoqi/metabase-dremio-driver
让开源BI Metabase 踏上 Dremio 的风火轮
https://www.metabase.com/docs/latest/operations-guide/running-metabase-on-docker.html
https://registry.hub.docker.com/r/metabase/metabase
在 Docker 上运行 Metabase
https://www.metabase.com/docs/latest/developers-guide-drivers.html
https://github.com/metabase/metabase/wiki/Writing-a-Driver
https://github.com/metabase/metabase/pull/9087?w=1
https://community.dremio.com/t/fyi-just-build-a-dremio-connector-for-metabase-open-source-bi/7487
metabase 的开源插件
完整部署文件
datalake-app.yml
部署数据湖相关组件
# 配置信息
#################### MinIO #####################
x-minio-image: &minio-image minio/minio:RELEASE.2021-07-30T00-02-00Z
x-minio-data-dir: &minio-data-dir# 映射文件路径- /mydata/minio/data:/data#################### Metabase #####################
x-metabase-data-dir: &metabase-data-dir# 映射文件路径- /dev/urandom:/dev/random:ro- /usr/local/jt/deploy-datalake/detailListake/plugins/metabase:/plugins#################### Spark #####################
x-spark-data-dir: &spark-data-dir# 映射文件路径- /usr/local/jt/deploy-datalake/datalake/plugins/spark:/opt/spark/.ivy2#################### Postgres #####################
x-postgres-data-dir: &postgres-data-dir# 映射文件路径- /mydata/postgres/data:/var/lib/postgresql/data#用于部署运行所依赖的基础环境组件
version: '3.9'
services:# 1.MinIO服务器minio:image: *minio-imagecontainer_name: minioports:- "9000:9000"- "9009:9009"restart: alwaysdeploy:resources:limits:cpus: '0.50'memory: 512Mreservations:cpus: '0.25'memory: 256Mcommand: server /data --console-address ":9009"environment:MINIO_ROOT_USER: minioMINIO_ROOT_PASSWORD: minio123 #大于等于8位logging:options:max-size: "2048M" # 最大文件上传限制max-file: "10"driver: json-filevolumes: *minio-data-dirhealthcheck:test: ["CMD", "curl", "-f", "http://localhost:9000/minio/health/live"]interval: 30stimeout: 20sretries: 3# 2.spark3(包含Deleta Lake)# 2.1 spark-masterspark-master:image: datamechanics/spark:jvm-only-3.1-latesthostname: spark-mastercontainer_name: spark-masternetwork_mode: hostcommand: /opt/spark/sbin/start-master.shvolumes: *spark-data-direnvironment:- "SPARK_MASTER_HOST=spark"- "SPARK_NO_DAEMONIZE=true"# ports:# - "8080:8080"# - "7077:7077"# 2.2 spark-workerspark-worker :image: datamechanics/spark:jvm-only-3.1-latesthostname: spark-workercontainer_name: spark-workercommand: /opt/spark/sbin/start-worker.sh spark://10.0.0.198:7077environment:- "SPARK_NO_DAEMONIZE=true"ports:- "8888:8080"- "7777:7077"# 3. dremiodremio:image: dremio/dremio-oss:15.0.0container_name: dremiocommand: -H unix:///var/run/docker.sockrestart: always
# deploy:
# resources:
# limits:
# cpus: '1.0'
# memory: 2048M
# reservations:
# cpus: '0.5'
# memory: 1024M
# environment:
# # 中文查询乱码问题解决
# - DREMIO_JAVA_SERVER_EXTRA_OPTS=-Dsaffron.default.charset=UTF-16LE -Dsaffron.default.nationalcharset=UTF-16LE -Dsaffron.default.collation.name=UTF-16LE\$en_USports:- "9047:9047"- "31010:31010"- "45678:45678"volumes:- /var/run/docker.sock:/var/run/docker.sock #数据文件挂载- /etc/localtime:/etc/localtime:ro- dremio-data:/opt/dremio/data- dremio-data:/var/lib/dremio# 4. metabasemetabase:image: metabase/metabase:v0.39.5container_name: metabasehostname: metabasevolumes: *metabase-data-dirports:- 3000:3000environment:MB_DB_TYPE: postgresMB_DB_DBNAME: metabaseMB_DB_PORT: 5432MB_DB_USER: metabaseMB_DB_PASS: metabase123MB_DB_HOST: postgres-secretsdepends_on:- postgres-secrets# 4. metabase依赖的数据库postgres-secrets:image: postgres:14.0container_name: postgres-secretshostname: postgres-secretsenvironment:POSTGRES_USER: metabasePOSTGRES_DB: metabasePOSTGRES_PASSWORD: metabase123volumes: *postgres-data-dir# 5.Nginx服务器
# nginx:
# image: nginx:${NGINX_VERSION}
# container_name: nginx
# restart: always
# ports:
# - "80:8080"
# - "7930:7930"
# - "9001:9001"
# - "9002:9002"
# #定义挂载点
# volumes:
# - ${NGINX_CONF_FILE}:/etc/nginx/nginx.conf
# - ${NGINX_CONF_DIR}:/etc/nginx/conf.d
# - ${NGINX_LOG_DIR}:/var/log/nginx
# - ${NGINX_HTML_DIR}:/etc/nginx/html# 持久存储
volumes:dremio-data:
datalake-base.yml
部署容器的UI界面
#用于部署运行所依赖的服务
version: '3.9'
services:# 基础环境组件# 1.Portainerportainer:image: portainer/portainer-cecontainer_name: portainercommand: -H unix:///var/run/docker.sockrestart: alwaysdeploy:resources:limits:cpus: '0.50'memory: 800Mreservations:cpus: '0.1'memory: 256Mports:- "9999:9000"- "8000:8000"environment:TZ: Asia/Shanghaivolumes:- /var/run/docker.sock:/var/run/docker.sock #数据文件挂载- portainer_data:/data portainer/portainer-ce #配置文件挂载# 存储卷
volumes:portainer_data:
基于MinIO/Deleta Lake/Dremio和Superset或Metabase搭建简单的数据湖相关推荐
- Delta Lake——数据湖的可靠性
分享一位大神关于 Delta Lake 的演讲内容.这位是 Apache Spark 的 committer 和 PMC 成员,也是 Spark SQL 的最初创建者,目前领导 Databricks ...
- SpringBoot 搭建基于 minio 的高性能存储服务
欢迎关注方志朋的博客,回复"666"获面试宝典 什么是minio 引用官网: MinIO是根据GNU Affero通用公共许可证v3.0发布的高性能对象存储.它与Amazon S3 ...
- 基于 MinIO 对象存储框架的短视频点播平台设计
作者 | 中国农业银行 艾明浩 李云婷 出品 | CSDN(ID:CSDNnews) 短视频平台简介 以短视频点播为代表的流媒体技术应用在移动互联网时代实现了快速扩张.在互联网内容趋于多元化的今天,短 ...
- 基于Delta Lake构建数据湖仓体系
直播回放地址:https://developer.aliyun.com/live/249789 导读: 今天很高兴能与大家分享如何通过 Delta Lake 构建湖仓架构. 全文将围绕以下四个部分展开 ...
- hdfs 数据迁移_基于JindoFS+OSS构建高效数据湖
作者:孙大鹏,花名诚历,阿里巴巴计算平台事业部 EMR 技术专家,Apache Sentry PMC,Apache Commons Committer,目前从事开源大数据存储和优化方面的工作. 为什么 ...
- hive 导入hdfs数据_将数据加载或导入运行在基于HDFS的数据湖之上的Hive表中的另一种方法。
hive 导入hdfs数据 Preceding pen down the article, might want to stretch out appreciation to all the well ...
- 数据湖 data lake_在Data Lake中高效更新TB级数据的模式
数据湖 data lake GOAL: This post discusses SQL "UPDATE" statement equivalent for a data lake ...
- 如何基于MaxCompute快速打通数据仓库和数据湖的湖仓一体实践
简介: MaxCompute 是面向分析的企业级 SaaS 模式云数据仓库,以 Serverless 架构提供快速.全托管的在线数据仓库服务,消除了传统数据平台在资源扩展性和弹性方面的限制,最小化用户 ...
- 云图说|图解DGC:基于华为智能数据湖解决方案的一体化数据治理平台
摘要:数据湖治理中心DGC,帮助企业快速构建从数据集成到数据服务的端到端智能数据系统,消除数据孤岛,统一数据标准,加快数据变现,实现数字化转型. 本文分享自华为云社区<[云图说]第232期 图解 ...
最新文章
- 等待Ajax结果 再提交表单(ajax同步)
- httpclient3.1的多线程处理
- 架构设计:Vue+nginx+jwt+zuul+eureka+ribbon+hystrix+rabbitmq+mysql集群+redis集群+elsticsearch集群
- Cognos 10.1 饼图百分比小数点显示的问题
- android主板读取vga线数据_智锐通掘金新基建上新系列之3.5quot; 与ATX工业主板图鉴...
- 安卓加载asset中的json文件_Joomla 4中的Web资源介绍
- bin文件转换成html,bin如何改成mp4
- 系统架构师考试 2019
- s60v5用java qq_S60V5手机QQ终于来了,试用感受!
- 古老 IP 新玩法,盘点传统文化出圈秘籍
- 日文配列键盘修改和映射自定义
- Math对象属性与方法
- perl中grep用法总结 z
- 苦熬一个月,PDF超过6000页
- 一个基于python实现的录屏软件
- Markdownpad2错误This view has crashed问题解决记录
- redis HyperLogLog原理
- Git安装包下载地址
- Docker技术( 容器虚拟化技术 )
- html max-width默认值,详解css的max-width和min-width