tuningConfig 的配置是可选的,如果你不在这里对这个参数进行配置的话,Druid 将会使用默认的配置来替代。

字段(Field) 类型(Type) 描述(Description) 是否必须(Required)
type String 索引任务类型, 总是 kafka。 Y
maxRowsInMemory Integer 在持久化之前在内存中聚合的最大行数。该数值为聚合之后的行数,所以它不等于原始输入事件的行数,而是事件被聚合后的行数。 通常用来管理所需的 JVM 堆内存。 使用 maxRowsInMemory * (2 + maxPendingPersists) 来当做索引任务的最大堆内存。通常用户不需要设置这个值,但是也需要根据数据的特点来决定,如果行的字节数较短,用户可能不想在内存中存储一百万行,应该设置这个值。 N(默认=1000000)
maxBytesInMemory Long 在持久化之前在内存中聚合的最大字节数。这是基于对内存使用量的粗略估计,而不是实际使用量。通常这是在内部计算的,用户不需要设置它。 索引任务的最大内存使用量是 maxRowsInMemory * (2 + maxPendingPersists) N(默认=最大JVM内存的 1/6)
maxRowsPerSegment Integer 聚合到一个段中的行数,该数值为聚合后的数值。 当 maxRowsPerSegment 或者 maxTotalRows 有一个值命中的时候,则触发 handoff(数据存盘后传到深度存储), 该动作也会按照每 intermediateHandoffPeriod 时间间隔发生一次。 N(默认=5000000)
maxTotalRows Long 所有段的聚合后的行数,该值为聚合后的行数。当 maxRowsPerSegment 或者 maxTotalRows 有一个值命中的时候,则触发handoff(数据落盘后传到深度存储), 该动作也会按照每 intermediateHandoffPeriod 时间间隔发生一次。 N(默认=unlimited)
intermediatePersistPeriod ISO8601 Period 确定触发持续化存储的周期 N(默认= PT10M)
maxPendingPersists Integer 正在等待但启动的持久化过程的最大数量。 如果新的持久化任务超过了此限制,则在当前运行的持久化完成之前,摄取将被阻止。索引任务的最大内存使用量是 maxRowsInMemory * (2 + maxPendingPersists) 否(默认为0,意味着一个持久化可以与摄取同时运行,而没有一个可以进入队列)
indexSpec Object 调整数据被如何索引。详情可以见 IndexSpec 页面中的内容 N
indexSpecForIntermediatePersists 定义要在索引时用于中间持久化临时段的段存储格式选项。这可用于禁用中间段上的维度/度量压缩,以减少最终合并所需的内存。但是,在中间段上禁用压缩可能会增加页缓存的使用,而在它们被合并到发布的最终段之前使用它们,有关可能的值。详情可以见 IndexSpec 页面中的内容。 N(默认= 与 indexSpec 相同)
reportParseExceptions Boolean 已经丢弃(DEPRECATED)。如果为true,则在解析期间遇到的异常即停止摄取;如果为false,则将跳过不可解析的行和字段。将 reportParseExceptions 设置为 true 将覆盖maxParseExceptions 和 maxSavedParseExceptions 的现有配置,将maxParseExceptions 设置为 0 并将 maxSavedParseExceptions 限制为不超过1。 N(默认=false)
handoffConditionTimeout Long 段切换(持久化)可以等待的毫秒数(超时时间)。 该值要被设置为大于0的数,设置为0意味着将会一直等待不超时。 N(默认=0)
resetOffsetAutomatically Boolean 控制当Druid需要读取Kafka中不可用的消息时的行为,比如当发生了 OffsetOutOfRangeException 异常时。 如果为false,则异常将抛出,这将导致任务失败并停止接收。如果发生这种情况,则需要手动干预来纠正这种情况;可能使用 重置 Supervisor API 。此模式对于生产非常有用,因为它将使您意识到摄取的问题。如果为true,Druid将根据 useEarliestOffset 属性的值(true 为 earliest ,false 为 latest )自动重置为Kafka中可用的较早或最新偏移量。请注意,这可能导致数据在您不知情的情况下被丢弃 (如果useEarliestOffset 为 false )或 重复 (如果 useEarliestOffset 为 true )。消息将被记录下来,以标识已发生重置,但摄取将继续。这种模式对于非生产环境非常有用,因为它将使Druid尝试自动从问题中恢复,即使这些问题会导致数据被安静删除或重复。该特性与Kafka的 auto.offset.reset 消费者属性很相似 N(默认=false)
workerThreads Integer supervisor 用于为工作任务处理 请求/相应(requests/responses)异步操作的线程数。 N(默认=min(10, taskCount))
chatThreads Integer 与索引任务的会话线程数。 N(默认=10, taskCount * replicas))
chatRetries Integer 在任务没有响应之前,将重试对索引任务的HTTP请求的次数 N(默认=8)
httpTimeout ISO8601 Period 索引任务的 HTTP 响应超时的时间。 N(默认=PT10S)
shutdownTimeout ISO8601 Period supervisor 尝试无故障的停掉一个任务的超时时间。 N(默认=PT80S)
offsetFetchPeriod ISO8601 Period supervisor 查询 Kafka 和索引任务以获取当前偏移和计算滞后的频率。 N(默认=PT30S,min == PT5S)
segmentWriteOutMediumFactory Object 创建段时要使用的段写入介质。更多信息见下文。 N (默认不指定,使用来源于 druid.peon.defaultSegmentWriteOutMediumFactory.type 的值)
intermediateHandoffPeriod ISO8601 Period 段发生切换的频率。当 maxRowsPerSegment 或者 maxTotalRows 有一个值命中的时候,则触发handoff(数据存盘后传到深度存储), 该动作也会按照每 intermediateHandoffPeriod 时间间隔发生一次。 N(默认=P2147483647D)
logParseExceptions Boolean 如果为 true,则在发生解析异常时记录错误消息,其中包含有关发生错误的行的信息。 N(默认=false)
maxParseExceptions Integer 任务停止接收之前可发生的最大分析异常数。如果设置了 reportParseExceptions ,则该值会被重写。 N(默认=unlimited)
maxSavedParseExceptions Integer 当出现解析异常时,Druid可以跟踪最新的解析异常。"maxSavedParseExceptions"决定将保存多少个异常实例。这些保存的异常将在 任务完成报告 中的任务完成后可用。如果设置了reportParseExceptions ,则该值会被重写。 N(默认=0)

https://www.ossez.com/t/druid-kafka-tuningconfig/13672

Druid 加载 Kafka 流数据的性能配置参数 TuningConfig相关推荐

  1. Druid 加载 Kafka 数据时通过控制台来提交一个 supervisor

    在控制台中,单击 Submit supervisor 来打开一个 supervisor 对话框. 请将下面的内容配置参数拷贝张贴到打开的对话框中,然后单击 Submit 提交. {"type ...

  2. R语言广义加性模型(GAMs:Generalized Additive Model)建模:数据加载、划分数据、并分别构建线性回归模型和广义线性加性模型GAMs、并比较线性模型和GAMs模型的性能

    R语言广义加性模型(GAMs:Generalized Additive Model)建模:数据加载.划分数据.并分别构建线性回归模型和广义线性加性模型GAMs.并比较线性模型和GAMs模型的性能 目录

  3. Druid加载(load data)HDFS文件数据

    Druid加载csv类型文件 [root@zeusmaster bin]# more 2.csv  TIME,STR,NUM 2021-01-21 10:54:46,a,1 2021-01-21 10 ...

  4. ProPublica Illinois如何每天使用GNU Make加载1.4GB数据

    长期以来,我避免在数据新闻工作中使用GNU Make,部分原因是该文档过于晦涩,以至于我看不到Make(提取提取转换加载(ETL)流程之一)如何对我的日常工作有所帮助.日数据报告. 但是今年,要构建T ...

  5. JS 原生自动加载的大数据表格探索

    目录 尝试1.使用table初级实现 动态加载关键代码 效果 尝试2.使用绝对定位优化表格 效果 尝试3.绝对定位+scroll动态加载优化尝试 效果 尝试4. table + 绝对定位 + scro ...

  6. 使用Vant框架的组件van-pull-refresh搭配van-list和van-card完成上滑加载更多列表数据,下拉刷新当前列表数据(等同于翻页功能)

    <template><div class="sg-page-body"><div class="sg-list"><v ...

  7. bootstraptable 加载完成_bootstrap table onLoadSuccess加载服务端数据成功事件

    bootstrap table onLoadSuccess加载服务端数据成功事件 bootstrap table onLoadSuccess加载服务端数据成功的事件,该事件的作用是什么呢?服务端返回自 ...

  8. Boost:加载评估WebSocket服务器的性能测试程序

    Boost:加载评估WebSocket服务器的性能测试程序 实现功能 C++实现代码 实现功能 基于Boost::beast模块,加载评估WebSocket服务器的性能测试程序 C++实现代码 #in ...

  9. Qt Creator加载占位符数据

    Qt Creator加载占位符数据 加载占位符数据 使用虚拟模型 创建虚拟上下文 加载占位符数据 设计模式支持视图,模型和委托,因此,当您添加网格视图,列表视图或路径视图项时,将自动添加ListMod ...

最新文章

  1. JavaScript 高级篇之DOM文档,简单封装及调用、动态添加、删除样式(推荐七)
  2. 2021-03-12 控制三大顶会
  3. SnapGene mac 5.3.1 中文分子生物学可视化工具及教程
  4. PHP对Json字符串解码返回NULL的一般解决方案
  5. 《众妙之门——网页排版设计制胜秘诀》——3.4 展现品牌视觉的同时保持网页的可读性...
  6. php默认日志位置,Laravel 修改默认日志文件名称和位置的例子
  7. linux那些事之中断与异常(AMD64架构)_2
  8. Apollo测试通知登记
  9. 如何在Git中合并特定的提交
  10. 遍历字典_Python编程从入门到实践-连载5(字 典)
  11. Atitit 泛型的知识点 目录 1. 为什么需要泛型 why 2 2. 定义分类 what 2 2.1. 编辑类型参数 2 2.2. 模板 2 2.3. 简单理解 占位符 代替object、 3
  12. python学习笔记之读取pdf文件库pdfminer(二)
  13. Google Cloud API设计指南
  14. 电脑变卡,电脑一直很流畅一夜之间变卡
  15. 147计算机代表啥,147代表什么意思
  16. 学术规范与论文写作(雨课堂)研究生 全部答案
  17. 【愚公系列】2023年06月 网络安全(交通银行杯)-木册木兰
  18. Certbot nginx证书 or not Let‘s Encrypt
  19. mysql sql按小时统计_sqlserver/mysql按天、按小时、按分钟统计连续时间段数据
  20. Docker desktop 4.7版本安装提示无法访问d3dcompiler_47.dll文件解决方法

热门文章

  1. Jmeter接口测试生成测试报告(可视化图形!测试数据非常直观!).jmx文件生成.jtl文件并生成.html文件可视化图形测试报告
  2. 市场调研-全球与中国企业数据丢失预防(EDLP)产品市场现状及未来发展趋势
  3. Android 框架学习2:源码分析 EventBus 3.0 如何实现事件总线
  4. html合并单元格后有虚线,excle单元格中间出现虚线/Excel表格里出现虚线,是怎么回事?...
  5. HTML 关于p标签的嵌套问题
  6. Zynq MPSOC 电子书免费下载
  7. 一起来看看,除夕夜有哪些走心的文案?
  8. Unity_二进制,Jason,XML存档读档
  9. python中time什么意思_python中time包是什么?
  10. java 字数_java 字数统计