5.6 KiB
数据摄取相关问题FAQ
实时摄取
最常见的原因是事件被摄取是在Druid的窗口时段 windowPeriod
范围之外。Druid实时摄取只接受当前时间的可配置窗口时段内的事件。您可以通过查看包含 ingest/events/*
日志行的实时进程日志来验证这是什么情况。这些z指标将标识接收、拒绝的事件等。
我们建议对生产中的历史数据使用批量摄取方法。
批量摄取
如果尝试批量加载历史数据,但没有事件被加载到,请确保摄取规范的时间间隔实际上包含了数据的间隔。此间隔之外的事件将被删除。
Druid支持什么样的数据类型
Druid可以摄取JSON、CSV、TSV和其他分隔数据。Druid支持一维值或多维值(字符串数组)。Druid支持long、float和double数值列。
并非所有的事件都被摄取了
Druid会拒绝时间窗口之外的事件, 确认事件是否被拒绝了的最佳方式是查看 Druid摄取指标
如果摄取的事件数似乎正确,请确保查询的格式正确。如果在摄取规范中包含 count
聚合器,则需要使用 longSum
聚合器查询此聚合的结果。使用count聚合器发出查询将计算Druid行的数量,包括 rollup。
摄取之后段存储在哪里
段的存储位置由 druid.storage.type
配置决定的,Druid会将段上传到 深度存储。 本地磁盘是默认的深度存储位置。
流摄取任务没有发生段切换递交
首先,确保摄取过程的日志中没有异常,如果运行的是分布式集群,还要确保 druid.storage.type
被设置为非本地的深度存储。
移交失败的其他常见原因如下:
- Druid无法写入元数据存储,确保您的配置正确
- Historical进程容量不足,无法再下载任何段。如果发生这种情况,您将在Coordinator日志中看到异常,Coordinator控制台将显示历史记录接近容量
- 段已损坏,无法下载。如果发生这种情况,您将在Historical进程中看到异常
- 深度存储配置不正确。确保您的段实际存在于深度存储中,并且Coordinator日志没有错误
如何让HDFS工作
确保在类路径中包含 druid-hdfs-storage
和所有的hadoop配置、依赖项(可以通过在安装了hadoop的计算机上运行 hadoop classpath
命令获得)。并且,提供必要的HDFS设置,如 深度存储 中所述。
没有在Historical进程中看到Druid段
您可以查看位于 <Coordinator_IP>:<PORT>
的Coordinator控制台, 确保您的段实际上已加载到 Historical进程中。如果段不存在,请检查Coordinator日志中有关复制错误容量的消息。不下载段的一个原因是,Historical进程的 maxSize
太小,使它们无法下载更多数据。您可以使用(例如)更改它:
-Ddruid.segmentCache.locations=[{"path":"/tmp/druid/storageLocation","maxSize":"500000000000"}]
-Ddruid.server.maxSize=500000000000
查询返回来了空结果
您可以对为数据源创建的dimension和metric使用段 元数据查询。确保您在查询中使用的聚合器的名称与这些metric之一匹配,还要确保指定的查询间隔与存在数据的有效时间范围匹配。
schema变化时如何在Druid中重新索引现有数据
您可以将 DruidInputSource 与 并行任务 一起使用,以使用新schema摄取现有的druid段,并更改该段的name、dimensions、metrics、rollup等。有关详细信息,请参阅 DruidInputSource。或者,如果使用基于hadoop的摄取,那么可以使用"dataSource"输入规范来重新编制索引。
如果更改Druid中现有数据的段粒度
在很多情况下,您可能希望降低旧数据的粒度。例如,任何超过1个月的数据都只有小时级别的粒度,而较新的数据只有分钟级别的粒度。此场景与重新索引相同。
为此,使用 DruidInputSource 并运行一个 并行任务。DruidInputSource 将允许你从Druid中获取现有的段并将它们聚合并反馈给Druid。它还允许您在反馈数据时过滤这些段中的数据,这意味着,如果有要删除的行,可以在重新摄取期间将它们过滤掉。通常,上面的操作将作为一个批处理作业运行,即每天输入一大块数据并对其进行聚合。或者,如果使用基于hadoop的摄取,那么可以使用"dataSource"输入规范来重新编制索引。
实时摄取似乎被卡住了
有几种方法可以做到这一点。如果中间持久化消耗太长时间或如果移交消耗太长事件,Druid将限制摄入,以防止内存不足的问题。如果您的流程日志表明某些列的生成时间非常长(例如,如果您的段粒度是每小时一次,但是创建一个列需要30分钟),那么您应该重新评估您的配置或扩展您的实时接收
更多信息
对于第一次使用Druid的用户来说,将数据输入Druid是非常困难的。请不要犹豫,在我们的IRC频道或在我们的 google群组 页面上提问。