druid-docs-cn/DataIngestion/faq.md

6.0 KiB
Raw Permalink Blame History

数据摄取相关问题FAQ

实时摄取

最常见的原因是事件被摄取是在Druid的窗口时段 windowPeriod 范围之外。Druid实时摄取只接受当前时间的可配置窗口时段内的事件。您可以通过查看包含 ingest/events/* 日志行的实时进程日志来验证这是什么情况。这些z指标将标识接收、拒绝的事件等。

我们建议对生产中的历史数据使用批量摄取方法。

批量摄取

如果尝试批量加载历史数据,但没有事件被加载到,请确保摄取规范的时间间隔实际上包含了数据的间隔。此间隔之外的事件将被删除。

Druid支持什么样的数据类型

Druid可以摄取JSON、CSV、TSV和其他分隔数据。Druid支持一维值或多维值字符串数组。Druid支持long、float和double数值列。

并非所有的事件都被摄取了

Druid会拒绝时间窗口之外的事件 确认事件是否被拒绝了的最佳方式是查看 Druid摄取指标

如果摄取的事件数似乎正确,请确保查询的格式正确。如果在摄取规范中包含 count 聚合器,则需要使用 longSum 聚合器查询此聚合的结果。使用count聚合器发出查询将计算Druid行的数量包括 rollup

摄取之后段存储在哪里

段的存储位置由 druid.storage.type 配置决定的Druid会将段上传到 深度存储。 本地磁盘是默认的深度存储位置。

流摄取任务没有发生段切换递交

首先,确保摄取过程的日志中没有异常,如果运行的是分布式集群,还要确保 druid.storage.type 被设置为非本地的深度存储。

移交失败的其他常见原因如下:

  1. Druid无法写入元数据存储确保您的配置正确
  2. Historical进程容量不足无法再下载任何段。如果发生这种情况您将在Coordinator日志中看到异常Coordinator控制台将显示历史记录接近容量
  3. 段已损坏无法下载。如果发生这种情况您将在Historical进程中看到异常
  4. 深度存储配置不正确。确保您的段实际存在于深度存储中并且Coordinator日志没有错误

如何让HDFS工作

确保在类路径中包含 druid-hdfs-storage 和所有的hadoop配置、依赖项可以通过在安装了hadoop的计算机上运行 hadoop classpath命令获得。并且提供必要的HDFS设置深度存储 中所述。

没有在Historical进程中看到Druid段

您可以查看位于 <Coordinator_IP>:<PORT> 的Coordinator控制台, 确保您的段实际上已加载到 Historical进程中。如果段不存在请检查Coordinator日志中有关复制错误容量的消息。不下载段的一个原因是Historical进程的 maxSize 太小,使它们无法下载更多数据。您可以使用(例如)更改它:

-Ddruid.segmentCache.locations=[{"path":"/tmp/druid/storageLocation","maxSize":"500000000000"}]
-Ddruid.server.maxSize=500000000000

查询返回来了空结果

您可以对为数据源创建的dimension和metric使用段 元数据查询。确保您在查询中使用的聚合器的名称与这些metric之一匹配还要确保指定的查询间隔与存在数据的有效时间范围匹配。

schema变化时如何在Druid中重新索引现有数据

您可以将 DruidInputSource并行任务 一起使用以使用新schema摄取现有的druid段并更改该段的name、dimensions、metrics、rollup等。有关详细信息请参阅 DruidInputSource。或者如果使用基于hadoop的摄取那么可以使用"dataSource"输入规范来重新编制索引。

有关详细信息,请参阅 数据管理 页的 更新现有数据 部分。

如果更改Druid中现有数据的段粒度

在很多情况下您可能希望降低旧数据的粒度。例如任何超过1个月的数据都只有小时级别的粒度而较新的数据只有分钟级别的粒度。此场景与重新索引相同。

为此,使用 DruidInputSource 并运行一个 并行任务DruidInputSource 将允许你从Druid中获取现有的段并将它们聚合并反馈给Druid。它还允许您在反馈数据时过滤这些段中的数据这意味着如果有要删除的行可以在重新摄取期间将它们过滤掉。通常上面的操作将作为一个批处理作业运行即每天输入一大块数据并对其进行聚合。或者如果使用基于hadoop的摄取那么可以使用"dataSource"输入规范来重新编制索引。

有关详细信息,请参阅 数据管理 页的 更新现有数据 部分。

实时摄取似乎被卡住了

有几种方法可以做到这一点。如果中间持久化消耗太长时间或如果移交消耗太长事件Druid将限制摄入以防止内存不足的问题。如果您的流程日志表明某些列的生成时间非常长例如如果您的段粒度是每小时一次但是创建一个列需要30分钟那么您应该重新评估您的配置或扩展您的实时接收

更多信息

对于第一次使用Druid的用户来说将数据输入Druid是非常困难的。请不要犹豫在我们的IRC频道或在我们的 google群组 页面上提问。