druid-docs-cn/Querying/scan.md

9.7 KiB
Raw Blame History

Scan查询

[!WARNING] Apache Druid支持两种查询语言 Druid SQL原生查询。该文档描述了原生查询中的一种查询方式。 对于Druid SQL中使用的该种类型的信息可以参考 SQL文档

Scan查询以流模式返回原始Apache Druid行。

除了向Broker发出扫描查询的简单用法之外还可以直接向Historical或流式摄取任务发出扫描查询。如果您希望并行地检索大量数据这将非常有用。

扫描查询对象示例如下所示:

 {
   "queryType": "scan",
   "dataSource": "wikipedia",
   "resultFormat": "list",
   "columns":[],
   "intervals": [
     "2013-01-01/2013-01-02"
   ],
   "batchSize":20480,
   "limit":3
 }

以下为Scan查询的主要参数

属性 描述 是否必须
queryType 该字符串始终为"scan", Druid根据该字段来确定如何执行该查询
dataSource 要查询的数据源, 类似于关系型数据库的表。 可以通过 数据源 来查看更多信息
intervals 表示ISO-8601间隔的JSON对象。这定义了运行查询的时间范围。
resultFormat 结果集如何呈现:当前仅支持 listcompactedList,默认为 list
filter 参考 Filters
columns 要扫描的维度和指标的字符串数组。如果留空,则返回所有维度和指标。
batchSize 返回到客户端之前缓冲的最大行数。默认值为20480
limit 返回多少行。如果未指定,则返回所有行。
offset 返回结果时跳过这么多行。跳过的行仍然需要在内部生成,然后丢弃,这意味着将偏移量提高到较高的值可能会导致查询使用额外的资源。"limit"和"offset"一起可以用来实现分页。但是,请注意,如果在页面获取之间修改基础数据源的方式会影响整个查询结果,那么不同的页面不一定会彼此对齐。
order 基于时间戳对返回行的排序。支持升序、降序和无(默认)。目前,"升序"和"降序"仅支持在columns字段中包含 __time 列并且满足时间顺序部分中列出的要求的查询。 NONE
legacy 返回与旧版scan-query扩展一致的结果。默认为由设置的值druid.query.scan.legacy然后默认为false。有关详细信息请参见传统模式
context 一个附加的JSON对象可用于指定某些标志请参阅下面的查询上下文属性部分)。

示例结果

当resultFormat为 list时,结果格式如下:

 [{
   "segmentId" : "wikipedia_editstream_2012-12-29T00:00:00.000Z_2013-01-10T08:00:00.000Z_2013-01-10T08:13:47.830Z_v9",
   "columns" : [
     "timestamp",
     "robot",
     "namespace",
     "anonymous",
     "unpatrolled",
     "page",
     "language",
     "newpage",
     "user",
     "count",
     "added",
     "delta",
     "variation",
     "deleted"
   ],
   "events" : [ {
       "timestamp" : "2013-01-01T00:00:00.000Z",
       "robot" : "1",
       "namespace" : "article",
       "anonymous" : "0",
       "unpatrolled" : "0",
       "page" : "11._korpus_(NOVJ)",
       "language" : "sl",
       "newpage" : "0",
       "user" : "EmausBot",
       "count" : 1.0,
       "added" : 39.0,
       "delta" : 39.0,
       "variation" : 39.0,
       "deleted" : 0.0
   }, {
       "timestamp" : "2013-01-01T00:00:00.000Z",
       "robot" : "0",
       "namespace" : "article",
       "anonymous" : "0",
       "unpatrolled" : "0",
       "page" : "112_U.S._580",
       "language" : "en",
       "newpage" : "1",
       "user" : "MZMcBride",
       "count" : 1.0,
       "added" : 70.0,
       "delta" : 70.0,
       "variation" : 70.0,
       "deleted" : 0.0
   }, {
       "timestamp" : "2013-01-01T00:00:00.000Z",
       "robot" : "0",
       "namespace" : "article",
       "anonymous" : "0",
       "unpatrolled" : "0",
       "page" : "113_U.S._243",
       "language" : "en",
       "newpage" : "1",
       "user" : "MZMcBride",
       "count" : 1.0,
       "added" : 77.0,
       "delta" : 77.0,
       "variation" : 77.0,
       "deleted" : 0.0
   } ]
} ]

当resultFormat为 compactedList时,结果格式如下:

 [{
    "segmentId" : "wikipedia_editstream_2012-12-29T00:00:00.000Z_2013-01-10T08:00:00.000Z_2013-01-10T08:13:47.830Z_v9",
    "columns" : [
      "timestamp", "robot", "namespace", "anonymous", "unpatrolled", "page", "language", "newpage", "user", "count", "added", "delta", "variation", "deleted"
    ],
    "events" : [
     ["2013-01-01T00:00:00.000Z", "1", "article", "0", "0", "11._korpus_(NOVJ)", "sl", "0", "EmausBot", 1.0, 39.0, 39.0, 39.0, 0.0],
     ["2013-01-01T00:00:00.000Z", "0", "article", "0", "0", "112_U.S._580", "en", "1", "MZMcBride", 1.0, 70.0, 70.0, 70.0, 0.0],
     ["2013-01-01T00:00:00.000Z", "0", "article", "0", "0", "113_U.S._243", "en", "1", "MZMcBride", 1.0, 77.0, 77.0, 77.0, 0.0]
    ]
} ]

时间排序

对于非传统模式Scan查询当前是支持基于时间戳的排序。请注意使用时间戳进行排序将产生并不标识来源于哪个段中的行的结果(segmentId将展示为null)。 此外,仅当结果集限制小于druid.query.scan.maxRowsQueuedForOrdering行或者所有被扫描的段小于druid.query.scan.maxSegmentPartitionsOrderedInMemory时,才支持时间排序。 另外除非指定了段列表否则直接向Historical发出的查询不支持时间排序。这些限制背后的原因是时间排序的实现使用了两种策略如果不受限制这两种策略可能会消耗太多堆内存。这些策略如下所列是根据查询结果集限制和扫描的段数在每个Historical进行选择的。

  1. 优先级队列按顺序打开Historical上的每个段。每一行都被添加到一个按时间戳排序的有界优先级队列中。对于超过结果集限制的每一行时间戳最早如果降序或最晚如果升序的行将被取消排队。在处理完每一行之后优先级队列的排序内容将以批处理的方式流回Broker。试图将太多的行加载到内存中会有Historical内存不足的风险。这个druid.query.scan.maxRowsQueuedForOrdering属性通过在使用时间排序时限制查询结果集中的行数来防止此问题。
  2. N路合并对于每个段并行打开每个分区。由于每个分区的行已经按时间顺序排列因此可以对每个分区的结果执行n路合并。这种方法不会将整个结果集持久化到内存中像优先级队列那样因为它会在批处理从merge函数返回时将它们流式返回。但是由于需要为每个分区打开解压缩和解码缓冲区尝试查询太多分区也可能导致内存使用率高。这个druid.query.scan.maxSegmentPartitionsOrderedInMemory通过在使用时间排序的任何时候限制打开的分区数来防止出现这种情况。

无论是 druid.query.scan.maxRowsQueuedForOrdering 还是 druid.query.scan.maxSegmentPartitionsOrderedInMemory,都可以根据硬件规格和查询的维度数量来进行优化调整,这些属性也可以在查询上下文中通过 maxRowsQueuedForOrderingmaxSegmentPartitionsOrderedInMemory 进行覆盖,可以查看 查询上下文属性 部分来查看。

传统模式

Scan查询支持一个传统模式该模式是为与以前的Scan查询contrib扩展的协议兼容性而设计的。在传统模式下您可以预期以下行为更改

  • __time 列返回为 timestamp 而不是 __time。 它将优先于任何其他名称为 timestamp 的列
  • __time 列包含在列的列表中,即使没有特别的指定
  • 时间戳以ISO8601时间字符串而不是整数的形式返回自1970-01-01 00:00:00 UTC以来的毫秒

传统模式可以通过两种方式来进行触发: 在查询的JSON中传入 "legacy":true 在Druid进程中设置 druid.query.scan.legacy = true 配置。 如果以前使用的是scan查询contrib扩展迁移的最佳方法是在滚动升级期间激活传统模式然后在升级完成后将其关闭。

配置属性

属性 描述 默认值
druid.query.scan.maxRowsQueuedForOrdering 当使用时间排序时,返回的最大行数 1到2147483647之间的一个整数 100000
druid.query.scan.maxSegmentPartitionsOrderedInMemory 当使用时间排序时, 每个Historical上被扫描的最大的段数 1到2147483647之间的一个整数 50
druid.query.scan.legacy 在scan查询中是否打开传统模式 true或者false false

查询上下文属性

属性 描述 默认值
maxRowsQueuedForOrdering 当使用时间排序时,返回的最大行数, 覆盖同名配置 1到2147483647之间的一个整数 druid.query.scan.maxRowsQueuedForOrdering
maxSegmentPartitionsOrderedInMemory 当使用时间排序时, 每个Historical上被扫描的最大的段数 1到2147483647之间的一个整数 druid.query.scan.maxSegmentPartitionsOrderedInMemory

示例查询上下文的JSON对象

{
  "maxRowsQueuedForOrdering": 100001,
  "maxSegmentPartitionsOrderedInMemory": 100
}