6.5 KiB
SegmentMetaData查询
[!WARNING] Apache Druid支持两种查询语言: Druid SQL 和 原生查询。该文档描述了仅仅在原生查询中的一种查询方式。同时,Druid SQL在元数据表部分包括了相似的功能。
段的元数据查询返回每个段的如下信息:
- 段中存储的行数
- 段包含的时间间隔
- 如果存储的平铺格式的数据(如:csv文件)估计一个段的大小
- 段id
- 段是否上卷
- 每一列的详细信息,比如:
- 类型
- 基数
- 最大最小值
- 存在空值
- 估计的“平面格式”字节大小
{
"queryType":"segmentMetadata",
"dataSource":"sample_datasource",
"intervals":["2013-01-01/2014-01-01"]
}
对于一个段元数据查询主要有以下几个主要部分:
属性 | 描述 | 是否必须 |
---|---|---|
queryType |
该字符串始终为"segmentMetadata", Druid根据该字段来确定如何执行该查询 | 是 |
dataSource |
要查询的数据源, 类似于关系型数据库的表。 可以通过 数据源 来查看更多信息 | 是 |
intervals |
表示ISO-8601间隔的JSON对象。这定义了运行查询的时间范围。 | 是 |
toInclude |
标识哪些列该被包含在结果中的JSON对象,默认为 all |
否 |
merge |
合并所有独立的段元数据结果到一个单一的结果中 | 否 |
context |
详情参见 Context | 否 |
analysisTypes |
字符串列表,指定应计算哪些列属性(例如基数、大小)并在结果中返回。默认为["cardinality","interval","minmax"],但可以使用段元数据查询配置进行覆盖。有关详细信息,请参见analysisTypes部分 | 否 |
lenientAggregatorMerge |
如果为true,并且启用了"聚合器" analysisType ,则聚合器将轻松合并。详见下文。 |
否 |
结果集的格式为:
[ {
"id" : "some_id",
"intervals" : [ "2013-05-13T00:00:00.000Z/2013-05-14T00:00:00.000Z" ],
"columns" : {
"__time" : { "type" : "LONG", "hasMultipleValues" : false, "hasNulls": false, "size" : 407240380, "cardinality" : null, "errorMessage" : null },
"dim1" : { "type" : "STRING", "hasMultipleValues" : false, "hasNulls": false, "size" : 100000, "cardinality" : 1944, "errorMessage" : null },
"dim2" : { "type" : "STRING", "hasMultipleValues" : true, "hasNulls": true, "size" : 100000, "cardinality" : 1504, "errorMessage" : null },
"metric1" : { "type" : "FLOAT", "hasMultipleValues" : false, "hasNulls": false, "size" : 100000, "cardinality" : null, "errorMessage" : null }
},
"aggregators" : {
"metric1" : { "type" : "longSum", "name" : "metric1", "fieldName" : "metric1" }
},
"queryGranularity" : {
"type": "none"
},
"size" : 300000,
"numRows" : 5000000
} ]
维度列有以下类型 STRING
, FLOAT
, DOUBLE
或者 LONG
。指标列有以下类型 FLOAT
, DOUBLE
, 或者 LONG
, 或者如 hyperUnique
复杂类型的名字。时间戳列的类型为 LONG
。
如果 errorMessage
字段为非null,则不应信任响应中的其他字段。它们的内容没有定义。
仅仅只有字典编码的列才有基数(如 STRING
类型),其余类型的列(时间戳和指标列)的基数字段都是 null
。
intervals
如果未指定间隔,查询将使用默认间隔,该间隔跨越最近段结束时间之前的可配置时段。
默认时间周期的长度可以在Broker配置中的 druid.query.segmentMetadata.defaultHistory
来设置。
toInclude
有三个类型的toInclude对象。
All
语法如下:
"toInclude": { "type": "all"}
None
语法如下:
"toInclude": { "type": "none"}
List
语法如下:
"toInclude": { "type": "list", "columns": [<string list of column names>]}
analysisTypes
这是一个属性列表,用于确定返回的有关列的信息量,即对列执行的分析。
默认情况下,"cardinality", "interval" 和 "minmax" 类型被使用。
如果不需要某个属性,则从该列表中省略该属性将导致更高效的查询。
默认的分析类型可以通过Broker配置中的 druid.query.segmentMetadata.defaultAnalysisTypes
来设置。
列分析的类型如下描述:
cardinality
- 结果中的
cardinality
将返回每列基数的估计下限。仅与维度列相关。
minmax
- 预估每一列的最大最小值,仅与维度列相关
size
- 如果以文本格式存储数据,结果中的
size
包括段的字节大小
interval
- 结果中的
intervals
包括查询段相关的时间间隔
timestampSpec
- 结果中的
timestampSpec
包括段中存储数据的时间说明。 如果段的时间说明为未知或者未合并,该值可以为null
queryGranularity
- 结果中的
queryGranularity
包括段中存储的数据的查询粒度。 如果段的查询粒度为未知或者未合并,该值可以为null
aggregators
- 结果中的
aggregators
包括用于查询指标列使用的聚合器。 如果段的聚合器为未知或者未合并,该值可以为null - 合并可以是严格的,也可以是宽松的。 详情可以看下边的 lenientAggregatorMerge
- 结果的格式为一个列名到聚合器的map
rollup
- 结果中的
rollup
为true/false/null - 当合并开启的时候,如果某些有rollup,某些没有,则结果是null
lenientAggregatorMerge
如果某些段具有未知的聚合器,或者两个段对同一列使用不兼容的聚合器(例如,longSum更改为doubleSum),则会发生跨段聚合器元数据之间的冲突。
聚合器可以严格合并(默认)或轻松合并。在严格合并中,如果存在具有未知聚合器的任何段,或任何类型的冲突,则合并的聚合器列表将为空。通过宽松合并,具有未知聚合器的段将被忽略,聚合器之间的冲突只会使该特定列的聚合器失效。
特别是,通过宽松合并,单个列的聚合器可能为空。严格合并不会发生这种情况