add segment metadata

This commit is contained in:
liujianhuan 2021-01-18 11:33:38 +08:00
parent b40b80d58b
commit a04aae92fc
1 changed files with 169 additions and 1 deletions

View File

@ -1 +1,169 @@
<!-- toc -->
<script async src="https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js"></script>
<ins class="adsbygoogle"
style="display:block; text-align:center;"
data-ad-layout="in-article"
data-ad-format="fluid"
data-ad-client="ca-pub-8828078415045620"
data-ad-slot="7586680510"></ins>
<script>
(adsbygoogle = window.adsbygoogle || []).push({});
</script>
## SegmentMetaData查询
> [!WARNING]
> Apache Druid支持两种查询语言 [Druid SQL](druidsql.md) 和 [原生查询](makeNativeQueries.md)。该文档描述了仅仅在原生查询中的一种查询方式。同时Druid SQL在元数据表部分包括了相似的功能。
段的元数据查询返回每个段的如下信息:
* 段中存储的行数
* 段包含的时间间隔
* 如果存储的平铺格式的数据csv文件估计一个段的大小
* 段id
* 段是否上卷
* 每一列的详细信息,比如:
* 类型
* 基数
* 最大最小值
* 存在空值
* 估计的“平面格式”字节大小
```json
{
"queryType":"segmentMetadata",
"dataSource":"sample_datasource",
"intervals":["2013-01-01/2014-01-01"]
}
```
对于一个段元数据查询主要有以下几个主要部分:
| 属性 | 描述 | 是否必须 |
|-|-|-|
| `queryType` | 该字符串始终为"segmentMetadata", Druid根据该字段来确定如何执行该查询 | 是 |
| `dataSource` | 要查询的数据源, 类似于关系型数据库的表。 可以通过 [数据源](datasource.md) 来查看更多信息| 是 |
| `intervals` | 表示ISO-8601间隔的JSON对象。这定义了运行查询的时间范围。| 是 |
| `toInclude` | 标识哪些列该被包含在结果中的JSON对象默认为 `all` | 否 |
| `merge` | 合并所有独立的段元数据结果到一个单一的结果中 | 否 |
| `context` | 详情参见 [Context](query-context.md) | 否 |
| `analysisTypes` | 字符串列表,指定应计算哪些列属性(例如基数、大小)并在结果中返回。默认为["cardinality""interval""minmax"],但可以使用段元数据查询配置进行覆盖。有关详细信息,请参见[analysisTypes](#segmentmetadata查询)部分 | 否 |
| `lenientAggregatorMerge` | 如果为true并且启用了"聚合器" `analysisType`,则聚合器将轻松合并。详见下文。 | 否 |
结果集的格式为:
```json
[ {
"id" : "some_id",
"intervals" : [ "2013-05-13T00:00:00.000Z/2013-05-14T00:00:00.000Z" ],
"columns" : {
"__time" : { "type" : "LONG", "hasMultipleValues" : false, "hasNulls": false, "size" : 407240380, "cardinality" : null, "errorMessage" : null },
"dim1" : { "type" : "STRING", "hasMultipleValues" : false, "hasNulls": false, "size" : 100000, "cardinality" : 1944, "errorMessage" : null },
"dim2" : { "type" : "STRING", "hasMultipleValues" : true, "hasNulls": true, "size" : 100000, "cardinality" : 1504, "errorMessage" : null },
"metric1" : { "type" : "FLOAT", "hasMultipleValues" : false, "hasNulls": false, "size" : 100000, "cardinality" : null, "errorMessage" : null }
},
"aggregators" : {
"metric1" : { "type" : "longSum", "name" : "metric1", "fieldName" : "metric1" }
},
"queryGranularity" : {
"type": "none"
},
"size" : 300000,
"numRows" : 5000000
} ]
```
维度列有以下类型 `STRING`, `FLOAT`, `DOUBLE` 或者 `LONG`。指标列有以下类型 `FLOAT`, `DOUBLE`, 或者 `LONG`, 或者如 `hyperUnique` 复杂类型的名字。时间戳列的类型为 `LONG`
如果 `errorMessage` 字段为非null则不应信任响应中的其他字段。它们的内容没有定义。
仅仅只有字典编码的列才有基数(如 `STRING` 类型),其余类型的列(时间戳和指标列)的基数字段都是 `null`
### **intervals**
如果未指定间隔,查询将使用默认间隔,该间隔跨越最近段结束时间之前的可配置时段。
默认时间周期的长度可以在Broker配置中的 `druid.query.segmentMetadata.defaultHistory` 来设置。
### **toInclude**
有三个类型的toInclude对象。
#### **All**
语法如下:
```json
"toInclude": { "type": "all"}
```
#### **None**
语法如下:
```json
"toInclude": { "type": "none"}
```
#### **List**
语法如下:
```json
"toInclude": { "type": "list", "columns": [<string list of column names>]}
```
### **analysisTypes**
这是一个属性列表,用于确定返回的有关列的信息量,即对列执行的分析。
默认情况下,"cardinality", "interval" 和 "minmax" 类型被使用。
如果不需要某个属性,则从该列表中省略该属性将导致更高效的查询。
默认的分析类型可以通过Broker配置中的 `druid.query.segmentMetadata.defaultAnalysisTypes` 来设置。
列分析的类型如下描述:
#### **cardinality**
* 结果中的`cardinality`将返回每列基数的估计下限。仅与维度列相关。
#### **minmax**
* 预估每一列的最大最小值,仅与维度列相关
#### **size**
* 如果以文本格式存储数据,结果中的`size`包括段的字节大小
#### **interval**
* 结果中的 `intervals` 包括查询段相关的时间间隔
#### **timestampSpec**
* 结果中的 `timestampSpec` 包括段中存储数据的时间说明。 如果段的时间说明为未知或者未合并该值可以为null
#### **queryGranularity**
* 结果中的 `queryGranularity` 包括段中存储的数据的查询粒度。 如果段的查询粒度为未知或者未合并该值可以为null
#### **aggregators**
* 结果中的 `aggregators` 包括用于查询指标列使用的聚合器。 如果段的聚合器为未知或者未合并该值可以为null
* 合并可以是严格的,也可以是宽松的。 详情可以看下边的 [lenientAggregatorMerge](#lenientaggregatormerge)
* 结果的格式为一个列名到聚合器的map
#### **rollup**
* 结果中的 `rollup` 为true/false/null
* 当合并开启的时候如果某些有rollup某些没有则结果是null
### **lenientAggregatorMerge**
如果某些段具有未知的聚合器或者两个段对同一列使用不兼容的聚合器例如longSum更改为doubleSum则会发生跨段聚合器元数据之间的冲突。
聚合器可以严格合并(默认)或轻松合并。在严格合并中,如果存在具有未知聚合器的任何段,或任何类型的冲突,则合并的聚合器列表将为空。通过宽松合并,具有未知聚合器的段将被忽略,聚合器之间的冲突只会使该特定列的聚合器失效。
特别是,通过宽松合并,单个列的聚合器可能为空。严格合并不会发生这种情况