## SQL
> [!WARNING]
> Apache Druid支持两种查询语言: Druid SQL和 [原生查询](makeNativeQueries.md)。本文档讲述SQL查询。
Druid SQL是一个内置的SQL层,是Druid基于JSON的本地查询语言的替代品,它由基于 [Apache Calcite](https://calcite.apache.org/) 的解析器和规划器提供支持。Druid SQL将SQL转换为查询Broker(查询的第一个进程)上的原生Druid查询,然后作为原生Druid查询传递给数据进程。除了在Broker上 [转换SQL](查询翻译) 的(轻微)开销之外,与原生查询相比,没有额外的性能损失。
### 查询符号
Druid SQL支持如下结构的SELECT查询:
```
[ EXPLAIN PLAN FOR ]
[ WITH tableName [ ( column1, column2, ... ) ] AS ( query ) ]
SELECT [ ALL | DISTINCT ] { * | exprs }
FROM {
| () | [ INNER | LEFT ] JOIN ON condition }
[ WHERE expr ]
[ GROUP BY [ exprs | GROUPING SETS ( (exprs), ... ) | ROLLUP (exprs) | CUBE (exprs) ] ]
[ HAVING expr ]
[ ORDER BY expr [ ASC | DESC ], expr [ ASC | DESC ], ... ]
[ LIMIT limit ]
[ UNION ALL ]
```
#### FROM
FROM子句可以引用下列任何一个:
* 来自 `druid` schema中的 [表数据源](datasource.md#table)。 这是默认schema,因此可以将Druid表数据源引用为 `druid.dataSourceName` 或者简单的 `dataSourceName`。
* 来自 `lookup` schema的 [lookups](datasource.md#lookup), 例如 `lookup.countries`。 注意:lookups还可以使用 [Lookup函数](#字符串函数) 来查询。
* [子查询](#子查询)
* 列表中任何内容之间的 [joins](datasource.md#join),本地数据源(table、lookup、query)和系统表之间的联接除外。连接条件必须是连接左侧和右侧的表达式之间的相等。
* 来自于 `INFORMATION_SCHEMA` 或者 `sys` schema的 [元数据表](#元数据表)
有关table、lookup、query和join数据源的更多信息,请参阅 [数据源文档](datasource.md)。
#### WHERE
WHERE子句引用FROM表中的列,并将转换为 [原生过滤器](filters.md)。WHERE子句还可以引用子查询,比如 `WHERE col1 IN(SELECT foo FROM ...)`。像这样的查询作为子查询的连接执行,如下在 [查询转换](#查询转换) 部分所述。
#### GROUP BY
**GROUP BY**子句引用FROM表中的列。使用 **GROUP BY**、**DISTINCT** 或任何聚合函数都将使用Druid的 [三种原生聚合查询类型](#查询类型)之一触发聚合查询。**GROUP BY**可以引用表达式或者select子句的序号位置(如 `GROUP BY 2`以按第二个选定列分组)。
**GROUP BY**子句还可以通过三种方式引用多个分组集。 最灵活的是 **GROUP BY GROUPING SETS**,例如 `GROUP BY GROUPING SETS ( (country, city), () )`, 该实例等价于一个 `GROUP BY country, city` 然后 `GROUP BY ()`。 对于**GROUPING SETS**,底层数据只扫描一次,从而提高了效率。其次,**GROUP BY ROLLUP**为每个级别的分组表达式计算一个分组集,例如 `GROUP BY ROLLUP (country, city)` 等价于 `GROUP BY GROUPING SETS ( (country, city), (country), () )` ,将为每个country/city对生成分组行,以及每个country的小计和总计。最后,**GROUP BY CUBE**为每个分组表达式组合计算分组集,例如 `GROUP BY CUBE (country, city)` 等价于 `GROUP BY GROUPING SETS ( (country, city), (country), (city), () )`。对不适用于特定行的列进行分组将包含 `NULL`, 例如,当计算 `GROUP BY GROUPING SETS ( (country, city), () )`, 与`()`对应的总计行对于"country"和"city"列将为 `NULL`。
使用 **GROUP BY GROUPING SETS**, **GROUP BY ROLLUP**, 或者 **GROUP BY CUBE**时,请注意,可能不会按照在查询中指定分组集的顺序生成结果。如果需要按特定顺序生成结果,请使用**ORDER BY**子句。
#### HAVING
**HAVING**子句引用在执行**GROUP BY**之后出现的列,它可用于对分组表达式或聚合值进行筛选,它只能与**GROUP BY**一起使用。
#### ORDER BY
**ORDER BY**子句引用执行**GROUP BY**后出现的列。它可用于根据分组表达式或聚合值对结果进行排序。**ORDER BY**可以引用表达式或者select子句序号位置(例如 `ORDER BY 2` 根据第二个选定列进行排序)。对于非聚合查询,**ORDER BY**只能按 `__time` 排序。对于聚合查询,**ORDER BY**可以按任何列排序。
#### LIMIT
**LIMIT**子句可用于限制返回的行数。它可以用于任何查询类型。对于使用原生TopN查询类型(而不是原生GroupBy查询类型)运行的查询,它被下推到数据进程。未来的Druid版本也将支持使用原生GroupBy查询类型来降低限制。如果您注意到添加一个限制并不会对性能产生很大的影响,那么很可能Druid并没有降低查询的限制。
#### UNION ALL
**UNION ALL**操作符可用于将多个查询融合在一起。它们的结果将被连接起来,每个查询将单独运行,背对背(不并行)。Druid现在不支持没有"All"的"UNION"。**UNION ALL**必须出现在SQL查询的最外层(它不能出现在子查询或FROM子句中)。
请注意,尽管名称相似,UNION ALL与 [union datasource](datasource.md#union) 并不是一回事。**UNION ALL**允许联合查询结果,而UNION数据源允许联合表。
#### EXPLAIN PLAN
在任何查询的开头添加"EXPLAIN PLAN FOR",以获取有关如何转换的信息。在这种情况下,查询实际上不会执行。有关解释**EXPLAIN PLAN**输出的帮助,请参阅 [查询转换文档](#查询转换)。
#### 标识符和字面量
可以选择使用双引号引用数据源和列名等标识符。要在标识符中转义双引号,请使用另一个双引号,如 `"My ""very own"" identifier"`。所有标识符都区分大小写,不执行隐式大小写转换。
字面量字符串应该用单引号引起来,如 `'foo'`。带Unicode转义符的文本字符串可以像 `U&'fo\00F6'` 一样写入,其中十六进制字符代码的前缀是反斜杠。字面量数字可以写成 `100`(表示整数)、`100.0`(表示浮点值)或 `1.0e5`(科学表示法)等形式。字面量时间戳可以像 `TIMESTAMP '2000-01-01 00:00:00'` 一样写入, 用于时间算术的字面量间隔可以写成 `INTERVAL '1' HOUR`、`INTERVAL '1 02:03' DAY TO MINUTE, INTERVAL '1-2' YEAR TO MONTH` 等等。
#### 动态参数
Druid SQL支持使用问号 `(?)` 的动态参数语法,动态参数在执行时绑定到占位符 `?` 中。若要使用动态参数,请将查询中的任何文本替换为 `?`字符,并在执行查询时提供相应的参数值, 参数按传递顺序绑定到占位符。[HTTP POST](#HTTP)和[JDBC APIs](#jdbc) 都支持参数。
### 数据类型
#### 标准类型
Druid原生支持五种列类型:"long"(64位有符号整型),"float"(32位浮点型),"double"(64位浮点型),"string"(UTF-8编码的字符串或者字符串数组)和"complex"(获取更多奇异的数据类型,如hyperUnique列和approxHistogram列)
时间戳(包括 `__time` 列)被Druid视为long,其值是1970-01-01T00:00:00 UTC以来的毫秒数,不包括闰秒。因此,Druid中的时间戳不携带任何时区信息,而只携带关于它们所代表的确切时间的信息。有关时间戳处理的更多信息,请参阅 [时间函数部分](#时间函数)。
下表描述了Druid如何在查询运行时将SQL类型映射到原生类型。在具有相同Druid运行时类型的两个SQL类型之间进行强制转换不会产生任何影响,除非表中指出了异常。两个具有不同Druid运行时类型的SQL类型之间的转换将在Druid中生成一个运行时转换。如果一个值不能正确地转换为另一个值,如 `CAST('foo' AS BIGINT)`,则运行时将替换默认值。 NULL转换为不可为空类型时将替换为默认值(例如,NULL转为数字将转换为零)。
| SQL类型 | Druid运行时类型 | 默认值 | 注意事项 |
|-|-|-|-|
| CHAR | STRING | `''` | |
| VARCHAR | STRING | `''` | Druid STRING列报告为VARCHAR,包括 [多值字符串](#多值字符串) |
| DECIMAL | DOUBLE | `0.0` | DECIMAL使用浮点,非定点 |
| FLOAT | FLOAT | `0.0` | Druid FLOAT列报告为FLOAT |
| REAL | DOUBLE | `0.0` | |
| DOUBLE | DOUBLE | `0.0` | Druid DOUBLE列报告为DOUBLE |
| BOOLEAN | LONG | `false` | |
| TINYINT | LONG | `0` | |
| SMALLINT | LONG | `0` | |
| INTEGER | LONG | `0` | |
| BIGINT | LONG | `0` | Druid LONG列(除了 `__time` 报告为BIGINT |
| TIMESTAMP | LONG | `0`, 意思是1970-01-01 00:00:00 UTC | Druid的`__time`列被报告为TIMESTAMP。 string和timestamp类型的转换都是假定为标准格式,例如 `2000-01-02 03:04:05`, 而非ISO8601格式。 有关时间戳处理的更多信息,请参阅 [时间函数部分](#时间函数)。 |
| DATE | LONG | `0`, 意思是1970-01-01 | 转换TIMESTAMP为DATE 时间戳将时间戳舍入到最近的一天。string和date类型的转换都是假定为标准格式,例如 `2000-01-02`。 有关时间戳处理的更多信息,请参阅 [时间函数部分](#时间函数)。|
| OTHER | COMPLEX | none | 可以表示各种Druid列类型,如hyperUnique、approxHistogram等 |
#### 多值字符串
Druid的原生类型系统允许字符串可能有多个值。这些 [多值维度](multi-value-dimensions.md) 将被报告为SQL中的 `VARCHAR` 类型,可以像任何其他VARCHAR一样在语法上使用。引用多值字符串维度的常规字符串函数将分别应用于每行的所有值,多值字符串维度也可以通过特殊的 [多值字符串函数](#多值字符串函数) 作为数组处理,该函数可以执行强大的数组操作。
按多值表达式分组将observe原生Druid多值聚合行为,这与某些其他SQL语法中 `UNNEST` 的功能类似。有关更多详细信息,请参阅有关 [多值字符串维度](multi-value-dimensions.md) 的文档。
#### NULL
[runtime property](../Configuration/configuration.md#SQL兼容的空值处理) 中的 `druid.generic.useDefaultValueForNull` 配置控制着Druid的NULL处理模式。
在默认模式(`true`)下,Druid将NULL和空字符串互换处理,而不是根据SQL标准。在这种模式下,Druid SQL只部分支持NULL。例如,表达式 `col IS NULL` 和 `col = ''` 等效,如果 `col` 包含空字符串,则两者的计算结果都为true。类似地,如果`col1`是空字符串,则表达式 `COALESCE(col1,col2)` 将返回 `col2`。当 `COUNT(*)` 聚合器计算所有行时,`COUNT(expr)` 聚合器将计算expr既不为空也不为空字符串的行数。此模式中的数值列不可为空;任何空值或缺少的值都将被视为零。
在SQL兼容模式(`false`)中,NULL的处理更接近SQL标准,该属性同时影响存储和查询,因此为了获得最佳行为,应该在接收时和查询时同时设置该属性。处理空值的能力会带来一些开销;有关更多详细信息,请参阅 [段文档](../Design/Segments.md#SQL兼容的空值处理)。
### 聚合函数
聚合函数可以出现在任务查询的SELECT子句中,任何聚合器都可以使用 `AGG(expr) FILTER(WHERE whereExpr)` 这样的表达式进行过滤。 被过滤的聚合器仅仅聚合那些匹配了过滤器的行。 同一个SQL查询中的两个聚合器可能有不同的过滤器。
只有COUNT聚合支持使用DISTINCT
| 函数 | 描述 |
|-|-|
| `COUNT(*)` | 计算行数 |
| `COUNT( DISTINCT expr)` | 唯一值的计数,表达式可以是string、numeric或者hyperUnique。默认情况下,这是近似值,使用[HyperLogLog](http://algo.inria.fr/flajolet/Publications/FlFuGaMe07.pdf) 的变体。若要获取精确计数,请将"useApproximateCountDistinct"设置为"false"。如果这样做,expr必须是字符串或数字,因为使用hyperUnique列不可能精确计数。另请参见 `APPROX_COUNT_DISTINCT(expr)` 。在精确模式下,每个查询只允许一个不同的计数。|
| `SUM(expr)` | 求和 |
| `MIN(expr)` | 取数字的最小值 |
| `MAX(expr)` | 取数字的最大值 |
| `AVG(expr)` | 取平均值 |
| `APPROX_COUNT_DISTINCT(expr)` | 唯一值的计数,该值可以是常规列或hyperUnique。这始终是近似值,而不考虑"useApproximateCountDistinct"的值。该函数使用了Druid内置的"cardinality"或"hyperUnique"聚合器。另请参见 `COUNT(DISTINCT expr)` |
| `APPROX_COUNT_DISTINCT_DS_HLL(expr, [lgK, tgtHllType])` | 唯一值的计数,该值可以是常规列或[HLL sketch](../Configuration/core-ext/datasketches-hll.md)。`lgk` 和 `tgtHllType` 参数在HLL Sketch文档中做了描述。 该值也始终是近似值,而不考虑"useApproximateCountDistinct"的值。另请参见 `COUNT(DISTINCT expr)`, 使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) |
| `APPROX_COUNT_DISTINCT_DS_THETA(expr, [size])` | 唯一值的计数,该值可以是常规列或[Theta sketch](../Configuration/core-ext/datasketches-theta.md)。`size` 参数在Theta Sketch文档中做了描述。 该值也始终是近似值,而不考虑"useApproximateCountDistinct"的值。另请参见 `COUNT(DISTINCT expr)`, 使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) |
| `DS_HLL(expr, [lgK, tgtHllType])` | 在表达式的值上创建一个 [`HLL sketch`](../Configuration/core-ext/datasketches-hll.md), 该值可以是常规列或者包括HLL Sketch的列。`lgk` 和 `tgtHllType` 参数在HLL Sketch文档中做了描述。使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) |
| `DS_THETA(expr, [size])` | 在表达式的值上创建一个[`Theta sketch`](../Configuration/core-ext/datasketches-theta.md),该值可以是常规列或者包括Theta Sketch的列。`size` 参数在Theta Sketch文档中做了描述。使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) |
| `APPROX_QUANTILE(expr, probability, [resolution])` | 在数值表达式或者[近似图](../Configuration/core-ext/approximate-histograms.md) 表达式上计算近似分位数,"probability"应该是位于0到1之间(不包括1),"resolution"是用于计算的centroids,更高的resolution将会获得更精确的结果,默认值为50。使用该函数需要加载 [近似直方图扩展](../Configuration/core-ext/approximate-histograms.md) |
| `APPROX_QUANTILE_DS(expr, probability, [k])` | 在数值表达式或者 [Quantiles sketch](../Configuration/core-ext/datasketches-quantiles.md) 表达式上计算近似分位数,"probability"应该是位于0到1之间(不包括1), `k`参数在Quantiles Sketch文档中做了描述。使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) |
| `APPROX_QUANTILE_FIXED_BUCKETS(expr, probability, numBuckets, lowerLimit, upperLimit, [outlierHandlingMode])` | 在数值表达式或者[fixed buckets直方图](../Configuration/core-ext/approximate-histograms.md) 表达式上计算近似分位数,"probability"应该是位于0到1之间(不包括1), `numBuckets`, `lowerLimit`, `upperLimit` 和 `outlierHandlingMode` 参数在fixed buckets直方图文档中做了描述。 使用该函数需要加载 [近似直方图扩展](../Configuration/core-ext/approximate-histograms.md) |
| `DS_QUANTILES_SKETCH(expr, [k])` | 在表达式的值上创建一个[`Quantiles sketch`](../Configuration/core-ext/datasketches-quantiles.md),该值可以是常规列或者包括Quantiles Sketch的列。`k`参数在Quantiles Sketch文档中做了描述。使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) |
| `BLOOM_FILTER(expr, numEntries)` | 根据`expr`生成的值计算bloom筛选器,其中`numEntries`在假阳性率增加之前具有最大数量的不同值。详细可以参见 [Bloom过滤器扩展](../Configuration/core-ext/bloom-filter.md) |
| `TDIGEST_QUANTILE(expr, quantileFraction, [compression])` | 根据`expr`生成的值构建一个T-Digest sketch,并返回分位数的值。"compression"(默认值100)确定sketch的精度和大小。更高的compression意味着更高的精度,但更多的空间来存储sketch。有关更多详细信息,请参阅 [t-digest扩展文档](../Configuration/core-ext/tdigestsketch-quantiles.md) |
| `TDIGEST_GENERATE_SKETCH(expr, [compression])` | 根据`expr`生成的值构建一个T-Digest sketch。"compression"(默认值100)确定sketch的精度和大小。更高的compression意味着更高的精度,但更多的空间来存储sketch。有关更多详细信息,请参阅 [t-digest扩展文档](../Configuration/core-ext/tdigestsketch-quantiles.md) |
| `VAR_POP(expr)` | 计算`expr`的总体方差, 额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) |
| `VAR_SAMP(expr)` | 计算表达式的样本方差,额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) |
| `VARIANCE(expr)` | 计算表达式的样本方差,额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) |
| `STDDEV_POP(expr)` | 计算`expr`的总体标准差, 额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) |
| `STDDEV_SAMP(expr)` | 计算表达式的样本标准差,额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) |
| `STDDEV(expr)` | 计算表达式的样本标准差,额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) |
| `EARLIEST(expr)` | 返回`expr`的最早值,该值必须是数字。如果`expr`来自一个与timestamp列(如Druid数据源)的关系,那么"earliest"是所有被聚合值的最小总时间戳最先遇到的值。如果`expr`不是来自带有时间戳的关系,那么它只是遇到的第一个值。 |
| `ARLIEST(expr, maxBytesPerString) ` | 与`EARLIEST(expr)`相似,但是面向string。`maxBytesPerString` 参数确定每个字符串要分配多少聚合空间, 超过此限制的字符串将被截断。这个参数应该设置得尽可能低,因为高值会导致内存浪费。 |
| `LATEST(expr)` | 返回 `expr` 的最新值,该值必须是数字。如果 `expr` 来自一个与timestamp列(如Druid数据源)的关系,那么"latest"是最后一次遇到的值,它是所有被聚合的值的最大总时间戳。如果`expr`不是来自带有时间戳的关系,那么它只是遇到的最后一个值。 |
| `LATEST(expr, maxBytesPerString)` | 与 `LATEST(expr)` 类似,但是面向string。`maxBytesPerString` 参数确定每个字符串要分配多少聚合空间, 超过此限制的字符串将被截断。这个参数应该设置得尽可能低,因为高值会导致内存浪费。 |
| `ANY_VALUE(expr)` | 返回 `expr` 的任何值,包括null。`expr`必须是数字, 此聚合器可以通过返回第一个遇到的值(包括空值)来简化和优化性能 |
| `ANY_VALUE(expr, maxBytesPerString)` | 与 `ANY_VALUE(expr)` 类似,但是面向string。`maxBytesPerString` 参数确定每个字符串要分配多少聚合空间, 超过此限制的字符串将被截断。这个参数应该设置得尽可能低,因为高值会导致内存浪费。|
对于近似聚合函数,请查看 [近似聚合文档](Aggregations.md#近似聚合)
### 扩展函数
#### 数值函数
对于数学运算,如果表达式中涉及的所有操作数都是整数,Druid SQL将使用整数数学。否则,Druid将切换到浮点数学,通过将一个操作数转换为浮点,可以强制执行此操作。在运行时,对于大多数表达式,Druid将把32位浮点扩展到64位。
| 函数 | 描述 |
|-|-|
| `ABS(expr)` | 绝对值 |
| `CEIL(expr)` | 向上取整 |
| `EXP(expr)` | 次方 |
| `FLOOR(expr)` | 向下取整 |
| `LN(expr)` | 对数(以e为底)|
| `LOG10(expr)` | 对数(以10为底) |
| `POWER(expr,power)` | 次方 |
| `SQRT(expr)` | 开方 |
| `TRUNCATE(expr[, digits])` | 将`expr`截断为指定的小数位数。如果数字为负数,则此操作会截断小数点左侧的许多位置。如果未指定,则数字默认为零。|
| `ROUND(expr[, digits])` | `ROUND(x,y)` 将返回x的值,并四舍五入到y小数位。虽然x可以是整数或浮点数,但y必须是整数。返回值的类型由x的类型指定。如果省略,则默认为0。当y为负时,x在y小数点的左侧四舍五入。|
| `x + y` | 加 |
| `x - y` | 减 |
| `x * y` | 乘 |
| `x / y` | 除 |
| `MOD(x, y)` | 模除 |
| `SIN(expr)` | 正弦 |
| `COS(expr)` | 余弦 |
| `TAN(expr)` | 正切 |
| `COT(expr)` | 余切 |
| `ASIN(expr)` | 反正弦 |
| `ACOS(expr)` | 反余弦 |
| `ATAN(expr)` | 反正切 |
| `ATAN2(y, x)` | 从直角坐标(x,y)到极坐标(r,θ)的转换角度θ。|
| `DEGREES(expr)` | 将以弧度测量的角度转换为以度测量的近似等效角度 |
| `RADIANS(expr)` | 将以度为单位测量的角度转换为以弧度为单位测量的近似等效角度 |
#### 字符串函数
字符串函数接受字符串,并返回与该函数相应的类型。
| 函数 | 描述 |
|-|-|
| `x||y` | 拼接字符串 |
| `CONCAT(expr, expr, ...)` | 拼接一系列表达式 |
| `TEXTCAT(expr, expr)` | 两个参数版本的CONCAT |
| `STRING_FORMAT(pattern[, args...])` | 返回以Java的 [方式格式化](https://docs.oracle.com/javase/8/docs/api/java/lang/String.html#format-java.lang.String-java.lang.Object...-) 的字符串字符串格式 |
| `LENGTH(expr)` | UTF-16代码单位的长度或表达式 |
| `CHAR_LENGTH(expr)` | `LENGTH` 的同义词 |
| `CHARACTER_LENGTH(expr)` | `LENGTH` 的同义词 |
| `STRLEN(expr)` | `LENGTH` 的同义词 |
| `LOOKUP(expr, lookupName)` | 已注册的 [查询时Lookup表](lookups.md)的Lookup表达式。 注意:lookups也可以直接使用 [`lookup schema`](#from)来查询 |
| `LOWER(expr)` | 返回的expr的全小写 |
| `PARSE_LONG(string[, radix])` | 将字符串解析为具有给定基数的长字符串(BIGINT),如果未提供基数,则解析为10(十进制)。|
| `POSITION(needle IN haystack [FROM fromIndex])` | 返回haystack中指针的索引,索引从1开始。搜索将从fromIndex开始,如果未指定fromIndex,则从1开始。如果找不到针,则返回0。 |
| `REGEXP_EXTRACT(expr, pattern, [index])` | 应用正则表达式模式并提取捕获组,如果没有匹配,则为空。如果index未指定或为零,则返回与模式匹配的子字符串。|
| `REPLACE(expr, pattern, replacement)` | 在expr中用replacement替换pattern,并返回结果。|
| `STRPOS(haystack, needle)` | 返回haystack中指针的索引,索引从1开始。如果找不到针,则返回0。|
| `SUBSTRING(expr, index, [length])` | 返回从索引开始的expr子字符串,最大长度均以UTF-16代码单位度量。|
| `RIGHT(expr, [length])` | 从expr返回最右边的长度字符。|
| `LEFT(expr, [length])` | 返回expr中最左边的长度字符。|
| `SUBSTR(expr, index, [length])` | SUBSTRING的同义词 |
| `TRIM([BOTH|LEADING|TRAILING][FROM] expr)` | 返回expr, 如果字符在"chars"中,则从"expr"的开头、结尾或两端删除字符。如果未提供"chars",则默认为""(空格)。如果未提供方向参数,则默认为"BOTH"。 |
| `BTRIM(expr[, chars])` | `TRIM(BOTH FROM )`的替代格式 |
| `LTRIM(expr[, chars])` | `TRIM(LEADING FROM )`的替代格式 |
| `RTRIM(expr[, chars])` | `TRIM(TRAILING FROM )`的替代格式 |
| `UPPER(expr)` | 返回全大写的expr |
| `REVERSE(expr)` | 反转expr |
| `REPEAT(expr, [N])` | 将expr重复N次 |
| `LPAD(expr, length[, chars])` | 从"expr"中返回一个用"chars"填充的"length"字符串。如果"length"小于"expr"的长度,则结果为"expr",并被截断为"length"。如果"expr"或"chars"为空,则结果为空。 |
| `RPAD(expr, length[, chars])` | 从"expr"返回一个用"chars"填充的"length"字符串。如果"length"小于"expr"的长度,则结果为"expr",并被截断为"length"。如果"expr"或"chars"为空,则结果为空。 |
#### 时间函数
时间函数可以与Druid的时 `__time` 一起使用,任何存储为毫秒时间戳的列都可以使用 `MILLIS_TO_TIMESTAMP` 函数,或者任何存储为字符串时间戳的列都可以使用 `TIME_PARSE` 函数。默认情况下,时间操作使用UTC时区。您可以通过将连接上下文参数"sqlTimeZone"设置为另一个时区的名称(如"America/Los_Angeles")或设置为偏移量(如"-08:00")来更改时区。如果需要在同一查询中混合多个时区,或者需要使用连接时区以外的时区,则某些函数还接受时区作为参数。这些参数始终优先于连接时区。
连接时区中的字面量时间戳可以使用 `TIMESTAMP '2000-01-01 00:00:00'` 语法编写。在其他时区写入字面量时间戳的最简单方法是使用TIME_PARSE,比如 `TIME_PARSE('2000-02-01 00:00:00',NULL,'America/Los_Angeles')`。
| 函数 | 描述 |
|-|-|
| `CURRENT_TIMESTAMP` | 在连接时区的当前时间戳 |
| `CURRENT_DATE` | 在连接时区的当期日期 |
| `DATE_TRUNC(, )` | 截断时间戳,将其作为新时间戳返回。单位可以是"毫秒"、"秒"、"分"、"时"、"日"、"周"、"月"、"季"、"年"、"十年"、"世纪"或"千年"。 |
| `TIME_CEIL(, , [, []])` | 对时间戳进行向上取整,并将其作为新的时间戳返回。周期可以是任何ISO8601周期,如P3M(季度)或PT12H(半天)。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。此函数类似于 `CEIL`,但更灵活。|
| `TIME_FLOOR(, , [, []])` | 对时间戳进行向下取整,将其作为新时间戳返回。周期可以是任何ISO8601周期,如P3M(季度)或PT12H(半天)。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。此功能类似于 `FLOOR`,但更灵活。 |
| `TIME_SHIFT(, , , [])` | 将时间戳移动一个周期(步进时间),将其作为新的时间戳返回。 `period` 可以是任何ISO8601周期,`step` 可能为负。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。|
| `TIME_EXTRACT(, [, []])` | 从expr中提取时间部分,并将其作为数字返回。单位可以是EPOCH、SECOND、MINUTE、HOUR、DAY(月的日)、DOW(周的日)、DOY(年的日)、WEEK(年周)、MONTH(1到12)、QUARTER(1到4)或YEAR。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。此函数类似于 `EXTRACT`,但更灵活。单位和时区必须是字面量,并且必须提供引号,如时间提取 `TIME_EXTRACT(__time, 'HOUR')` 或 `TIME_EXTRACT(__time, 'HOUR', 'America/Los_Angeles')`。|
| `TIME_PARSE(, [, []])` | 如果未提供该 `pattern`, 使用给定的 [Joda DateTimeFormat模式](http://www.joda.org/joda-time/apidocs/org/joda/time/format/DateTimeFormat.html) 或ISO8601(例如`2000-01-02T03:04:05Z`)将字符串解析为时间戳。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00",并将用作不包括时区偏移量的字符串的时区。模式和时区必须是字面量。无法解析为时间戳的字符串将返回空值。|
| `TIME_FORMAT(, [, []])` | 如果 `pattern` 未提供,使用给定的 [Joda DateTimeFormat模式](http://www.joda.org/joda-time/apidocs/org/joda/time/format/DateTimeFormat.html) 或ISO8601(例如`2000-01-02T03:04:05Z`)将时间戳格式化为字符串。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00",并将用作不包括时区偏移量的字符串的时区。模式和时区必须是字面量。无法解析为时间戳的字符串将返回空值。|
| `MILLIS_TO_TIMESTAMP(millis_expr)` | 将纪元后的毫秒数转换为时间戳。|
| `TIMESTAMP_TO_MILLIS(timestamp_expr)` | 将时间戳转换为自纪元以来的毫秒数 |
| `EXTRACT( FROM timestamp_expr)` | 从expr中提取时间部分,并将其作为数字返回。单位可以是EPOCH, MICROSECOND, MILLISECOND, SECOND, MINUTE, HOUR, DAY (day of month), DOW (day of week), ISODOW (ISO day of week), DOY (day of year), WEEK (week of year), MONTH, QUARTER, YEAR, ISOYEAR, DECADE, CENTURY or MILLENNIUM。必须提供未加引号的单位,如 `EXTRACT(HOUR FROM __time)`。|
| `FLOOR(timestamp_expr TO )` | 向下取整时间戳,将其作为新时间戳返回。`unit`可以是SECOND, MINUTE, HOUR, DAY, WEEK, MONTH, QUARTER, 或者YEAR |
| `CEIL(timestamp_expr TO )` | 向上取整时间戳,将其作为新时间戳返回。`unit`可以是SECOND, MINUTE, HOUR, DAY, WEEK, MONTH, QUARTER, 或者YEAR |
| `TIMESTAMPADD(, , )` | 等价于 `timestamp + count * INTERVAL '1' UNIT` |
| `TIMESTAMPDIFF(, , )` | 返回`timestamp1` 和 `timestamp2` 之间的(有符号)`unit` |
| `timestamp_expr { +/- } ` | 从时间戳中加上或减去时间量。`interval_expr` 可以包括 `INTERVAL '2' HOUR` 之类的区间字面量,也可以包括区间算法。该操作将天数统一视为86400秒,并且不考虑夏令时。要计算夏时制时间,请使用 `TIME_SHIFT`。 |
#### 归约函数
归约函数对零个或多个表达式进行操作,并返回单个表达式。如果没有表达式作为参数传递,则结果为 `NULL`。表达式必须全部转换为公共数据类型,即结果的类型:
* 如果所有的参数都是 `NULL`, 结果是 `NULL`, 否则,`NULL` 参数被忽略
* 如果所有的参数包含了数字和字符串的混合,参数都被解释为字符串
* 如果所有的参数是整型数字,参数都被解释为长整型
* 如果所有的参数是数值且至少一个参数是double,则参数都被解释为double
| 函数 | 描述 |
|-|-|
| `GREATEST([expr1, ...])` | 计算零个或多个表达式,并根据上述比较返回最大值。 |
| `LEAST([expr1, ...])` | 计算零个或多个表达式,并根据上述比较返回最小值。 |
#### IP地址函数
对于IPv4地址函数,地址参数可以是IPv4点分十进制字符串(例如"192.168.0.1")或表示为整数的IP地址(例如3232235521)。`subnet` 参数应该是一个字符串,格式为CIDR表示法中的IPv4地址子网(例如"192.168.0.0/16")。
| 函数 | 描述 |
|-|-|
| `IPV4_MATCH(address, subnet)` | 如果 `address` 属于 `subnet`文本,则返回true,否则返回false。如果 `address` 不是有效的IPv4地址,则返回false。如果 `address` 是整数而不是字符串,则此函数更效率。 |
| `IPV4_PARSE(address)` | 将 `address` 解析为存储为整数的IPv4地址。如果 `address` 是有效的IPv4地址的整数,则它将被可以解析。如果 `address` 不能表示为IPv4地址,则返回null。 |
| `IPV4_STRINGIFY(address)` | 将 `address` 转换为以点分隔的IPv4地址十进制字符串。如果 `address` 是有效的IPv4地址的字符串,则它将解析。如果 `address` 不能表示为IPv4地址,则返回null。 |
#### 比较操作符
| 函数 | 描述 |
|-|-|
| `x = y` | 等于 |
| `x <> y` | 不等于 |
| `x > y` | 大于 |
| `x >= y` | 大于等于 |
| `x < y` | 小于 |
| `x <= y` | 小于等于 |
| `x BETWEEN y AND z` | 等价于 `x >= y AND x <= z` |
| `x NOT BETWEEN y AND z` | 等价于 `x >= y OR x <= z` |
| `x LIKE pattern [ESCAPE esc]` | 如果x匹配上了一个SQL LIKE模式则返回true |
| `x NOT LIKE pattern [ESCAPE esc]` | 如果x没有匹配上了一个SQL LIKE模式则返回true |
| `x IS NULL` | 如果x是NULL或者空串,返回true |
| `x IS NOT NULL ` | 如果x不是NULL也不是空串,返回true |
| `x IS TRUE ` | 如果x是true,返回true |
| `x IS NOT TRUE` | 如果x不是true,返回true |
| `x IS FALSE` | 如果x是false,返回true |
| `x IS NOT FALSE` | 如果x不是false,返回true |
| `x IN (values)` | 如果x是列出的值之一,则为True |
| `x NOT IN (values)` | 如果x不是列出的值之一,则为True |
| `x IN (subquery)` | 如果子查询返回x,则为True。这将转换为联接;有关详细信息,请参阅 [查询转换](#查询转换) |
| `x NOT IN (subquery)` | 如果子查询没有返回x,则为True。这将转换为联接;有关详细信息,请参阅 [查询转换](#查询转换) |
| `x AND y` | 与 |
| `x OR y` | 或 |
| `NOT x` | 非 |
#### Sketch函数
这些函数对返回sketch对象的表达式或列进行操作。
**HLL Sketch函数**
以下函数操作在 [DataSketches HLL sketches](../Configuration/core-ext/datasketches-hll.md) 之上,使用这些函数之前需要加载 [DataSketches扩展](../Development/datasketches-extension.md)
| 函数 | 描述 |
|-|-|
| `HLL_SKETCH_ESTIMATE(expr, [round])` | 从HLL草图返回非重复计数估计值。`expr`必须返回HLL草图。可选的`round`布尔参数如果设置为 `true` 将舍入估计值,默认值为 `false`。 |
| `HLL_SKETCH_ESTIMATE_WITH_ERROR_BOUNDS(expr, [numStdDev])` | 从HLL草图返回不同的计数估计值和错误边界。`expr` 必须返回HLL草图。可以提供可选的 `numStdDev` 参数。 |
| `HLL_SKETCH_UNION([lgK, tgtHllType], expr0, expr1, ...)` | 返回HLL草图的并集,其中每个输入表达式必须返回HLL草图。可以选择将 `lgK` 和 `tgtHllType` 指定为第一个参数;如果提供了,则必须同时指定这两个可选参数。|
| `HLL_SKETCH_TO_STRING(expr)` | 返回用于调试的HLL草图的可读字符串表示形式。`expr` 必须返回HLL草图。|
**Theta Sketch函数**
以下函数操作在 [theta sketches](../Configuration/core-ext/datasketches-theta.md) 之上,使用这些函数之前需要加载 [DataSketches扩展](../Development/datasketches-extension.md)
| 函数 | 描述 |
|-|-|
| `THETA_SKETCH_ESTIMATE(expr)` | 从theta草图返回不同的计数估计值。`expr` 必须返回theta草图。|
| `THETA_SKETCH_ESTIMATE_WITH_ERROR_BOUNDS(expr, errorBoundsStdDev)` | 从theta草图返回不同的计数估计值和错误边界。`expr` 必须返回theta草图。|
| `THETA_SKETCH_UNION([size], expr0, expr1, ...)` | 返回theta草图的并集,其中每个输入表达式必须返回theta草图。可以选择将 `size` 指定为第一个参数。 |
| `THETA_SKETCH_INTERSECT([size], expr0, expr1, ...)` | 返回theta草图的交集,其中每个输入表达式必须返回theta草图。可以选择将 `size` 指定为第一个参数。 |
| `THETA_SKETCH_NOT([size], expr0, expr1, ...)` | 返回theta草图的集合差,其中每个输入表达式必须返回theta草图。可以选择将 `size` 指定为第一个参数。 |
**Quantiles Sketch函数**
以下函数操作在 [quantiles sketches](../Configuration/core-ext/datasketches-quantiles.md) 之上,使用这些函数之前需要加载 [DataSketches扩展](../Development/datasketches-extension.md)
| 函数 | 描述 |
|-|-|
| `DS_GET_QUANTILE(expr, fraction)` | 返回与来自分位数草图的 `fraction` 相对应的分位数估计。`expr` 必须返回分位数草图。 |
| `DS_GET_QUANTILES(expr, fraction0, fraction1, ...)` | 返回一个字符串,该字符串表示与分位数草图的分数列表相对应的分位数估计数组。`expr` 必须返回分位数草图 |
| `DS_HISTOGRAM(expr, splitPoint0, splitPoint1, ...)` | 返回一个字符串,该字符串表示给定一个分割点列表的直方图近似值,该列表定义了分位数草图中的直方图箱。`expr` 必须返回分位数草图。 |
| `DS_CDF(expr, splitPoint0, splitPoint1, ...)` | 返回一个字符串,该字符串表示给定的分割点列表(该列表定义了来自分位数草图的容器边缘)的累积分布函数的近似值。`expr` 必须返回分位数草图。 |
| `DS_RANK(expr, value)` | 返回对给定值的秩的近似值,该值是分布的分数,小于来自分位数草图的该值。`expr` 必须返回分位数草图。 |
| `DS_QUANTILE_SUMMARY(expr)` | 返回分位数草图的字符串摘要,用于调试。`expr` 必须返回分位数草图。 |
#### 其他扩展函数
| 函数 | 描述 |
|-|-|
| `CAST(value AS TYPE)` | 将值转换为其他类型。 可以查看 [数据类型](#数据类型) 来了解在Druid SQL中如何传利CAST |
| `CASE expr WHEN value1 THEN result1 \[ WHEN value2 THEN result2 ... \] \[ ELSE resultN \] END` | 简单CASE |
| `CASE WHEN boolean_expr1 THEN result1 \[ WHEN boolean_expr2 THEN result2 ... \] \[ ELSE resultN \] END` | 搜索CASE |
| `NULLIF(value1, value2)` | 如果value1和value2匹配,则返回NULL,否则返回value1 |
| `COALESCE(value1, value2, ...)` | 返回第一个既不是NULL也不是空字符串的值。 |
| `NVL(expr,expr-for-null)` | 如果'expr'为空(或字符串类型为空字符串),则返回 `expr for null` |
| `BLOOM_FILTER_TEST(, )` | 如果值包含在Base64序列化bloom筛选器中,则返回true。 详情查看 [Bloom Filter扩展](../Configuration/core-ext/bloom-filter.md) |
### 多值字符串函数
多值字符串函数文档中的所有"array"引用都可以引用多值字符串列或数组字面量。
| 函数 | 描述 |
|-|-|
| `ARRAY(expr1,expr ...)` | 从表达式参数构造SQL数组字面量,使用第一个参数的类型作为输出数组类型 |
| `MV_LENGTH(arr)` | 返回数组表达式的长度 |
| `MV_OFFSET(arr,long)` | 返回所提供的基于0的索引处的数组元素,或对于超出范围的索引返回null |
| `MV_ORDINAL(arr,long)` | 返回所提供的基于1的索引处的数组元素,或对于超出范围的索引返回null |
| `MV_CONTAINS(arr,expr)` | 如果数组包含expr指定的元素,则返回1;如果expr是数组,则返回expr指定的所有元素,否则返回0 |
| `MV_OVERLAP(arr1,arr2)` | 如果arr1和arr2有任何共同元素,则返回1,否则返回0 |
| `MV_OFFSET_OF(arr,expr)` | 返回数组中expr第一次出现的基于0的索引,或 `-1` 或 `null`。如果 `druid.generic.useDefaultValueForNull=false` 如果数组中不存在匹配元素。 |
| `MV_ORDINAL_OF(arr,expr)` | 返回数组中expr第一次出现的基于1的索引,或 `-1` 或 `null`。如果 `druid.generic.useDefaultValueForNull=false` 如果数组中不存在匹配元素。|
| `MV_PREPEND(expr,arr)` | 在开头将expr添加到arr,结果数组类型由数组类型决定 |
| `MV_APPEND(arr,expr)` | 将expr追加到arr,结果数组类型由第一个数组的类型决定 |
| `MV_CONCAT(arr1,arr2)` | 连接2个数组,结果数组类型由第一个数组的类型决定 |
| `MV_SLICE(arr,start,end)` | 将arr的子数组从基于0的索引start(inclusive)返回到end(exclusive),如果start小于0,大于arr的长度或小于end,则返回空 |
| `MV_TO_STRING(arr,str)` | 用str指定的分隔符连接arr的所有元素 |
| `STRING_TO_MV(str1,str2)` | 将str1拆分为str2指定的分隔符上的数组 |
### 查询转换
在运行之前,Druid SQL将SQL查询转换为 [原生查询](makeNativeQueries.md),理解这种转换是获得良好性能的关键。
#### 最佳实践
在研究如何将SQL查询转换为原生查询的性能影响时,请考虑以下(非详尽)要注意的事项列表。
1. 如果在主时间列 `__time` 上写了一个过滤器,需要确保可以正确的转换为原生的 `"interval"` 过滤器,如下边部分中描述的 [时间过滤器](#时间过滤器)。否则,您可能需要更改编写筛选器的方式。
2. 尽量避免连接后的子查询:它们会影响性能和可伸缩性。这包括由不匹配类型上的条件生成的隐式子查询,以及由使用表达式引用右侧的条件生成的隐式子查询。
3. 阅读 [查询执行页面](queryexecution.md),了解如何执行各种类型的原生查询。
4. 解释**执行计划**输出时要小心,如果有疑问,请使用请求日志记录。请求日志将显示运行的确切原生查询。有关更多详细信息,请参见 [下一节](#解释EXPLAIN-PLAN输出)。
5. 如果您遇到一个可以计划得更好的查询,可以在 [GitHub上提出一个问题](https://github.com/apache/druid/issues/new/choose)。一个可重复的测试用例总是值得赞赏的。
#### 解释EXPLAIN PLAN输出
[EXPLAIN PLAN功能](#EXPLAIN-PLAN)可以帮助您理解如何将给定的SQL查询转换为原生查询。对于不涉及子查询或联接的简单查询,EXPLAIN PLAN的输出易于解释。将运行的原生查询作为JSON嵌入到"DruidQueryRel"行中:
```json
> EXPLAIN PLAN FOR SELECT COUNT(*) FROM wikipedia
DruidQueryRel(query=[{"queryType":"timeseries","dataSource":"wikipedia","intervals":"-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z","granularity":"all","aggregations":[{"type":"count","name":"a0"}]}], signature=[{a0:LONG}])
```
对于涉及子查询或联接的更复杂查询,解释计划稍微更难解释。例如,考虑以下查询:
```json
> EXPLAIN PLAN FOR
> SELECT
> channel,
> COUNT(*)
> FROM wikipedia
> WHERE channel IN (SELECT page FROM wikipedia GROUP BY page ORDER BY COUNT(*) DESC LIMIT 10)
> GROUP BY channel
DruidJoinQueryRel(condition=[=($1, $3)], joinType=[inner], query=[{"queryType":"groupBy","dataSource":{"type":"table","name":"__join__"},"intervals":{"type":"intervals","intervals":["-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z"]},"granularity":"all","dimensions":["channel"],"aggregations":[{"type":"count","name":"a0"}]}], signature=[{d0:STRING, a0:LONG}])
DruidQueryRel(query=[{"queryType":"scan","dataSource":{"type":"table","name":"wikipedia"},"intervals":{"type":"intervals","intervals":["-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z"]},"resultFormat":"compactedList","columns":["__time","channel","page"],"granularity":"all"}], signature=[{__time:LONG, channel:STRING, page:STRING}])
DruidQueryRel(query=[{"queryType":"topN","dataSource":{"type":"table","name":"wikipedia"},"dimension":"page","metric":{"type":"numeric","metric":"a0"},"threshold":10,"intervals":{"type":"intervals","intervals":["-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z"]},"granularity":"all","aggregations":[{"type":"count","name":"a0"}]}], signature=[{d0:STRING}])
```
这里,有一个带有两个输入的连接。阅读这篇文章的方法是将EXPLAIN计划输出的每一行看作可能成为一个查询,或者可能只是一个简单的数据源。它们都拥有的`query` 字段称为"部分查询",并表示如果该行本身运行,将在该行所表示的数据源上运行的查询。在某些情况下,比如本例第二行中的"scan"查询,查询实际上并没有运行,最终被转换为一个简单的表数据源。有关如何工作的更多详细信息,请参见 [Join转换](#连接) 部分
我们可以使用Druid的 [请求日志功能](../Configuration/configuration.md#请求日志) 看到这一点。在启用日志记录并运行此查询之后,我们可以看到它实际上作为以下原生查询运行。
```json
{
"queryType": "groupBy",
"dataSource": {
"type": "join",
"left": "wikipedia",
"right": {
"type": "query",
"query": {
"queryType": "topN",
"dataSource": "wikipedia",
"dimension": {"type": "default", "dimension": "page", "outputName": "d0"},
"metric": {"type": "numeric", "metric": "a0"},
"threshold": 10,
"intervals": "-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z",
"granularity": "all",
"aggregations": [
{ "type": "count", "name": "a0"}
]
}
},
"rightPrefix": "j0.",
"condition": "(\"page\" == \"j0.d0\")",
"joinType": "INNER"
},
"intervals": "-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z",
"granularity": "all",
"dimensions": [
{"type": "default", "dimension": "channel", "outputName": "d0"}
],
"aggregations": [
{ "type": "count", "name": "a0"}
]
}
```
#### 查询类型
Druid SQL使用四种不同的原生查询类型。
* [Scan](scan.md) 操作被用来做不进行聚合的查询(非GroupBy和DISTINCT)
* [Timeseries](timeseriesquery.md) 操作被用来查询GROUP BY `FLOOR(__time TO )` 或者 `TIME_FLOOR(__time, period)`, 不再有其他分组表达式,也没有HAVING或者LIMIT子句,没有嵌套,要么是没有ORDER BY、要么是有与GROUP BY表达式相同的ORDER BY。它还将Timeseries用于具有聚合函数但没有分组依据的"总计"查询。这种查询类型利用了Druid段是按时间排序的这一事实。
* [TopN](topn.md) 默认情况下用于按单个表达式分组、具有ORDER BY和LIMIT子句、没有HAVING子句和不嵌套的查询。但是,在某些情况下,TopN查询类型将提供近似的排名和结果;如果要避免这种情况,请将"useApproximateTopN"设置为"false"。TopN结果总是在内存中计算的。有关详细信息,请参阅TopN文档。
* [GroupBy](groupby.md) 用于所有其他聚合,包括任何嵌套的聚合查询。Druid的GroupBy是一个传统的聚合引擎:它提供精确的结果和排名,并支持多种功能。GroupBy可以在内存中聚合,但如果没有足够的内存来完成查询,它可能会溢出到磁盘。如果您在GROUP BY子句中使用相同的表达式进行ORDER BY,或者根本没有ORDER BY,则结果将通过Broker从数据进程中流回。如果查询具有未出现在GROUP BY子句(如聚合函数)中的ORDER BY引用表达式,则Broker将在内存中具体化结果列表,最大值不超过LIMIT(如果有的话)。有关优化性能和内存使用的详细信息,请参阅GroupBy文档。
#### 时间过滤器
对于所有原生查询类型,只要有可能,`__time` 列上的过滤器将被转换为顶级查询的"interval",这允许Druid使用其全局时间索引来快速调整必须扫描的数据集。请考虑以下(非详尽)时间过滤器列表,这些时间过滤器将被识别并转换为 "intervals":
* `__time >= TIMESTAMP '2000-01-01 00:00:00'` (与绝对时间相比)
* `__time >= CURRENT_TIMESTAMP - INTERVAL '8' HOUR` (与相对时间相比)
* `FLOOR(__time TO DAY) = TIMESTAMP '2000-01-01 00:00:00'` (指定的一天)
请参阅 [解释执行计划输出](#解释EXPLAIN-PLAN输出) 部分,以了解有关确认时间筛选器按预期翻译的详细信息。
#### 连接
SQL连接运算符转换为原生连接数据源,如下所示:
1. 原生层可以直接处理的连接将被逐字翻译为 [join数据源](datasource.md#join),其 `left`、`right` 和 `condition` 是原始SQL的直接翻译。这包括任何SQL连接,其中右边是 `lookup` 或 `子查询`,条件是等式,其中一边是基于左边表的表达式,另一边是对右边表的简单列引用,等式的两边是相同的数据类型。
2. 如果一个连接不能够被直接处理为原生的 [join数据源](datasource.md#join), Druid SQL将插入一个子查询使得其可运行。 例如: `foo INNER JOIN bar ON foo.abc = LOWER(bar.def)` 因为右边是一个表达式而非简单的列引用,所以不能够被直接转换,这时会插入一个子查询有效的转换为 `INNER JOIN (SELECT LOWER(def) AS def FROM bar) t ON foo.abc = t.def`
3. Druid SQL目前不重新排序连接以优化查询。
请参阅 [解释执行计划输出部分](#解释EXPLAIN-PLAN输出),以了解有关确认连接是否按预期转换的详细信息。
有关如何执行连接操作的信息,请参阅 [查询执行页](queryexecution.md)。
#### 子查询
SQL中的子查询一般被转换为原生的查询数据源。有关如何执行子查询操作的信息,请参阅 [查询执行页](queryexecution.md)。
> [!WARNING]
> WHERE子句中的子查询,如:`WHERE col1 IN (SELECT foo FROM ...)`,被转化为内连接
#### 近似
Druid SQL在一些场景中使用近似算法:
* 默认情况下,`COUNT(DISTINCT col)` 聚合函数使用 [HyperLogLog](http://algo.inria.fr/flajolet/Publications/FlFuGaMe07.pdf) 的变体,HyperLogLog是一种快速近似的DISTINCT计数算法。如果通过查询上下文或通过Broker配置将"useApproximateCountDistinct"设置为"false",Druid SQL将切换到精确计数
* 对于具有ORDER BY和LIMIT的单列GROUP BY查询,可以采用使用了近似算法的TopN引擎执行查询。如果通过查询上下文或通过Broker配置将"useApproximateTopN"设置为"false",Druid SQL将切换到精确的分组算法
* 标记为使用草图或近似(例如近似计数不同)的聚合函数不管配置如何,始终是近似的
#### 不支持的特性
Druid SQL并非支持所有的SQL特性。 以下特性不支持:
* 原生数据源(table, lookup, subquery)与系统表的JOIN操作
* 左侧和右侧的表达式之间不相等的JOIN条件
* OVER子句,`LAG` 和 `LEAD` 等分析型函数
* OFFSET子句
* DDL和DML
* 在 [元数据表](#元数据表) 上使用Druid特性的函数,比如 `TIME_PARSE` 和 `APPROX_QUANTILE_DS`
另外,一些Druid原生查询中的特性目前还不被SQL支持。 不支持的特性如下:
* [UNION数据源](datasource.md#union)
* [INLINE数据源](datasource.md#inline)
* [空间过滤器](spatialfilter.md)
* [查询取消](makeNativeQueries.md#查询取消)
### 客户端API
#### HTTP POST
在Druid SQL查询中,可以通过HTTP方式发送POST请求到 `/druid/v2/sql` 来执行SQL查询。该请求应该是一个带有 "query" 字段的JSON对象,例如: `{"query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar'"}`
**Request**
| 属性 | 描述 | 默认值 |
|-|-|-|
| `query` | SQL | 必填,无 |
| `resultFormat` | 查询结果的格式,详情查看下边的response部分 | object |
| `header` | 是否包含一个请求头,详情查看下边的response部分 | false |
| `context` | 包括 [连接上下文](#连接上下文) 参数JSON对象 | {}(空) |
| `parameters` | 参数化查询的查询参数列表。列表中的每个参数都应该是一个JSON对象,比如 `{"type":"VARCHAR","value":"foo"}` 。`type` 应为SQL类型;有关支持的SQL类型的列表,请参见 [数据类型](#数据类型) | [](空) |
可以在命令行中使用 *curl* 来发送SQL查询:
```json
$ cat query.json
{"query":"SELECT COUNT(*) AS TheCount FROM data_source"}
$ curl -XPOST -H'Content-Type: application/json' http://BROKER:8082/druid/v2/sql/ -d @query.json
[{"TheCount":24433}]
```
可以提供一个"context"的参数来添加 [连接上下文](#连接上下文) 变量,例如:
```json
{
"query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar' AND __time > TIMESTAMP '2000-01-01 00:00:00'",
"context" : {
"sqlTimeZone" : "America/Los_Angeles"
}
}
```
参数化SQL查询也是支持的:
```json
{
"query" : "SELECT COUNT(*) FROM data_source WHERE foo = ? AND __time > ?",
"parameters": [
{ "type": "VARCHAR", "value": "bar"},
{ "type": "TIMESTAMP", "value": "2000-01-01 00:00:00" }
]
}
```
通过对 [元数据表](#元数据表) 进行HTTP POST请求可以获得元数据
**Responses**
Druid SQL的HTTP POST API支持一个可变的结果格式,可以通过"resultFormat"参数来指定,例如:
```json
{
"query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar' AND __time > TIMESTAMP '2000-01-01 00:00:00'",
"resultFormat" : "object"
}
```
支持的结果格式为:
| 格式 | 描述 | Content-Type |
|-|-|-|
| `object` | 默认值,JSON对象的JSON数组。每个对象的字段名都与SQL查询返回的列匹配,并且按与SQL查询相同的顺序提供。| application/json |
| `array` | JSON数组的JSON数组。每个内部数组按顺序都有与SQL查询返回的列匹配的元素。 | application/json |
| `objectLines` | 与"object"类似,但是JSON对象由换行符分隔,而不是包装在JSON数组中。如果您没有流式JSON解析器的现成访问权限,这可以使将整个响应集解析为流更加容易。为了能够检测到被截断的响应,此格式包含一个空行的尾部。 | text/plain |
| `arrayLines` | 与"array"类似,但是JSON数组由换行符分隔,而不是包装在JSON数组中。如果您没有流式JSON解析器的现成访问权限,这可以使将整个响应集解析为流更加容易。为了能够检测到被截断的响应,此格式包含一个空行的尾部。 | text/plain |
| `csv` | 逗号分隔的值,每行一行。单个字段值可以用双引号括起来进行转义。如果双引号出现在字段值中,则通过将它们替换为双引号(如`""this""`)来对其进行转义。为了能够检测到被截断的响应,此格式包含一个空行的尾部。 | text/csv |
您还可以通过在请求中将"header"设置为true来请求头,例如:
```json
{
"query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar' AND __time > TIMESTAMP '2000-01-01 00:00:00'",
"resultFormat" : "arrayLines",
"header" : true
}
```
在这种情况下,返回的第一个结果将是头。对于 `csv`、`array` 和 `arrayline` 格式,标题将是列名列表。对于 `object` 和 `objectLines` 格式,头将是一个对象,其中键是列名,值为空。
在发送响应体之前发生的错误将以JSON格式报告,状态代码为HTTP 500,格式与 [原生Druid查询错误](makeNativeQueries.md#查询错误) 相同。如果在发送响应体时发生错误,此时更改HTTP状态代码或报告JSON错误已经太迟,因此响应将简单地结束流,并且处理您的请求的Druid服务器将记录一个错误。
作为调用者,正确处理响应截断非常重要。这对于"object"和"array"格式很容易,因为的截断响应将是无效的JSON。对于面向行的格式,您应该检查它们都包含的尾部:结果集末尾的一个空行。如果通过JSON解析错误或缺少尾随的换行符检测到截断的响应,则应假定响应由于错误而未完全传递。
#### JDBC
您可以使用 [Avatica JDBC Driver](https://calcite.apache.org/avatica/downloads/) 来进行Druid SQL查询。 下载Avatica客户端jar包后加到类路径下,使用如下连接串: `jdbc:avatica:remote:url=http://BROKER:8082/druid/v2/sql/avatica/`
示例代码为:
```java
// Connect to /druid/v2/sql/avatica/ on your Broker.
String url = "jdbc:avatica:remote:url=http://localhost:8082/druid/v2/sql/avatica/";
// Set any connection context parameters you need here (see "Connection context" below).
// Or leave empty for default behavior.
Properties connectionProperties = new Properties();
try (Connection connection = DriverManager.getConnection(url, connectionProperties)) {
try (
final Statement statement = connection.createStatement();
final ResultSet resultSet = statement.executeQuery(query)
) {
while (resultSet.next()) {
// Do something
}
}
}
```
表的元数据信息在JDBC中也是可以查询的,通过 `connection.getMetaData()` 或者查询 [信息Schema](#信息Schema)
**连接粘性**
Druid的JDBC服务不在Broker之间共享连接状态。这意味着,如果您使用JDBC并且有多个Druid Broker,您应该连接到一个特定的Broker,或者使用启用了粘性会话的负载平衡器。Druid Router进程在平衡JDBC请求时提供连接粘性,即使使用普通的非粘性负载平衡器,也可以用来实现必要的粘性。请参阅 [Router文档](../Design/Router.md) 以了解更多详细信息
注意:非JDBC的 [HTTP POST](#http-post) 是无状态的,不需要粘性
#### 动态参数
在JDBC代码中也可以使用参数化查询,例如:
```java
PreparedStatement statement = connection.prepareStatement("SELECT COUNT(*) AS cnt FROM druid.foo WHERE dim1 = ? OR dim1 = ?");
statement.setString(1, "abc");
statement.setString(2, "def");
final ResultSet resultSet = statement.executeQuery();
```
#### 连接上下文
Druid SQL支持在客户端设置连接参数,下表中的参数会影响SQL执行。您提供的所有其他上下文参数都将附加到Druid查询,并可能影响它们的运行方式。关于可能选项的详情可以参见 [查询上下文](query-context.md)
请注意,要为SQL查询指定唯一标识符,请使用 `sqlQueryId` 而不是`queryId`。为SQL请求设置 `queryId` 没有任何效果,所有SQL底层的原生查询都将使用自动生成的queryId。
连接上下文可以指定为JDBC连接属性,也可以指定为JSON API中的 "context" 对象。
| 参数 | 描述 | 默认值 |
|-|-|-|
| `sqlQueryId` | 本次SQL查询的唯一标识符。对于HTTP客户端,它在 `X-Druid-SQL-Query-Id` 头中返回 | 自动生成 |
| `sqlTimeZone` | 设置此连接的时区,这将影响时间函数和时间戳文本的行为。应该是时区名称,如"America/Los_Angeles"或偏移量,如"-08:00" | Broker配置中的 `druid.sql.planner.sqlTimeZone` , 默认为:UTC |
| `useApproximateCountDistinct` | 是否对 `COUNT(DISTINCT foo)` 使用近似基数算法 | Broker配置中的 `druid.sql.planner.useApproximateCountDistinct`, 默认为:true |
| `useApproximateTopN` | 当SQL查询可以这样表示时,是否使用近似[TopN查询](topn.md)。如果为false,则将使用精确的 [GroupBy查询](groupby.md)。 | Broker配置中的 `druid.sql.planner.useApproximateTopN`, 默认为:true |
### 元数据表
Druid Broker从集群中加载的段推断每个数据源的表和列元数据,并使用此来计划SQL查询。该元数据在Broker启动时缓存,并通过 [段元数据查询](segmentMetadata.md) 在后台定期更新。后台元数据刷新由进入和退出集群的段触发,也可以通过配置进行限制。
Druid通过特殊的系统表公开系统信息。有两种schema可用:Information Schema和Sys Schema。Information Schema提供有关表和列类型的详细信息, Sys Schema提供了有关Druid内部的信息,比如段/任务/服务器。
#### INFORMATION SCHEMA
您可以使用JDBC连接 `connection.getMetaData()` 访问表和列元数据,或通过下面描述的INFORMATION_SCHEMA表。例如,要检索Druid数据源"foo"的元数据,请使用查询:
```
SELECT * FROM INFORMATION_SCHEMA.COLUMNS WHERE TABLE_SCHEMA = 'druid' AND TABLE_NAME = 'foo'
```
> [!WARNING]
> INFORMATION_SCHEMA表目前不支持Druid特定的函数,如:`TIME_PARSE` 和 `APPROX_QUANTILE_DS`, 只有标准的SQL函数是可用的。
**SCHEMATA表**
| Column | Notes |
|-|-|
| CATALOG_NAME | Unused |
| SCHEMA_NAME | |
| SCHEMA_OWNER | Unused |
| DEFAULT_CHARACTER_SET_CATALOG | Unused |
| DEFAULT_CHARACTER_SET_SCHEMA | Unused |
| DEFAULT_CHARACTER_SET_NAME | Unused |
| SQL_PATH | Unused |
**TABLES表**
| Column | Notes |
|-|-|
| TABLE_CATALOG | Unused |
| TABLE_SCHEMA | |
| TABLE_NAME | |
| TABLE_TYPE | "TABLE" or "SYSTEM_TABLE" |
**COLUMNS表**
| Column | Notes |
|-|-|
| TABLE_CATALOG | Unused |
| TABLE_SCHEMA ||
| TABLE_NAME ||
| OLUMN_NAME ||
| ORDINAL_POSITION ||
| COLUMN_DEFAULT | Unused|
| IS_NULLABLE ||
| DATA_TYPE ||
| CHARACTER_MAXIMUM_LENGTH | Unused |
| CHARACTER_OCTET_LENGTH | Unused |
| NUMERIC_PRECISION ||
| NUMERIC_PRECISION_RADIX ||
| NUMERIC_SCALE ||
| DATETIME_PRECISION ||
| CHARACTER_SET_NAME ||
| COLLATION_NAME ||
| JDBC_TYPE | Type code from java.sql.Types (Druid extension) |
#### SYSTEM SCHEMA
"sys"模式提供了对Druid段、服务器和任务的可见性。
> [!WARNING]
> 注意: "sys"表当前不支持Druid特定的函数,例如 `TIME_PARSE` 和 `APPROX_QUANTILE_DS`。 仅仅标准SQL函数可以被使用。
**SEGMENTS表**
segments表提供了所有Druid段的详细信息,无论该段是否被发布
| 字段 | 类型 | 注意 |
|-|-|-|
| `segment_id` | STRING | 唯一的段标识符 |
| `datasource` | STRING | 数据源名称 |
| `start` | STRING | Interval开始时间(ISO8601格式) |
| `end` | STRING | Interval结束时间(ISO8601格式) |
| `size` | LONG | 段大小,单位为字节 |
| `version` | STRING | 版本字符串(通常是ISO8601时间戳,对应于段集首次启动的时间)。较高的版本意味着最近创建的段。版本比较基于字符串比较。 |
| `partition_num` | LONG | 分区号(整数,在数据源+间隔+版本中是唯一的;不一定是连续的) |
| `num_replicas` | LONG | 当前正在服务的此段的副本数 |
| `num_rows` | LONG | 当前段中的行数,如果查询时Broker未知,则此值可以为空 |
| `is_published` | LONG | 布尔值表示为long类型,其中1=true,0=false。1表示此段已发布到元数据存储且 `used=1`。详情查看 [架构页面](../Design/Design.md) |
| `is_available` | LONG | 布尔值表示为long类型,其中1=true,0=false。1表示此段当前由任何进程(Historical或Realtime)提供服务。详情查看 [架构页面](../Design/Design.md) |
| `is_realtime` | LONG | 布尔值表示为long类型,其中1=true,0=false。如果此段仅由实时任务提供服务,则为1;如果任何Historical进程正在为此段提供服务,则为0。 |
| `is_overshadowed` | LONG | 布尔值表示为long类型,其中1=true,0=false。如果此段已发布,并且被其他已发布的段完全覆盖则为1。目前,对于未发布的段,`is_overshadowed` 总是false,尽管这在未来可能会改变。可以通过过滤 `is_published=1` 和 `is_overshadowed=0` 来筛选"应该发布"的段。如果段最近被替换,它们可以短暂地被发布,也可以被掩盖,但还没有被取消发布。详情查看 [架构页面](../Design/Design.md) |
| `payload` | STRING | JSON序列化数据段负载 |
例如,要检索数据源"wikipedia"的所有段,请使用查询:
```sql
SELECT * FROM sys.segments WHERE datasource = 'wikipedia'
```
另一个检索每个数据源的段总大小、平均大小、平均行数和段数的示例:
```sql
SELECT
datasource,
SUM("size") AS total_size,
CASE WHEN SUM("size") = 0 THEN 0 ELSE SUM("size") / (COUNT(*) FILTER(WHERE "size" > 0)) END AS avg_size,
CASE WHEN SUM(num_rows) = 0 THEN 0 ELSE SUM("num_rows") / (COUNT(*) FILTER(WHERE num_rows > 0)) END AS avg_num_rows,
COUNT(*) AS num_segments
FROM sys.segments
GROUP BY 1
ORDER BY 2 DESC
```
注意:请注意,一个段可以由多个流摄取任务或Historical进程提供服务,在这种情况下,它将有多个副本。当由多个摄取任务提供服务时,这些副本彼此之间的一致性很弱,直到某个片段最终由一个Historical段提供服务,此时该段是不可变的。Broker更喜欢从Historical中查询段,而不是从摄取任务中查询段。但如果一个段有多个实时副本,例如Kafka索引任务,同时一个任务比另一个慢,然后`sys.segments`结果在任务的持续时间内可能会有所不同,因为Broker只查询一个摄取任务,并且不能保证每次都选择相同的任务。段表的 `num_rows` 列在此期间可能有不一致的值。关于与流摄取任务的不一致性,有一个 [公开问题](https://github.com/apache/druid/issues/5915) 。
**SERVERS表**
Servers表列出集群中发现的所有服务器
| 字段 | 类型 | 注意 |
|-|-|-|
| `server` | STRING | 服务名称,格式为host:port |
| `host` | STRING | 服务的hostname |
| `plaintext_port` | LONG | 服务器的不安全端口,如果禁用明文通信,则为-1 |
| `tls_port` | LONG | 服务器的TLS端口,如果禁用了TLS,则为-1 |
| `server_type` | STRING | Druid服务的类型,可能的值包括:COORDINATOR, OVERLORD, BROKER, ROUTER, HISTORICAL, MIDDLE_MANAGER 或者 PEON |
| `tier` | STRING | 分布层,查看 [druid.server.tier](../Configuration/configuration.md#Historical)。仅对Historical有效,对于其他类型则为null |
| `current_size` | LONG | 此服务器上以字节为单位的段的当前大小。仅对Historical有效,对于其他类型则为0 |
| `max_size` | LONG | 此服务器建议分配给段的最大字节大小,请参阅 [druid.server.maxSize](../Configuration/configuration.md) 文件, 仅对Historical有效,对于其他类型则为0 |
要检索有关所有服务器的信息,请使用查询:
```sql
SELECT * FROM sys.servers;
```
**SERVER_SEGMENTS表**
SERVER_SEGMENTS表用来连接服务与段表
| 字段 | 类型 | 注意 |
|-|-|-|
| `server` | STRING | 格式为host:port的服务名称, [SERVER表](#SERVERS表) 的主键 |
| `segment_id` | STRING | 段标识符,[SEGMENTS表](#SEGMENTS表) 的主键 |
"SERVERS"和"SEGMENTS"之间的联接可用于查询特定数据源的段数,按SERVER分组,示例查询:
```sql
SELECT count(segments.segment_id) as num_segments from sys.segments as segments
INNER JOIN sys.server_segments as server_segments
ON segments.segment_id = server_segments.segment_id
INNER JOIN sys.servers as servers
ON servers.server = server_segments.server
WHERE segments.datasource = 'wikipedia'
GROUP BY servers.server;
```
**TASKS表**
"TASKS"表提供有关活跃的和最近完成的索引任务的信息。有关更多信息,请查看 [摄取任务的文档](../DataIngestion/taskrefer.md)。
| 字段 | 类型 | 注意 |
|-|-|-|
| `task_id` | STRING | 唯一的任务标识符 |
| `group_id` | STRING | 本任务的任务组ID,值依赖于任务的 `type`, 例如,对于原生索引任务, 它与 `task_id` 相同,对于子任务,该值为父任务的ID |
| `type` | STRING | 任务类型,例如该值为"index"表示为索引任务。 可以查看 [任务概述](../DataIngestion/taskrefer.md) |
| `datasource` | STRING | 被索引的数据源名称 |
| `created_time` | STRING | ISO8601格式的时间戳,与创建摄取任务的时间相对应。请注意,此值是为已完成和正在等待的任务填充的。对于正在运行和挂起的任务,此值设置为1970-01-01T00:00:00Z |
| `queue_insertion_time` | STRING | ISO8601格式的时间戳,与此任务添加到Overlord上的队列时对应 |
| `status` | STRING | 任务状态,可以是RUNNING、FAILED、SUCCESS|
| `runner_status` | STRING | 对于已完成任务的运行状态为NONE,对于进行中的任务,值可以为RUNNING、WAITING、PENDING |
| `duration` | LONG | 完成任务所用的时间(毫秒),此值仅对已完成的任务显示 |
| `location` | STRING | 运行此任务的服务器名称,格式为主机:端口,此信息仅对正在运行的任务显示 |
| `host` | STRING | 运行此任务的服务器名称 |
| `plaintext_port` | LONG | 服务器的不安全端口,如果明文通信被禁用,则为-1 |
| `tls_port` | LONG | 服务器的TLS端口,如果TLS被禁用,则为-1 |
| `error_msg` | STRING | FAILED任务的详细错误信息 |
例如,要检索按状态筛选的任务信息,请使用查询
```sql
SELECT * FROM sys.tasks WHERE status='FAILED';
```
**SUPERVISORS表**
SUPERVISORS表提供supervisor的详细信息
| 字段 | 类型 | 注意 |
|-|-|-|
| `supervisor_id` | STRING | supervisor任务的标识符 |
| `state` | STRING | supervisor的基本状态,可用状态有: `UNHEALTHY_SUPERVISOR`, `UNHEALTHY_TASKS`, `PENDING`, `RUNNING`, `SUSPENDED`, `STOPPING`。详情可以查看 [Kafka摄取文档](../DataIngestion/kafka.md) |
| `detailed_state` | STRING | supervisor特定的状态。(详情查看特定的supervisor状态的文档)|
| `healthy` | LONG | 布尔值表示为long类型,其中1=true,0=false。1表示supervisor健康 |
| `type` | STRING | supervisor的类型,例如 `kafka`, `kinesis` 或者 `materialized_view` |
| `source` | STRING | supervisor的源,例如 Kafka Topic或者Kinesis Stream |
| `suspended` | LONG | 布尔值表示为long类型,其中1=true,0=false。1表示supervisor处于暂停状态 |
| `spec` | STRING | JSON序列化的supervisor说明 |
例如:要检索按运行状况筛选的supervisor任务信息,请使用查询:
```sql
SELECT * FROM sys.supervisors WHERE healthy=0;
```
### 服务配置
Druid SQL计划发生在Broker上,由 [Broker runtime properties](../Configuration/configuration.md#broker) 配置。
### 安全性
有关进行SQL查询需要哪些权限的信息,请参阅基本安全文档中的 [定义SQL权限](../Configuration/core-ext/druid-basic-security.md) 。