## SQL > [!WARNING] > Apache Druid支持两种查询语言: Druid SQL和 [原生查询](makeNativeQueries.md)。本文档讲述SQL查询。 Druid SQL是一个内置的SQL层,是Druid基于JSON的本地查询语言的替代品,它由基于 [Apache Calcite](https://calcite.apache.org/) 的解析器和规划器提供支持。Druid SQL将SQL转换为查询Broker(查询的第一个进程)上的原生Druid查询,然后作为原生Druid查询传递给数据进程。除了在Broker上 [转换SQL](查询翻译) 的(轻微)开销之外,与原生查询相比,没有额外的性能损失。 ### 查询符号 Druid SQL支持如下结构的SELECT查询: ``` [ EXPLAIN PLAN FOR ] [ WITH tableName [ ( column1, column2, ... ) ] AS ( query ) ] SELECT [ ALL | DISTINCT ] { * | exprs } FROM { | () | [ INNER | LEFT ] JOIN ON condition } [ WHERE expr ] [ GROUP BY [ exprs | GROUPING SETS ( (exprs), ... ) | ROLLUP (exprs) | CUBE (exprs) ] ] [ HAVING expr ] [ ORDER BY expr [ ASC | DESC ], expr [ ASC | DESC ], ... ] [ LIMIT limit ] [ UNION ALL ] ``` #### FROM FROM子句可以引用下列任何一个: * 来自 `druid` schema中的 [表数据源](datasource.md#table)。 这是默认schema,因此可以将Druid表数据源引用为 `druid.dataSourceName` 或者简单的 `dataSourceName`。 * 来自 `lookup` schema的 [lookups](datasource.md#lookup), 例如 `lookup.countries`。 注意:lookups还可以使用 [Lookup函数](#字符串函数) 来查询。 * [子查询](#子查询) * 列表中任何内容之间的 [joins](datasource.md#join),本地数据源(table、lookup、query)和系统表之间的联接除外。连接条件必须是连接左侧和右侧的表达式之间的相等。 * 来自于 `INFORMATION_SCHEMA` 或者 `sys` schema的 [元数据表](#元数据表) 有关table、lookup、query和join数据源的更多信息,请参阅 [数据源文档](datasource.md)。 #### WHERE WHERE子句引用FROM表中的列,并将转换为 [原生过滤器](filters.md)。WHERE子句还可以引用子查询,比如 `WHERE col1 IN(SELECT foo FROM ...)`。像这样的查询作为子查询的连接执行,如下在 [查询转换](#查询转换) 部分所述。 #### GROUP BY **GROUP BY**子句引用FROM表中的列。使用 **GROUP BY**、**DISTINCT** 或任何聚合函数都将使用Druid的 [三种原生聚合查询类型](#查询类型)之一触发聚合查询。**GROUP BY**可以引用表达式或者select子句的序号位置(如 `GROUP BY 2`以按第二个选定列分组)。 **GROUP BY**子句还可以通过三种方式引用多个分组集。 最灵活的是 **GROUP BY GROUPING SETS**,例如 `GROUP BY GROUPING SETS ( (country, city), () )`, 该实例等价于一个 `GROUP BY country, city` 然后 `GROUP BY ()`。 对于**GROUPING SETS**,底层数据只扫描一次,从而提高了效率。其次,**GROUP BY ROLLUP**为每个级别的分组表达式计算一个分组集,例如 `GROUP BY ROLLUP (country, city)` 等价于 `GROUP BY GROUPING SETS ( (country, city), (country), () )` ,将为每个country/city对生成分组行,以及每个country的小计和总计。最后,**GROUP BY CUBE**为每个分组表达式组合计算分组集,例如 `GROUP BY CUBE (country, city)` 等价于 `GROUP BY GROUPING SETS ( (country, city), (country), (city), () )`。对不适用于特定行的列进行分组将包含 `NULL`, 例如,当计算 `GROUP BY GROUPING SETS ( (country, city), () )`, 与`()`对应的总计行对于"country"和"city"列将为 `NULL`。 使用 **GROUP BY GROUPING SETS**, **GROUP BY ROLLUP**, 或者 **GROUP BY CUBE**时,请注意,可能不会按照在查询中指定分组集的顺序生成结果。如果需要按特定顺序生成结果,请使用**ORDER BY**子句。 #### HAVING **HAVING**子句引用在执行**GROUP BY**之后出现的列,它可用于对分组表达式或聚合值进行筛选,它只能与**GROUP BY**一起使用。 #### ORDER BY **ORDER BY**子句引用执行**GROUP BY**后出现的列。它可用于根据分组表达式或聚合值对结果进行排序。**ORDER BY**可以引用表达式或者select子句序号位置(例如 `ORDER BY 2` 根据第二个选定列进行排序)。对于非聚合查询,**ORDER BY**只能按 `__time` 排序。对于聚合查询,**ORDER BY**可以按任何列排序。 #### LIMIT **LIMIT**子句可用于限制返回的行数。它可以用于任何查询类型。对于使用原生TopN查询类型(而不是原生GroupBy查询类型)运行的查询,它被下推到数据进程。未来的Druid版本也将支持使用原生GroupBy查询类型来降低限制。如果您注意到添加一个限制并不会对性能产生很大的影响,那么很可能Druid并没有降低查询的限制。 #### UNION ALL **UNION ALL**操作符可用于将多个查询融合在一起。它们的结果将被连接起来,每个查询将单独运行,背对背(不并行)。Druid现在不支持没有"All"的"UNION"。**UNION ALL**必须出现在SQL查询的最外层(它不能出现在子查询或FROM子句中)。 请注意,尽管名称相似,UNION ALL与 [union datasource](datasource.md#union) 并不是一回事。**UNION ALL**允许联合查询结果,而UNION数据源允许联合表。 #### EXPLAIN PLAN 在任何查询的开头添加"EXPLAIN PLAN FOR",以获取有关如何转换的信息。在这种情况下,查询实际上不会执行。有关解释**EXPLAIN PLAN**输出的帮助,请参阅 [查询转换文档](#查询转换)。 #### 标识符和字面量 可以选择使用双引号引用数据源和列名等标识符。要在标识符中转义双引号,请使用另一个双引号,如 `"My ""very own"" identifier"`。所有标识符都区分大小写,不执行隐式大小写转换。 字面量字符串应该用单引号引起来,如 `'foo'`。带Unicode转义符的文本字符串可以像 `U&'fo\00F6'` 一样写入,其中十六进制字符代码的前缀是反斜杠。字面量数字可以写成 `100`(表示整数)、`100.0`(表示浮点值)或 `1.0e5`(科学表示法)等形式。字面量时间戳可以像 `TIMESTAMP '2000-01-01 00:00:00'` 一样写入, 用于时间算术的字面量间隔可以写成 `INTERVAL '1' HOUR`、`INTERVAL '1 02:03' DAY TO MINUTE, INTERVAL '1-2' YEAR TO MONTH` 等等。 #### 动态参数 Druid SQL支持使用问号 `(?)` 的动态参数语法,动态参数在执行时绑定到占位符 `?` 中。若要使用动态参数,请将查询中的任何文本替换为 `?`字符,并在执行查询时提供相应的参数值, 参数按传递顺序绑定到占位符。[HTTP POST](#HTTP)和[JDBC APIs](#jdbc) 都支持参数。 ### 数据类型 #### 标准类型 Druid原生支持五种列类型:"long"(64位有符号整型),"float"(32位浮点型),"double"(64位浮点型),"string"(UTF-8编码的字符串或者字符串数组)和"complex"(获取更多奇异的数据类型,如hyperUnique列和approxHistogram列) 时间戳(包括 `__time` 列)被Druid视为long,其值是1970-01-01T00:00:00 UTC以来的毫秒数,不包括闰秒。因此,Druid中的时间戳不携带任何时区信息,而只携带关于它们所代表的确切时间的信息。有关时间戳处理的更多信息,请参阅 [时间函数部分](#时间函数)。 下表描述了Druid如何在查询运行时将SQL类型映射到原生类型。在具有相同Druid运行时类型的两个SQL类型之间进行强制转换不会产生任何影响,除非表中指出了异常。两个具有不同Druid运行时类型的SQL类型之间的转换将在Druid中生成一个运行时转换。如果一个值不能正确地转换为另一个值,如 `CAST('foo' AS BIGINT)`,则运行时将替换默认值。 NULL转换为不可为空类型时将替换为默认值(例如,NULL转为数字将转换为零)。 | SQL类型 | Druid运行时类型 | 默认值 | 注意事项 | |-|-|-|-| | CHAR | STRING | `''` | | | VARCHAR | STRING | `''` | Druid STRING列报告为VARCHAR,包括 [多值字符串](#多值字符串) | | DECIMAL | DOUBLE | `0.0` | DECIMAL使用浮点,非定点 | | FLOAT | FLOAT | `0.0` | Druid FLOAT列报告为FLOAT | | REAL | DOUBLE | `0.0` | | | DOUBLE | DOUBLE | `0.0` | Druid DOUBLE列报告为DOUBLE | | BOOLEAN | LONG | `false` | | | TINYINT | LONG | `0` | | | SMALLINT | LONG | `0` | | | INTEGER | LONG | `0` | | | BIGINT | LONG | `0` | Druid LONG列(除了 `__time` 报告为BIGINT | | TIMESTAMP | LONG | `0`, 意思是1970-01-01 00:00:00 UTC | Druid的`__time`列被报告为TIMESTAMP。 string和timestamp类型的转换都是假定为标准格式,例如 `2000-01-02 03:04:05`, 而非ISO8601格式。 有关时间戳处理的更多信息,请参阅 [时间函数部分](#时间函数)。 | | DATE | LONG | `0`, 意思是1970-01-01 | 转换TIMESTAMP为DATE 时间戳将时间戳舍入到最近的一天。string和date类型的转换都是假定为标准格式,例如 `2000-01-02`。 有关时间戳处理的更多信息,请参阅 [时间函数部分](#时间函数)。| | OTHER | COMPLEX | none | 可以表示各种Druid列类型,如hyperUnique、approxHistogram等 | #### 多值字符串 Druid的原生类型系统允许字符串可能有多个值。这些 [多值维度](multi-value-dimensions.md) 将被报告为SQL中的 `VARCHAR` 类型,可以像任何其他VARCHAR一样在语法上使用。引用多值字符串维度的常规字符串函数将分别应用于每行的所有值,多值字符串维度也可以通过特殊的 [多值字符串函数](#多值字符串函数) 作为数组处理,该函数可以执行强大的数组操作。 按多值表达式分组将observe原生Druid多值聚合行为,这与某些其他SQL语法中 `UNNEST` 的功能类似。有关更多详细信息,请参阅有关 [多值字符串维度](multi-value-dimensions.md) 的文档。 #### NULL [runtime property](../Configuration/configuration.md#SQL兼容的空值处理) 中的 `druid.generic.useDefaultValueForNull` 配置控制着Druid的NULL处理模式。 在默认模式(`true`)下,Druid将NULL和空字符串互换处理,而不是根据SQL标准。在这种模式下,Druid SQL只部分支持NULL。例如,表达式 `col IS NULL` 和 `col = ''` 等效,如果 `col` 包含空字符串,则两者的计算结果都为true。类似地,如果`col1`是空字符串,则表达式 `COALESCE(col1,col2)` 将返回 `col2`。当 `COUNT(*)` 聚合器计算所有行时,`COUNT(expr)` 聚合器将计算expr既不为空也不为空字符串的行数。此模式中的数值列不可为空;任何空值或缺少的值都将被视为零。 在SQL兼容模式(`false`)中,NULL的处理更接近SQL标准,该属性同时影响存储和查询,因此为了获得最佳行为,应该在接收时和查询时同时设置该属性。处理空值的能力会带来一些开销;有关更多详细信息,请参阅 [段文档](../Design/Segments.md#SQL兼容的空值处理)。 ### 聚合函数 聚合函数可以出现在任务查询的SELECT子句中,任何聚合器都可以使用 `AGG(expr) FILTER(WHERE whereExpr)` 这样的表达式进行过滤。 被过滤的聚合器仅仅聚合那些匹配了过滤器的行。 同一个SQL查询中的两个聚合器可能有不同的过滤器。 只有COUNT聚合支持使用DISTINCT | 函数 | 描述 | |-|-| | `COUNT(*)` | 计算行数 | | `COUNT( DISTINCT expr)` | 唯一值的计数,表达式可以是string、numeric或者hyperUnique。默认情况下,这是近似值,使用[HyperLogLog](http://algo.inria.fr/flajolet/Publications/FlFuGaMe07.pdf) 的变体。若要获取精确计数,请将"useApproximateCountDistinct"设置为"false"。如果这样做,expr必须是字符串或数字,因为使用hyperUnique列不可能精确计数。另请参见 `APPROX_COUNT_DISTINCT(expr)` 。在精确模式下,每个查询只允许一个不同的计数。| | `SUM(expr)` | 求和 | | `MIN(expr)` | 取数字的最小值 | | `MAX(expr)` | 取数字的最大值 | | `AVG(expr)` | 取平均值 | | `APPROX_COUNT_DISTINCT(expr)` | 唯一值的计数,该值可以是常规列或hyperUnique。这始终是近似值,而不考虑"useApproximateCountDistinct"的值。该函数使用了Druid内置的"cardinality"或"hyperUnique"聚合器。另请参见 `COUNT(DISTINCT expr)` | | `APPROX_COUNT_DISTINCT_DS_HLL(expr, [lgK, tgtHllType])` | 唯一值的计数,该值可以是常规列或[HLL sketch](../Configuration/core-ext/datasketches-hll.md)。`lgk` 和 `tgtHllType` 参数在HLL Sketch文档中做了描述。 该值也始终是近似值,而不考虑"useApproximateCountDistinct"的值。另请参见 `COUNT(DISTINCT expr)`, 使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) | | `APPROX_COUNT_DISTINCT_DS_THETA(expr, [size])` | 唯一值的计数,该值可以是常规列或[Theta sketch](../Configuration/core-ext/datasketches-theta.md)。`size` 参数在Theta Sketch文档中做了描述。 该值也始终是近似值,而不考虑"useApproximateCountDistinct"的值。另请参见 `COUNT(DISTINCT expr)`, 使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) | | `DS_HLL(expr, [lgK, tgtHllType])` | 在表达式的值上创建一个 [`HLL sketch`](../Configuration/core-ext/datasketches-hll.md), 该值可以是常规列或者包括HLL Sketch的列。`lgk` 和 `tgtHllType` 参数在HLL Sketch文档中做了描述。使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) | | `DS_THETA(expr, [size])` | 在表达式的值上创建一个[`Theta sketch`](../Configuration/core-ext/datasketches-theta.md),该值可以是常规列或者包括Theta Sketch的列。`size` 参数在Theta Sketch文档中做了描述。使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) | | `APPROX_QUANTILE(expr, probability, [resolution])` | 在数值表达式或者[近似图](../Configuration/core-ext/approximate-histograms.md) 表达式上计算近似分位数,"probability"应该是位于0到1之间(不包括1),"resolution"是用于计算的centroids,更高的resolution将会获得更精确的结果,默认值为50。使用该函数需要加载 [近似直方图扩展](../Configuration/core-ext/approximate-histograms.md) | | `APPROX_QUANTILE_DS(expr, probability, [k])` | 在数值表达式或者 [Quantiles sketch](../Configuration/core-ext/datasketches-quantiles.md) 表达式上计算近似分位数,"probability"应该是位于0到1之间(不包括1), `k`参数在Quantiles Sketch文档中做了描述。使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) | | `APPROX_QUANTILE_FIXED_BUCKETS(expr, probability, numBuckets, lowerLimit, upperLimit, [outlierHandlingMode])` | 在数值表达式或者[fixed buckets直方图](../Configuration/core-ext/approximate-histograms.md) 表达式上计算近似分位数,"probability"应该是位于0到1之间(不包括1), `numBuckets`, `lowerLimit`, `upperLimit` 和 `outlierHandlingMode` 参数在fixed buckets直方图文档中做了描述。 使用该函数需要加载 [近似直方图扩展](../Configuration/core-ext/approximate-histograms.md) | | `DS_QUANTILES_SKETCH(expr, [k])` | 在表达式的值上创建一个[`Quantiles sketch`](../Configuration/core-ext/datasketches-quantiles.md),该值可以是常规列或者包括Quantiles Sketch的列。`k`参数在Quantiles Sketch文档中做了描述。使用该函数需要加载 [DataSketches扩展](../Development/datasketches-extension.md) | | `BLOOM_FILTER(expr, numEntries)` | 根据`expr`生成的值计算bloom筛选器,其中`numEntries`在假阳性率增加之前具有最大数量的不同值。详细可以参见 [Bloom过滤器扩展](../Configuration/core-ext/bloom-filter.md) | | `TDIGEST_QUANTILE(expr, quantileFraction, [compression])` | 根据`expr`生成的值构建一个T-Digest sketch,并返回分位数的值。"compression"(默认值100)确定sketch的精度和大小。更高的compression意味着更高的精度,但更多的空间来存储sketch。有关更多详细信息,请参阅 [t-digest扩展文档](../Configuration/core-ext/tdigestsketch-quantiles.md) | | `TDIGEST_GENERATE_SKETCH(expr, [compression])` | 根据`expr`生成的值构建一个T-Digest sketch。"compression"(默认值100)确定sketch的精度和大小。更高的compression意味着更高的精度,但更多的空间来存储sketch。有关更多详细信息,请参阅 [t-digest扩展文档](../Configuration/core-ext/tdigestsketch-quantiles.md) | | `VAR_POP(expr)` | 计算`expr`的总体方差, 额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) | | `VAR_SAMP(expr)` | 计算表达式的样本方差,额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) | | `VARIANCE(expr)` | 计算表达式的样本方差,额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) | | `STDDEV_POP(expr)` | 计算`expr`的总体标准差, 额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) | | `STDDEV_SAMP(expr)` | 计算表达式的样本标准差,额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) | | `STDDEV(expr)` | 计算表达式的样本标准差,额外的信息参见 [stats扩展文档](../Configuration/core-ext/stats.md) | | `EARLIEST(expr)` | 返回`expr`的最早值,该值必须是数字。如果`expr`来自一个与timestamp列(如Druid数据源)的关系,那么"earliest"是所有被聚合值的最小总时间戳最先遇到的值。如果`expr`不是来自带有时间戳的关系,那么它只是遇到的第一个值。 | | `ARLIEST(expr, maxBytesPerString) ` | 与`EARLIEST(expr)`相似,但是面向string。`maxBytesPerString` 参数确定每个字符串要分配多少聚合空间, 超过此限制的字符串将被截断。这个参数应该设置得尽可能低,因为高值会导致内存浪费。 | | `LATEST(expr)` | 返回 `expr` 的最新值,该值必须是数字。如果 `expr` 来自一个与timestamp列(如Druid数据源)的关系,那么"latest"是最后一次遇到的值,它是所有被聚合的值的最大总时间戳。如果`expr`不是来自带有时间戳的关系,那么它只是遇到的最后一个值。 | | `LATEST(expr, maxBytesPerString)` | 与 `LATEST(expr)` 类似,但是面向string。`maxBytesPerString` 参数确定每个字符串要分配多少聚合空间, 超过此限制的字符串将被截断。这个参数应该设置得尽可能低,因为高值会导致内存浪费。 | | `ANY_VALUE(expr)` | 返回 `expr` 的任何值,包括null。`expr`必须是数字, 此聚合器可以通过返回第一个遇到的值(包括空值)来简化和优化性能 | | `ANY_VALUE(expr, maxBytesPerString)` | 与 `ANY_VALUE(expr)` 类似,但是面向string。`maxBytesPerString` 参数确定每个字符串要分配多少聚合空间, 超过此限制的字符串将被截断。这个参数应该设置得尽可能低,因为高值会导致内存浪费。| 对于近似聚合函数,请查看 [近似聚合文档](Aggregations.md#近似聚合) ### 扩展函数 #### 数值函数 对于数学运算,如果表达式中涉及的所有操作数都是整数,Druid SQL将使用整数数学。否则,Druid将切换到浮点数学,通过将一个操作数转换为浮点,可以强制执行此操作。在运行时,对于大多数表达式,Druid将把32位浮点扩展到64位。 | 函数 | 描述 | |-|-| | `ABS(expr)` | 绝对值 | | `CEIL(expr)` | 向上取整 | | `EXP(expr)` | 次方 | | `FLOOR(expr)` | 向下取整 | | `LN(expr)` | 对数(以e为底)| | `LOG10(expr)` | 对数(以10为底) | | `POWER(expr,power)` | 次方 | | `SQRT(expr)` | 开方 | | `TRUNCATE(expr[, digits])` | 将`expr`截断为指定的小数位数。如果数字为负数,则此操作会截断小数点左侧的许多位置。如果未指定,则数字默认为零。| | `ROUND(expr[, digits])` | `ROUND(x,y)` 将返回x的值,并四舍五入到y小数位。虽然x可以是整数或浮点数,但y必须是整数。返回值的类型由x的类型指定。如果省略,则默认为0。当y为负时,x在y小数点的左侧四舍五入。| | `x + y` | 加 | | `x - y` | 减 | | `x * y` | 乘 | | `x / y` | 除 | | `MOD(x, y)` | 模除 | | `SIN(expr)` | 正弦 | | `COS(expr)` | 余弦 | | `TAN(expr)` | 正切 | | `COT(expr)` | 余切 | | `ASIN(expr)` | 反正弦 | | `ACOS(expr)` | 反余弦 | | `ATAN(expr)` | 反正切 | | `ATAN2(y, x)` | 从直角坐标(x,y)到极坐标(r,θ)的转换角度θ。| | `DEGREES(expr)` | 将以弧度测量的角度转换为以度测量的近似等效角度 | | `RADIANS(expr)` | 将以度为单位测量的角度转换为以弧度为单位测量的近似等效角度 | #### 字符串函数 字符串函数接受字符串,并返回与该函数相应的类型。 | 函数 | 描述 | |-|-| | `x||y` | 拼接字符串 | | `CONCAT(expr, expr, ...)` | 拼接一系列表达式 | | `TEXTCAT(expr, expr)` | 两个参数版本的CONCAT | | `STRING_FORMAT(pattern[, args...])` | 返回以Java的 [方式格式化](https://docs.oracle.com/javase/8/docs/api/java/lang/String.html#format-java.lang.String-java.lang.Object...-) 的字符串字符串格式 | | `LENGTH(expr)` | UTF-16代码单位的长度或表达式 | | `CHAR_LENGTH(expr)` | `LENGTH` 的同义词 | | `CHARACTER_LENGTH(expr)` | `LENGTH` 的同义词 | | `STRLEN(expr)` | `LENGTH` 的同义词 | | `LOOKUP(expr, lookupName)` | 已注册的 [查询时Lookup表](lookups.md)的Lookup表达式。 注意:lookups也可以直接使用 [`lookup schema`](#from)来查询 | | `LOWER(expr)` | 返回的expr的全小写 | | `PARSE_LONG(string[, radix])` | 将字符串解析为具有给定基数的长字符串(BIGINT),如果未提供基数,则解析为10(十进制)。| | `POSITION(needle IN haystack [FROM fromIndex])` | 返回haystack中指针的索引,索引从1开始。搜索将从fromIndex开始,如果未指定fromIndex,则从1开始。如果找不到针,则返回0。 | | `REGEXP_EXTRACT(expr, pattern, [index])` | 应用正则表达式模式并提取捕获组,如果没有匹配,则为空。如果index未指定或为零,则返回与模式匹配的子字符串。| | `REPLACE(expr, pattern, replacement)` | 在expr中用replacement替换pattern,并返回结果。| | `STRPOS(haystack, needle)` | 返回haystack中指针的索引,索引从1开始。如果找不到针,则返回0。| | `SUBSTRING(expr, index, [length])` | 返回从索引开始的expr子字符串,最大长度均以UTF-16代码单位度量。| | `RIGHT(expr, [length])` | 从expr返回最右边的长度字符。| | `LEFT(expr, [length])` | 返回expr中最左边的长度字符。| | `SUBSTR(expr, index, [length])` | SUBSTRING的同义词 | | `TRIM([BOTH|LEADING|TRAILING][FROM] expr)` | 返回expr, 如果字符在"chars"中,则从"expr"的开头、结尾或两端删除字符。如果未提供"chars",则默认为""(空格)。如果未提供方向参数,则默认为"BOTH"。 | | `BTRIM(expr[, chars])` | `TRIM(BOTH FROM )`的替代格式 | | `LTRIM(expr[, chars])` | `TRIM(LEADING FROM )`的替代格式 | | `RTRIM(expr[, chars])` | `TRIM(TRAILING FROM )`的替代格式 | | `UPPER(expr)` | 返回全大写的expr | | `REVERSE(expr)` | 反转expr | | `REPEAT(expr, [N])` | 将expr重复N次 | | `LPAD(expr, length[, chars])` | 从"expr"中返回一个用"chars"填充的"length"字符串。如果"length"小于"expr"的长度,则结果为"expr",并被截断为"length"。如果"expr"或"chars"为空,则结果为空。 | | `RPAD(expr, length[, chars])` | 从"expr"返回一个用"chars"填充的"length"字符串。如果"length"小于"expr"的长度,则结果为"expr",并被截断为"length"。如果"expr"或"chars"为空,则结果为空。 | #### 时间函数 时间函数可以与Druid的时 `__time` 一起使用,任何存储为毫秒时间戳的列都可以使用 `MILLIS_TO_TIMESTAMP` 函数,或者任何存储为字符串时间戳的列都可以使用 `TIME_PARSE` 函数。默认情况下,时间操作使用UTC时区。您可以通过将连接上下文参数"sqlTimeZone"设置为另一个时区的名称(如"America/Los_Angeles")或设置为偏移量(如"-08:00")来更改时区。如果需要在同一查询中混合多个时区,或者需要使用连接时区以外的时区,则某些函数还接受时区作为参数。这些参数始终优先于连接时区。 连接时区中的字面量时间戳可以使用 `TIMESTAMP '2000-01-01 00:00:00'` 语法编写。在其他时区写入字面量时间戳的最简单方法是使用TIME_PARSE,比如 `TIME_PARSE('2000-02-01 00:00:00',NULL,'America/Los_Angeles')`。 | 函数 | 描述 | |-|-| | `CURRENT_TIMESTAMP` | 在连接时区的当前时间戳 | | `CURRENT_DATE` | 在连接时区的当期日期 | | `DATE_TRUNC(, )` | 截断时间戳,将其作为新时间戳返回。单位可以是"毫秒"、"秒"、"分"、"时"、"日"、"周"、"月"、"季"、"年"、"十年"、"世纪"或"千年"。 | | `TIME_CEIL(, , [, []])` | 对时间戳进行向上取整,并将其作为新的时间戳返回。周期可以是任何ISO8601周期,如P3M(季度)或PT12H(半天)。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。此函数类似于 `CEIL`,但更灵活。| | `TIME_FLOOR(, , [, []])` | 对时间戳进行向下取整,将其作为新时间戳返回。周期可以是任何ISO8601周期,如P3M(季度)或PT12H(半天)。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。此功能类似于 `FLOOR`,但更灵活。 | | `TIME_SHIFT(, , , [])` | 将时间戳移动一个周期(步进时间),将其作为新的时间戳返回。 `period` 可以是任何ISO8601周期,`step` 可能为负。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。| | `TIME_EXTRACT(, [, []])` | 从expr中提取时间部分,并将其作为数字返回。单位可以是EPOCH、SECOND、MINUTE、HOUR、DAY(月的日)、DOW(周的日)、DOY(年的日)、WEEK(年周)、MONTH(1到12)、QUARTER(1到4)或YEAR。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00"。此函数类似于 `EXTRACT`,但更灵活。单位和时区必须是字面量,并且必须提供引号,如时间提取 `TIME_EXTRACT(__time, 'HOUR')` 或 `TIME_EXTRACT(__time, 'HOUR', 'America/Los_Angeles')`。| | `TIME_PARSE(, [, []])` | 如果未提供该 `pattern`, 使用给定的 [Joda DateTimeFormat模式](http://www.joda.org/joda-time/apidocs/org/joda/time/format/DateTimeFormat.html) 或ISO8601(例如`2000-01-02T03:04:05Z`)将字符串解析为时间戳。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00",并将用作不包括时区偏移量的字符串的时区。模式和时区必须是字面量。无法解析为时间戳的字符串将返回空值。| | `TIME_FORMAT(, [, []])` | 如果 `pattern` 未提供,使用给定的 [Joda DateTimeFormat模式](http://www.joda.org/joda-time/apidocs/org/joda/time/format/DateTimeFormat.html) 或ISO8601(例如`2000-01-02T03:04:05Z`)将时间戳格式化为字符串。时区(如果提供)应为时区名称,如"America/Los_Angeles"或偏移量,如"-08:00",并将用作不包括时区偏移量的字符串的时区。模式和时区必须是字面量。无法解析为时间戳的字符串将返回空值。| | `MILLIS_TO_TIMESTAMP(millis_expr)` | 将纪元后的毫秒数转换为时间戳。| | `TIMESTAMP_TO_MILLIS(timestamp_expr)` | 将时间戳转换为自纪元以来的毫秒数 | | `EXTRACT( FROM timestamp_expr)` | 从expr中提取时间部分,并将其作为数字返回。单位可以是EPOCH, MICROSECOND, MILLISECOND, SECOND, MINUTE, HOUR, DAY (day of month), DOW (day of week), ISODOW (ISO day of week), DOY (day of year), WEEK (week of year), MONTH, QUARTER, YEAR, ISOYEAR, DECADE, CENTURY or MILLENNIUM。必须提供未加引号的单位,如 `EXTRACT(HOUR FROM __time)`。| | `FLOOR(timestamp_expr TO )` | 向下取整时间戳,将其作为新时间戳返回。`unit`可以是SECOND, MINUTE, HOUR, DAY, WEEK, MONTH, QUARTER, 或者YEAR | | `CEIL(timestamp_expr TO )` | 向上取整时间戳,将其作为新时间戳返回。`unit`可以是SECOND, MINUTE, HOUR, DAY, WEEK, MONTH, QUARTER, 或者YEAR | | `TIMESTAMPADD(, , )` | 等价于 `timestamp + count * INTERVAL '1' UNIT` | | `TIMESTAMPDIFF(, , )` | 返回`timestamp1` 和 `timestamp2` 之间的(有符号)`unit` | | `timestamp_expr { +/- } ` | 从时间戳中加上或减去时间量。`interval_expr` 可以包括 `INTERVAL '2' HOUR` 之类的区间字面量,也可以包括区间算法。该操作将天数统一视为86400秒,并且不考虑夏令时。要计算夏时制时间,请使用 `TIME_SHIFT`。 | #### 归约函数 归约函数对零个或多个表达式进行操作,并返回单个表达式。如果没有表达式作为参数传递,则结果为 `NULL`。表达式必须全部转换为公共数据类型,即结果的类型: * 如果所有的参数都是 `NULL`, 结果是 `NULL`, 否则,`NULL` 参数被忽略 * 如果所有的参数包含了数字和字符串的混合,参数都被解释为字符串 * 如果所有的参数是整型数字,参数都被解释为长整型 * 如果所有的参数是数值且至少一个参数是double,则参数都被解释为double | 函数 | 描述 | |-|-| | `GREATEST([expr1, ...])` | 计算零个或多个表达式,并根据上述比较返回最大值。 | | `LEAST([expr1, ...])` | 计算零个或多个表达式,并根据上述比较返回最小值。 | #### IP地址函数 对于IPv4地址函数,地址参数可以是IPv4点分十进制字符串(例如"192.168.0.1")或表示为整数的IP地址(例如3232235521)。`subnet` 参数应该是一个字符串,格式为CIDR表示法中的IPv4地址子网(例如"192.168.0.0/16")。 | 函数 | 描述 | |-|-| | `IPV4_MATCH(address, subnet)` | 如果 `address` 属于 `subnet`文本,则返回true,否则返回false。如果 `address` 不是有效的IPv4地址,则返回false。如果 `address` 是整数而不是字符串,则此函数更效率。 | | `IPV4_PARSE(address)` | 将 `address` 解析为存储为整数的IPv4地址。如果 `address` 是有效的IPv4地址的整数,则它将被可以解析。如果 `address` 不能表示为IPv4地址,则返回null。 | | `IPV4_STRINGIFY(address)` | 将 `address` 转换为以点分隔的IPv4地址十进制字符串。如果 `address` 是有效的IPv4地址的字符串,则它将解析。如果 `address` 不能表示为IPv4地址,则返回null。 | #### 比较操作符 | 函数 | 描述 | |-|-| | `x = y` | 等于 | | `x <> y` | 不等于 | | `x > y` | 大于 | | `x >= y` | 大于等于 | | `x < y` | 小于 | | `x <= y` | 小于等于 | | `x BETWEEN y AND z` | 等价于 `x >= y AND x <= z` | | `x NOT BETWEEN y AND z` | 等价于 `x >= y OR x <= z` | | `x LIKE pattern [ESCAPE esc]` | 如果x匹配上了一个SQL LIKE模式则返回true | | `x NOT LIKE pattern [ESCAPE esc]` | 如果x没有匹配上了一个SQL LIKE模式则返回true | | `x IS NULL` | 如果x是NULL或者空串,返回true | | `x IS NOT NULL ` | 如果x不是NULL也不是空串,返回true | | `x IS TRUE ` | 如果x是true,返回true | | `x IS NOT TRUE` | 如果x不是true,返回true | | `x IS FALSE` | 如果x是false,返回true | | `x IS NOT FALSE` | 如果x不是false,返回true | | `x IN (values)` | 如果x是列出的值之一,则为True | | `x NOT IN (values)` | 如果x不是列出的值之一,则为True | | `x IN (subquery)` | 如果子查询返回x,则为True。这将转换为联接;有关详细信息,请参阅 [查询转换](#查询转换) | | `x NOT IN (subquery)` | 如果子查询没有返回x,则为True。这将转换为联接;有关详细信息,请参阅 [查询转换](#查询转换) | | `x AND y` | 与 | | `x OR y` | 或 | | `NOT x` | 非 | #### Sketch函数 这些函数对返回sketch对象的表达式或列进行操作。 **HLL Sketch函数** 以下函数操作在 [DataSketches HLL sketches](../Configuration/core-ext/datasketches-hll.md) 之上,使用这些函数之前需要加载 [DataSketches扩展](../Development/datasketches-extension.md) | 函数 | 描述 | |-|-| | `HLL_SKETCH_ESTIMATE(expr, [round])` | 从HLL草图返回非重复计数估计值。`expr`必须返回HLL草图。可选的`round`布尔参数如果设置为 `true` 将舍入估计值,默认值为 `false`。 | | `HLL_SKETCH_ESTIMATE_WITH_ERROR_BOUNDS(expr, [numStdDev])` | 从HLL草图返回不同的计数估计值和错误边界。`expr` 必须返回HLL草图。可以提供可选的 `numStdDev` 参数。 | | `HLL_SKETCH_UNION([lgK, tgtHllType], expr0, expr1, ...)` | 返回HLL草图的并集,其中每个输入表达式必须返回HLL草图。可以选择将 `lgK` 和 `tgtHllType` 指定为第一个参数;如果提供了,则必须同时指定这两个可选参数。| | `HLL_SKETCH_TO_STRING(expr)` | 返回用于调试的HLL草图的可读字符串表示形式。`expr` 必须返回HLL草图。| **Theta Sketch函数** 以下函数操作在 [theta sketches](../Configuration/core-ext/datasketches-theta.md) 之上,使用这些函数之前需要加载 [DataSketches扩展](../Development/datasketches-extension.md) | 函数 | 描述 | |-|-| | `THETA_SKETCH_ESTIMATE(expr)` | 从theta草图返回不同的计数估计值。`expr` 必须返回theta草图。| | `THETA_SKETCH_ESTIMATE_WITH_ERROR_BOUNDS(expr, errorBoundsStdDev)` | 从theta草图返回不同的计数估计值和错误边界。`expr` 必须返回theta草图。| | `THETA_SKETCH_UNION([size], expr0, expr1, ...)` | 返回theta草图的并集,其中每个输入表达式必须返回theta草图。可以选择将 `size` 指定为第一个参数。 | | `THETA_SKETCH_INTERSECT([size], expr0, expr1, ...)` | 返回theta草图的交集,其中每个输入表达式必须返回theta草图。可以选择将 `size` 指定为第一个参数。 | | `THETA_SKETCH_NOT([size], expr0, expr1, ...)` | 返回theta草图的集合差,其中每个输入表达式必须返回theta草图。可以选择将 `size` 指定为第一个参数。 | **Quantiles Sketch函数** 以下函数操作在 [quantiles sketches](../Configuration/core-ext/datasketches-quantiles.md) 之上,使用这些函数之前需要加载 [DataSketches扩展](../Development/datasketches-extension.md) | 函数 | 描述 | |-|-| | `DS_GET_QUANTILE(expr, fraction)` | 返回与来自分位数草图的 `fraction` 相对应的分位数估计。`expr` 必须返回分位数草图。 | | `DS_GET_QUANTILES(expr, fraction0, fraction1, ...)` | 返回一个字符串,该字符串表示与分位数草图的分数列表相对应的分位数估计数组。`expr` 必须返回分位数草图 | | `DS_HISTOGRAM(expr, splitPoint0, splitPoint1, ...)` | 返回一个字符串,该字符串表示给定一个分割点列表的直方图近似值,该列表定义了分位数草图中的直方图箱。`expr` 必须返回分位数草图。 | | `DS_CDF(expr, splitPoint0, splitPoint1, ...)` | 返回一个字符串,该字符串表示给定的分割点列表(该列表定义了来自分位数草图的容器边缘)的累积分布函数的近似值。`expr` 必须返回分位数草图。 | | `DS_RANK(expr, value)` | 返回对给定值的秩的近似值,该值是分布的分数,小于来自分位数草图的该值。`expr` 必须返回分位数草图。 | | `DS_QUANTILE_SUMMARY(expr)` | 返回分位数草图的字符串摘要,用于调试。`expr` 必须返回分位数草图。 | #### 其他扩展函数 | 函数 | 描述 | |-|-| | `CAST(value AS TYPE)` | 将值转换为其他类型。 可以查看 [数据类型](#数据类型) 来了解在Druid SQL中如何传利CAST | | `CASE expr WHEN value1 THEN result1 \[ WHEN value2 THEN result2 ... \] \[ ELSE resultN \] END` | 简单CASE | | `CASE WHEN boolean_expr1 THEN result1 \[ WHEN boolean_expr2 THEN result2 ... \] \[ ELSE resultN \] END` | 搜索CASE | | `NULLIF(value1, value2)` | 如果value1和value2匹配,则返回NULL,否则返回value1 | | `COALESCE(value1, value2, ...)` | 返回第一个既不是NULL也不是空字符串的值。 | | `NVL(expr,expr-for-null)` | 如果'expr'为空(或字符串类型为空字符串),则返回 `expr for null` | | `BLOOM_FILTER_TEST(, )` | 如果值包含在Base64序列化bloom筛选器中,则返回true。 详情查看 [Bloom Filter扩展](../Configuration/core-ext/bloom-filter.md) | ### 多值字符串函数 多值字符串函数文档中的所有"array"引用都可以引用多值字符串列或数组字面量。 | 函数 | 描述 | |-|-| | `ARRAY(expr1,expr ...)` | 从表达式参数构造SQL数组字面量,使用第一个参数的类型作为输出数组类型 | | `MV_LENGTH(arr)` | 返回数组表达式的长度 | | `MV_OFFSET(arr,long)` | 返回所提供的基于0的索引处的数组元素,或对于超出范围的索引返回null | | `MV_ORDINAL(arr,long)` | 返回所提供的基于1的索引处的数组元素,或对于超出范围的索引返回null | | `MV_CONTAINS(arr,expr)` | 如果数组包含expr指定的元素,则返回1;如果expr是数组,则返回expr指定的所有元素,否则返回0 | | `MV_OVERLAP(arr1,arr2)` | 如果arr1和arr2有任何共同元素,则返回1,否则返回0 | | `MV_OFFSET_OF(arr,expr)` | 返回数组中expr第一次出现的基于0的索引,或 `-1` 或 `null`。如果 `druid.generic.useDefaultValueForNull=false` 如果数组中不存在匹配元素。 | | `MV_ORDINAL_OF(arr,expr)` | 返回数组中expr第一次出现的基于1的索引,或 `-1` 或 `null`。如果 `druid.generic.useDefaultValueForNull=false` 如果数组中不存在匹配元素。| | `MV_PREPEND(expr,arr)` | 在开头将expr添加到arr,结果数组类型由数组类型决定 | | `MV_APPEND(arr,expr)` | 将expr追加到arr,结果数组类型由第一个数组的类型决定 | | `MV_CONCAT(arr1,arr2)` | 连接2个数组,结果数组类型由第一个数组的类型决定 | | `MV_SLICE(arr,start,end)` | 将arr的子数组从基于0的索引start(inclusive)返回到end(exclusive),如果start小于0,大于arr的长度或小于end,则返回空 | | `MV_TO_STRING(arr,str)` | 用str指定的分隔符连接arr的所有元素 | | `STRING_TO_MV(str1,str2)` | 将str1拆分为str2指定的分隔符上的数组 | ### 查询转换 在运行之前,Druid SQL将SQL查询转换为 [原生查询](makeNativeQueries.md),理解这种转换是获得良好性能的关键。 #### 最佳实践 在研究如何将SQL查询转换为原生查询的性能影响时,请考虑以下(非详尽)要注意的事项列表。 1. 如果在主时间列 `__time` 上写了一个过滤器,需要确保可以正确的转换为原生的 `"interval"` 过滤器,如下边部分中描述的 [时间过滤器](#时间过滤器)。否则,您可能需要更改编写筛选器的方式。 2. 尽量避免连接后的子查询:它们会影响性能和可伸缩性。这包括由不匹配类型上的条件生成的隐式子查询,以及由使用表达式引用右侧的条件生成的隐式子查询。 3. 阅读 [查询执行页面](queryexecution.md),了解如何执行各种类型的原生查询。 4. 解释**执行计划**输出时要小心,如果有疑问,请使用请求日志记录。请求日志将显示运行的确切原生查询。有关更多详细信息,请参见 [下一节](#解释EXPLAIN-PLAN输出)。 5. 如果您遇到一个可以计划得更好的查询,可以在 [GitHub上提出一个问题](https://github.com/apache/druid/issues/new/choose)。一个可重复的测试用例总是值得赞赏的。 #### 解释EXPLAIN PLAN输出 [EXPLAIN PLAN功能](#EXPLAIN-PLAN)可以帮助您理解如何将给定的SQL查询转换为原生查询。对于不涉及子查询或联接的简单查询,EXPLAIN PLAN的输出易于解释。将运行的原生查询作为JSON嵌入到"DruidQueryRel"行中: ```json > EXPLAIN PLAN FOR SELECT COUNT(*) FROM wikipedia DruidQueryRel(query=[{"queryType":"timeseries","dataSource":"wikipedia","intervals":"-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z","granularity":"all","aggregations":[{"type":"count","name":"a0"}]}], signature=[{a0:LONG}]) ``` 对于涉及子查询或联接的更复杂查询,解释计划稍微更难解释。例如,考虑以下查询: ```json > EXPLAIN PLAN FOR > SELECT > channel, > COUNT(*) > FROM wikipedia > WHERE channel IN (SELECT page FROM wikipedia GROUP BY page ORDER BY COUNT(*) DESC LIMIT 10) > GROUP BY channel DruidJoinQueryRel(condition=[=($1, $3)], joinType=[inner], query=[{"queryType":"groupBy","dataSource":{"type":"table","name":"__join__"},"intervals":{"type":"intervals","intervals":["-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z"]},"granularity":"all","dimensions":["channel"],"aggregations":[{"type":"count","name":"a0"}]}], signature=[{d0:STRING, a0:LONG}]) DruidQueryRel(query=[{"queryType":"scan","dataSource":{"type":"table","name":"wikipedia"},"intervals":{"type":"intervals","intervals":["-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z"]},"resultFormat":"compactedList","columns":["__time","channel","page"],"granularity":"all"}], signature=[{__time:LONG, channel:STRING, page:STRING}]) DruidQueryRel(query=[{"queryType":"topN","dataSource":{"type":"table","name":"wikipedia"},"dimension":"page","metric":{"type":"numeric","metric":"a0"},"threshold":10,"intervals":{"type":"intervals","intervals":["-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z"]},"granularity":"all","aggregations":[{"type":"count","name":"a0"}]}], signature=[{d0:STRING}]) ``` 这里,有一个带有两个输入的连接。阅读这篇文章的方法是将EXPLAIN计划输出的每一行看作可能成为一个查询,或者可能只是一个简单的数据源。它们都拥有的`query` 字段称为"部分查询",并表示如果该行本身运行,将在该行所表示的数据源上运行的查询。在某些情况下,比如本例第二行中的"scan"查询,查询实际上并没有运行,最终被转换为一个简单的表数据源。有关如何工作的更多详细信息,请参见 [Join转换](#连接) 部分 我们可以使用Druid的 [请求日志功能](../Configuration/configuration.md#请求日志) 看到这一点。在启用日志记录并运行此查询之后,我们可以看到它实际上作为以下原生查询运行。 ```json { "queryType": "groupBy", "dataSource": { "type": "join", "left": "wikipedia", "right": { "type": "query", "query": { "queryType": "topN", "dataSource": "wikipedia", "dimension": {"type": "default", "dimension": "page", "outputName": "d0"}, "metric": {"type": "numeric", "metric": "a0"}, "threshold": 10, "intervals": "-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z", "granularity": "all", "aggregations": [ { "type": "count", "name": "a0"} ] } }, "rightPrefix": "j0.", "condition": "(\"page\" == \"j0.d0\")", "joinType": "INNER" }, "intervals": "-146136543-09-08T08:23:32.096Z/146140482-04-24T15:36:27.903Z", "granularity": "all", "dimensions": [ {"type": "default", "dimension": "channel", "outputName": "d0"} ], "aggregations": [ { "type": "count", "name": "a0"} ] } ``` #### 查询类型 Druid SQL使用四种不同的原生查询类型。 * [Scan](scan.md) 操作被用来做不进行聚合的查询(非GroupBy和DISTINCT) * [Timeseries](timeseriesquery.md) 操作被用来查询GROUP BY `FLOOR(__time TO )` 或者 `TIME_FLOOR(__time, period)`, 不再有其他分组表达式,也没有HAVING或者LIMIT子句,没有嵌套,要么是没有ORDER BY、要么是有与GROUP BY表达式相同的ORDER BY。它还将Timeseries用于具有聚合函数但没有分组依据的"总计"查询。这种查询类型利用了Druid段是按时间排序的这一事实。 * [TopN](topn.md) 默认情况下用于按单个表达式分组、具有ORDER BY和LIMIT子句、没有HAVING子句和不嵌套的查询。但是,在某些情况下,TopN查询类型将提供近似的排名和结果;如果要避免这种情况,请将"useApproximateTopN"设置为"false"。TopN结果总是在内存中计算的。有关详细信息,请参阅TopN文档。 * [GroupBy](groupby.md) 用于所有其他聚合,包括任何嵌套的聚合查询。Druid的GroupBy是一个传统的聚合引擎:它提供精确的结果和排名,并支持多种功能。GroupBy可以在内存中聚合,但如果没有足够的内存来完成查询,它可能会溢出到磁盘。如果您在GROUP BY子句中使用相同的表达式进行ORDER BY,或者根本没有ORDER BY,则结果将通过Broker从数据进程中流回。如果查询具有未出现在GROUP BY子句(如聚合函数)中的ORDER BY引用表达式,则Broker将在内存中具体化结果列表,最大值不超过LIMIT(如果有的话)。有关优化性能和内存使用的详细信息,请参阅GroupBy文档。 #### 时间过滤器 对于所有原生查询类型,只要有可能,`__time` 列上的过滤器将被转换为顶级查询的"interval",这允许Druid使用其全局时间索引来快速调整必须扫描的数据集。请考虑以下(非详尽)时间过滤器列表,这些时间过滤器将被识别并转换为 "intervals": * `__time >= TIMESTAMP '2000-01-01 00:00:00'` (与绝对时间相比) * `__time >= CURRENT_TIMESTAMP - INTERVAL '8' HOUR` (与相对时间相比) * `FLOOR(__time TO DAY) = TIMESTAMP '2000-01-01 00:00:00'` (指定的一天) 请参阅 [解释执行计划输出](#解释EXPLAIN-PLAN输出) 部分,以了解有关确认时间筛选器按预期翻译的详细信息。 #### 连接 SQL连接运算符转换为原生连接数据源,如下所示: 1. 原生层可以直接处理的连接将被逐字翻译为 [join数据源](datasource.md#join),其 `left`、`right` 和 `condition` 是原始SQL的直接翻译。这包括任何SQL连接,其中右边是 `lookup` 或 `子查询`,条件是等式,其中一边是基于左边表的表达式,另一边是对右边表的简单列引用,等式的两边是相同的数据类型。 2. 如果一个连接不能够被直接处理为原生的 [join数据源](datasource.md#join), Druid SQL将插入一个子查询使得其可运行。 例如: `foo INNER JOIN bar ON foo.abc = LOWER(bar.def)` 因为右边是一个表达式而非简单的列引用,所以不能够被直接转换,这时会插入一个子查询有效的转换为 `INNER JOIN (SELECT LOWER(def) AS def FROM bar) t ON foo.abc = t.def` 3. Druid SQL目前不重新排序连接以优化查询。 请参阅 [解释执行计划输出部分](#解释EXPLAIN-PLAN输出),以了解有关确认连接是否按预期转换的详细信息。 有关如何执行连接操作的信息,请参阅 [查询执行页](queryexecution.md)。 #### 子查询 SQL中的子查询一般被转换为原生的查询数据源。有关如何执行子查询操作的信息,请参阅 [查询执行页](queryexecution.md)。 > [!WARNING] > WHERE子句中的子查询,如:`WHERE col1 IN (SELECT foo FROM ...)`,被转化为内连接 #### 近似 Druid SQL在一些场景中使用近似算法: * 默认情况下,`COUNT(DISTINCT col)` 聚合函数使用 [HyperLogLog](http://algo.inria.fr/flajolet/Publications/FlFuGaMe07.pdf) 的变体,HyperLogLog是一种快速近似的DISTINCT计数算法。如果通过查询上下文或通过Broker配置将"useApproximateCountDistinct"设置为"false",Druid SQL将切换到精确计数 * 对于具有ORDER BY和LIMIT的单列GROUP BY查询,可以采用使用了近似算法的TopN引擎执行查询。如果通过查询上下文或通过Broker配置将"useApproximateTopN"设置为"false",Druid SQL将切换到精确的分组算法 * 标记为使用草图或近似(例如近似计数不同)的聚合函数不管配置如何,始终是近似的 #### 不支持的特性 Druid SQL并非支持所有的SQL特性。 以下特性不支持: * 原生数据源(table, lookup, subquery)与系统表的JOIN操作 * 左侧和右侧的表达式之间不相等的JOIN条件 * OVER子句,`LAG` 和 `LEAD` 等分析型函数 * OFFSET子句 * DDL和DML * 在 [元数据表](#元数据表) 上使用Druid特性的函数,比如 `TIME_PARSE` 和 `APPROX_QUANTILE_DS` 另外,一些Druid原生查询中的特性目前还不被SQL支持。 不支持的特性如下: * [UNION数据源](datasource.md#union) * [INLINE数据源](datasource.md#inline) * [空间过滤器](spatialfilter.md) * [查询取消](makeNativeQueries.md#查询取消) ### 客户端API #### HTTP POST 在Druid SQL查询中,可以通过HTTP方式发送POST请求到 `/druid/v2/sql` 来执行SQL查询。该请求应该是一个带有 "query" 字段的JSON对象,例如: `{"query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar'"}` **Request** | 属性 | 描述 | 默认值 | |-|-|-| | `query` | SQL | 必填,无 | | `resultFormat` | 查询结果的格式,详情查看下边的response部分 | object | | `header` | 是否包含一个请求头,详情查看下边的response部分 | false | | `context` | 包括 [连接上下文](#连接上下文) 参数JSON对象 | {}(空) | | `parameters` | 参数化查询的查询参数列表。列表中的每个参数都应该是一个JSON对象,比如 `{"type":"VARCHAR","value":"foo"}` 。`type` 应为SQL类型;有关支持的SQL类型的列表,请参见 [数据类型](#数据类型) | [](空) | 可以在命令行中使用 *curl* 来发送SQL查询: ```json $ cat query.json {"query":"SELECT COUNT(*) AS TheCount FROM data_source"} $ curl -XPOST -H'Content-Type: application/json' http://BROKER:8082/druid/v2/sql/ -d @query.json [{"TheCount":24433}] ``` 可以提供一个"context"的参数来添加 [连接上下文](#连接上下文) 变量,例如: ```json { "query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar' AND __time > TIMESTAMP '2000-01-01 00:00:00'", "context" : { "sqlTimeZone" : "America/Los_Angeles" } } ``` 参数化SQL查询也是支持的: ```json { "query" : "SELECT COUNT(*) FROM data_source WHERE foo = ? AND __time > ?", "parameters": [ { "type": "VARCHAR", "value": "bar"}, { "type": "TIMESTAMP", "value": "2000-01-01 00:00:00" } ] } ``` 通过对 [元数据表](#元数据表) 进行HTTP POST请求可以获得元数据 **Responses** Druid SQL的HTTP POST API支持一个可变的结果格式,可以通过"resultFormat"参数来指定,例如: ```json { "query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar' AND __time > TIMESTAMP '2000-01-01 00:00:00'", "resultFormat" : "object" } ``` 支持的结果格式为: | 格式 | 描述 | Content-Type | |-|-|-| | `object` | 默认值,JSON对象的JSON数组。每个对象的字段名都与SQL查询返回的列匹配,并且按与SQL查询相同的顺序提供。| application/json | | `array` | JSON数组的JSON数组。每个内部数组按顺序都有与SQL查询返回的列匹配的元素。 | application/json | | `objectLines` | 与"object"类似,但是JSON对象由换行符分隔,而不是包装在JSON数组中。如果您没有流式JSON解析器的现成访问权限,这可以使将整个响应集解析为流更加容易。为了能够检测到被截断的响应,此格式包含一个空行的尾部。 | text/plain | | `arrayLines` | 与"array"类似,但是JSON数组由换行符分隔,而不是包装在JSON数组中。如果您没有流式JSON解析器的现成访问权限,这可以使将整个响应集解析为流更加容易。为了能够检测到被截断的响应,此格式包含一个空行的尾部。 | text/plain | | `csv` | 逗号分隔的值,每行一行。单个字段值可以用双引号括起来进行转义。如果双引号出现在字段值中,则通过将它们替换为双引号(如`""this""`)来对其进行转义。为了能够检测到被截断的响应,此格式包含一个空行的尾部。 | text/csv | 您还可以通过在请求中将"header"设置为true来请求头,例如: ```json { "query" : "SELECT COUNT(*) FROM data_source WHERE foo = 'bar' AND __time > TIMESTAMP '2000-01-01 00:00:00'", "resultFormat" : "arrayLines", "header" : true } ``` 在这种情况下,返回的第一个结果将是头。对于 `csv`、`array` 和 `arrayline` 格式,标题将是列名列表。对于 `object` 和 `objectLines` 格式,头将是一个对象,其中键是列名,值为空。 在发送响应体之前发生的错误将以JSON格式报告,状态代码为HTTP 500,格式与 [原生Druid查询错误](makeNativeQueries.md#查询错误) 相同。如果在发送响应体时发生错误,此时更改HTTP状态代码或报告JSON错误已经太迟,因此响应将简单地结束流,并且处理您的请求的Druid服务器将记录一个错误。 作为调用者,正确处理响应截断非常重要。这对于"object"和"array"格式很容易,因为的截断响应将是无效的JSON。对于面向行的格式,您应该检查它们都包含的尾部:结果集末尾的一个空行。如果通过JSON解析错误或缺少尾随的换行符检测到截断的响应,则应假定响应由于错误而未完全传递。 #### JDBC 您可以使用 [Avatica JDBC Driver](https://calcite.apache.org/avatica/downloads/) 来进行Druid SQL查询。 下载Avatica客户端jar包后加到类路径下,使用如下连接串: `jdbc:avatica:remote:url=http://BROKER:8082/druid/v2/sql/avatica/` 示例代码为: ```java // Connect to /druid/v2/sql/avatica/ on your Broker. String url = "jdbc:avatica:remote:url=http://localhost:8082/druid/v2/sql/avatica/"; // Set any connection context parameters you need here (see "Connection context" below). // Or leave empty for default behavior. Properties connectionProperties = new Properties(); try (Connection connection = DriverManager.getConnection(url, connectionProperties)) { try ( final Statement statement = connection.createStatement(); final ResultSet resultSet = statement.executeQuery(query) ) { while (resultSet.next()) { // Do something } } } ``` 表的元数据信息在JDBC中也是可以查询的,通过 `connection.getMetaData()` 或者查询 [信息Schema](#信息Schema) **连接粘性** Druid的JDBC服务不在Broker之间共享连接状态。这意味着,如果您使用JDBC并且有多个Druid Broker,您应该连接到一个特定的Broker,或者使用启用了粘性会话的负载平衡器。Druid Router进程在平衡JDBC请求时提供连接粘性,即使使用普通的非粘性负载平衡器,也可以用来实现必要的粘性。请参阅 [Router文档](../Design/Router.md) 以了解更多详细信息 注意:非JDBC的 [HTTP POST](#http-post) 是无状态的,不需要粘性 #### 动态参数 在JDBC代码中也可以使用参数化查询,例如: ```java PreparedStatement statement = connection.prepareStatement("SELECT COUNT(*) AS cnt FROM druid.foo WHERE dim1 = ? OR dim1 = ?"); statement.setString(1, "abc"); statement.setString(2, "def"); final ResultSet resultSet = statement.executeQuery(); ``` #### 连接上下文 Druid SQL支持在客户端设置连接参数,下表中的参数会影响SQL执行。您提供的所有其他上下文参数都将附加到Druid查询,并可能影响它们的运行方式。关于可能选项的详情可以参见 [查询上下文](query-context.md) 请注意,要为SQL查询指定唯一标识符,请使用 `sqlQueryId` 而不是`queryId`。为SQL请求设置 `queryId` 没有任何效果,所有SQL底层的原生查询都将使用自动生成的queryId。 连接上下文可以指定为JDBC连接属性,也可以指定为JSON API中的 "context" 对象。 | 参数 | 描述 | 默认值 | |-|-|-| | `sqlQueryId` | 本次SQL查询的唯一标识符。对于HTTP客户端,它在 `X-Druid-SQL-Query-Id` 头中返回 | 自动生成 | | `sqlTimeZone` | 设置此连接的时区,这将影响时间函数和时间戳文本的行为。应该是时区名称,如"America/Los_Angeles"或偏移量,如"-08:00" | Broker配置中的 `druid.sql.planner.sqlTimeZone` , 默认为:UTC | | `useApproximateCountDistinct` | 是否对 `COUNT(DISTINCT foo)` 使用近似基数算法 | Broker配置中的 `druid.sql.planner.useApproximateCountDistinct`, 默认为:true | | `useApproximateTopN` | 当SQL查询可以这样表示时,是否使用近似[TopN查询](topn.md)。如果为false,则将使用精确的 [GroupBy查询](groupby.md)。 | Broker配置中的 `druid.sql.planner.useApproximateTopN`, 默认为:true | ### 元数据表 Druid Broker从集群中加载的段推断每个数据源的表和列元数据,并使用此来计划SQL查询。该元数据在Broker启动时缓存,并通过 [段元数据查询](segmentMetadata.md) 在后台定期更新。后台元数据刷新由进入和退出集群的段触发,也可以通过配置进行限制。 Druid通过特殊的系统表公开系统信息。有两种schema可用:Information Schema和Sys Schema。Information Schema提供有关表和列类型的详细信息, Sys Schema提供了有关Druid内部的信息,比如段/任务/服务器。 #### INFORMATION SCHEMA 您可以使用JDBC连接 `connection.getMetaData()` 访问表和列元数据,或通过下面描述的INFORMATION_SCHEMA表。例如,要检索Druid数据源"foo"的元数据,请使用查询: ``` SELECT * FROM INFORMATION_SCHEMA.COLUMNS WHERE TABLE_SCHEMA = 'druid' AND TABLE_NAME = 'foo' ``` > [!WARNING] > INFORMATION_SCHEMA表目前不支持Druid特定的函数,如:`TIME_PARSE` 和 `APPROX_QUANTILE_DS`, 只有标准的SQL函数是可用的。 **SCHEMATA表** | Column | Notes | |-|-| | CATALOG_NAME | Unused | | SCHEMA_NAME | | | SCHEMA_OWNER | Unused | | DEFAULT_CHARACTER_SET_CATALOG | Unused | | DEFAULT_CHARACTER_SET_SCHEMA | Unused | | DEFAULT_CHARACTER_SET_NAME | Unused | | SQL_PATH | Unused | **TABLES表** | Column | Notes | |-|-| | TABLE_CATALOG | Unused | | TABLE_SCHEMA | | | TABLE_NAME | | | TABLE_TYPE | "TABLE" or "SYSTEM_TABLE" | **COLUMNS表** | Column | Notes | |-|-| | TABLE_CATALOG | Unused | | TABLE_SCHEMA || | TABLE_NAME || | OLUMN_NAME || | ORDINAL_POSITION || | COLUMN_DEFAULT | Unused| | IS_NULLABLE || | DATA_TYPE || | CHARACTER_MAXIMUM_LENGTH | Unused | | CHARACTER_OCTET_LENGTH | Unused | | NUMERIC_PRECISION || | NUMERIC_PRECISION_RADIX || | NUMERIC_SCALE || | DATETIME_PRECISION || | CHARACTER_SET_NAME || | COLLATION_NAME || | JDBC_TYPE | Type code from java.sql.Types (Druid extension) | #### SYSTEM SCHEMA "sys"模式提供了对Druid段、服务器和任务的可见性。 > [!WARNING] > 注意: "sys"表当前不支持Druid特定的函数,例如 `TIME_PARSE` 和 `APPROX_QUANTILE_DS`。 仅仅标准SQL函数可以被使用。 **SEGMENTS表** segments表提供了所有Druid段的详细信息,无论该段是否被发布 | 字段 | 类型 | 注意 | |-|-|-| | `segment_id` | STRING | 唯一的段标识符 | | `datasource` | STRING | 数据源名称 | | `start` | STRING | Interval开始时间(ISO8601格式) | | `end` | STRING | Interval结束时间(ISO8601格式) | | `size` | LONG | 段大小,单位为字节 | | `version` | STRING | 版本字符串(通常是ISO8601时间戳,对应于段集首次启动的时间)。较高的版本意味着最近创建的段。版本比较基于字符串比较。 | | `partition_num` | LONG | 分区号(整数,在数据源+间隔+版本中是唯一的;不一定是连续的) | | `num_replicas` | LONG | 当前正在服务的此段的副本数 | | `num_rows` | LONG | 当前段中的行数,如果查询时Broker未知,则此值可以为空 | | `is_published` | LONG | 布尔值表示为long类型,其中1=true,0=false。1表示此段已发布到元数据存储且 `used=1`。详情查看 [架构页面](../Design/Design.md) | | `is_available` | LONG | 布尔值表示为long类型,其中1=true,0=false。1表示此段当前由任何进程(Historical或Realtime)提供服务。详情查看 [架构页面](../Design/Design.md) | | `is_realtime` | LONG | 布尔值表示为long类型,其中1=true,0=false。如果此段仅由实时任务提供服务,则为1;如果任何Historical进程正在为此段提供服务,则为0。 | | `is_overshadowed` | LONG | 布尔值表示为long类型,其中1=true,0=false。如果此段已发布,并且被其他已发布的段完全覆盖则为1。目前,对于未发布的段,`is_overshadowed` 总是false,尽管这在未来可能会改变。可以通过过滤 `is_published=1` 和 `is_overshadowed=0` 来筛选"应该发布"的段。如果段最近被替换,它们可以短暂地被发布,也可以被掩盖,但还没有被取消发布。详情查看 [架构页面](../Design/Design.md) | | `payload` | STRING | JSON序列化数据段负载 | 例如,要检索数据源"wikipedia"的所有段,请使用查询: ```sql SELECT * FROM sys.segments WHERE datasource = 'wikipedia' ``` 另一个检索每个数据源的段总大小、平均大小、平均行数和段数的示例: ```sql SELECT datasource, SUM("size") AS total_size, CASE WHEN SUM("size") = 0 THEN 0 ELSE SUM("size") / (COUNT(*) FILTER(WHERE "size" > 0)) END AS avg_size, CASE WHEN SUM(num_rows) = 0 THEN 0 ELSE SUM("num_rows") / (COUNT(*) FILTER(WHERE num_rows > 0)) END AS avg_num_rows, COUNT(*) AS num_segments FROM sys.segments GROUP BY 1 ORDER BY 2 DESC ``` 注意:请注意,一个段可以由多个流摄取任务或Historical进程提供服务,在这种情况下,它将有多个副本。当由多个摄取任务提供服务时,这些副本彼此之间的一致性很弱,直到某个片段最终由一个Historical段提供服务,此时该段是不可变的。Broker更喜欢从Historical中查询段,而不是从摄取任务中查询段。但如果一个段有多个实时副本,例如Kafka索引任务,同时一个任务比另一个慢,然后`sys.segments`结果在任务的持续时间内可能会有所不同,因为Broker只查询一个摄取任务,并且不能保证每次都选择相同的任务。段表的 `num_rows` 列在此期间可能有不一致的值。关于与流摄取任务的不一致性,有一个 [公开问题](https://github.com/apache/druid/issues/5915) 。 **SERVERS表** Servers表列出集群中发现的所有服务器 | 字段 | 类型 | 注意 | |-|-|-| | `server` | STRING | 服务名称,格式为host:port | | `host` | STRING | 服务的hostname | | `plaintext_port` | LONG | 服务器的不安全端口,如果禁用明文通信,则为-1 | | `tls_port` | LONG | 服务器的TLS端口,如果禁用了TLS,则为-1 | | `server_type` | STRING | Druid服务的类型,可能的值包括:COORDINATOR, OVERLORD, BROKER, ROUTER, HISTORICAL, MIDDLE_MANAGER 或者 PEON | | `tier` | STRING | 分布层,查看 [druid.server.tier](../Configuration/configuration.md#Historical)。仅对Historical有效,对于其他类型则为null | | `current_size` | LONG | 此服务器上以字节为单位的段的当前大小。仅对Historical有效,对于其他类型则为0 | | `max_size` | LONG | 此服务器建议分配给段的最大字节大小,请参阅 [druid.server.maxSize](../Configuration/configuration.md) 文件, 仅对Historical有效,对于其他类型则为0 | 要检索有关所有服务器的信息,请使用查询: ```sql SELECT * FROM sys.servers; ``` **SERVER_SEGMENTS表** SERVER_SEGMENTS表用来连接服务与段表 | 字段 | 类型 | 注意 | |-|-|-| | `server` | STRING | 格式为host:port的服务名称, [SERVER表](#SERVERS表) 的主键 | | `segment_id` | STRING | 段标识符,[SEGMENTS表](#SEGMENTS表) 的主键 | "SERVERS"和"SEGMENTS"之间的联接可用于查询特定数据源的段数,按SERVER分组,示例查询: ```sql SELECT count(segments.segment_id) as num_segments from sys.segments as segments INNER JOIN sys.server_segments as server_segments ON segments.segment_id = server_segments.segment_id INNER JOIN sys.servers as servers ON servers.server = server_segments.server WHERE segments.datasource = 'wikipedia' GROUP BY servers.server; ``` **TASKS表** "TASKS"表提供有关活跃的和最近完成的索引任务的信息。有关更多信息,请查看 [摄取任务的文档](../DataIngestion/taskrefer.md)。 | 字段 | 类型 | 注意 | |-|-|-| | `task_id` | STRING | 唯一的任务标识符 | | `group_id` | STRING | 本任务的任务组ID,值依赖于任务的 `type`, 例如,对于原生索引任务, 它与 `task_id` 相同,对于子任务,该值为父任务的ID | | `type` | STRING | 任务类型,例如该值为"index"表示为索引任务。 可以查看 [任务概述](../DataIngestion/taskrefer.md) | | `datasource` | STRING | 被索引的数据源名称 | | `created_time` | STRING | ISO8601格式的时间戳,与创建摄取任务的时间相对应。请注意,此值是为已完成和正在等待的任务填充的。对于正在运行和挂起的任务,此值设置为1970-01-01T00:00:00Z | | `queue_insertion_time` | STRING | ISO8601格式的时间戳,与此任务添加到Overlord上的队列时对应 | | `status` | STRING | 任务状态,可以是RUNNING、FAILED、SUCCESS| | `runner_status` | STRING | 对于已完成任务的运行状态为NONE,对于进行中的任务,值可以为RUNNING、WAITING、PENDING | | `duration` | LONG | 完成任务所用的时间(毫秒),此值仅对已完成的任务显示 | | `location` | STRING | 运行此任务的服务器名称,格式为主机:端口,此信息仅对正在运行的任务显示 | | `host` | STRING | 运行此任务的服务器名称 | | `plaintext_port` | LONG | 服务器的不安全端口,如果明文通信被禁用,则为-1 | | `tls_port` | LONG | 服务器的TLS端口,如果TLS被禁用,则为-1 | | `error_msg` | STRING | FAILED任务的详细错误信息 | 例如,要检索按状态筛选的任务信息,请使用查询 ```sql SELECT * FROM sys.tasks WHERE status='FAILED'; ``` **SUPERVISORS表** SUPERVISORS表提供supervisor的详细信息 | 字段 | 类型 | 注意 | |-|-|-| | `supervisor_id` | STRING | supervisor任务的标识符 | | `state` | STRING | supervisor的基本状态,可用状态有: `UNHEALTHY_SUPERVISOR`, `UNHEALTHY_TASKS`, `PENDING`, `RUNNING`, `SUSPENDED`, `STOPPING`。详情可以查看 [Kafka摄取文档](../DataIngestion/kafka.md) | | `detailed_state` | STRING | supervisor特定的状态。(详情查看特定的supervisor状态的文档)| | `healthy` | LONG | 布尔值表示为long类型,其中1=true,0=false。1表示supervisor健康 | | `type` | STRING | supervisor的类型,例如 `kafka`, `kinesis` 或者 `materialized_view` | | `source` | STRING | supervisor的源,例如 Kafka Topic或者Kinesis Stream | | `suspended` | LONG | 布尔值表示为long类型,其中1=true,0=false。1表示supervisor处于暂停状态 | | `spec` | STRING | JSON序列化的supervisor说明 | 例如:要检索按运行状况筛选的supervisor任务信息,请使用查询: ```sql SELECT * FROM sys.supervisors WHERE healthy=0; ``` ### 服务配置 Druid SQL计划发生在Broker上,由 [Broker runtime properties](../Configuration/configuration.md#broker) 配置。 ### 安全性 有关进行SQL查询需要哪些权限的信息,请参阅基本安全文档中的 [定义SQL权限](../Configuration/core-ext/druid-basic-security.md) 。