druid-docs-cn/Tutorials/chapter-1.md

8.8 KiB
Raw Blame History

加载本地文件

本教程演示了如何使用Apache Druid的本地批量数据摄取来执行批文件加载。

在本教程中,我们假设您已经按照快速入门中的规范下载了Druid并使用micro-quickstart单机配置使其在本地计算机上运行。您不需要加载任何数据。

Druid的数据加载是通过向Overlord服务提交摄取任务规范来启动。对于本教程我们将加载Wikipedia页面示例编辑数据。

数据摄取任务规范可以手动编写也可以通过Druid控制台里内置的数据加载器编写。数据加载器可以通过采样摄入的数据并配置各种摄入参数来帮助您生成摄取任务规范。数据加载器当前仅支持本地批处理提取将来的版本中将提供对流的支持包括存储在Apache Kafka和AWS Kinesis中的数据。目前只能通过手动书写摄入规范来进行流式摄入。

我们提供了2015年9月12日起对Wikipedia进行编辑的示例以帮助您入门。

使用Data Loader来加载数据

浏览器访问 localhost:8888 然后点击控制台中的 Load data

选择 Local disk 然后点击 Connect data

Base directory 中输入 quickstart/tutorial/, 在 File filter 中输入 wikiticker-2015-09-12-sampled.json.gzBase directoryFile filter 分开是因为可能需要同时从多个文件中摄取数据。

点击 Preview,确保您看到的数据是正确的。

数据定位后,您可以点击"Next: Parse data"来进入下一步。

数据加载器将尝试自动为数据确定正确的解析器。在这种情况下,它将成功确定json。可以随意使用不同的解析器选项来预览Druid如何解析您的数据。

json 选择器被选中后,点击 NextParse time 进入下一步来决定您的主时间列。

Druid的体系结构需要一个主时间列内部存储为名为__time的列。如果您的数据中没有时间戳请选择 固定值Constant Value 。在我们的示例中,数据加载器将确定原始数据中的时间列是唯一可用作主时间列的候选者。

点击"Next:..."两次完成 TransformFilter 步骤。您无需在这些步骤中输入任何内容,因为使用摄取时间变换和过滤器不在本教程范围内。

Configure schema 步骤中您可以配置将哪些维度和指标摄入到Druid中这些正是数据在被Druid中摄取后出现的样子。 由于我们的数据集非常小关掉rollup、确认更改。

一旦对schema满意后点击 Next 后进入 Partition 步骤,该步骤中可以调整数据如何划分为段文件的方式。

在这里您可以调整如何在Druid中将数据拆分为多个段。 由于这是一个很小的数据集,因此在此步骤中无需进行任何调整。

点击完成 Tune 步骤,进入到 Publish 步。

Publish 步骤中我们可以指定Druid中的数据源名称,让我们将此数据源命名为 Wikipedia。最后,单击 Next 来查看您的摄取规范。

这就是您构建的规范,为了查看更改将如何更新规范是可以随意返回之前的步骤中进行更改,同样,您也可以直接编辑规范,并在前面的步骤中看到它。

对摄取规范感到满意后,请单击 Submit,然后将创建一个数据摄取任务。

您可以进入任务视图,重点关注新创建的任务。任务视图设置为自动刷新,请等待任务成功。

当一项任务成功完成时意味着它建立了一个或多个段这些段现在将由Data服务器接收。

从标题导航到 Datasources 视图。

等待直到您的数据源Wikipedia出现,加载段时可能需要几秒钟。

一旦看到绿色(完全可用)圆圈,就可以查询数据源。此时,您可以转到 Query 视图以对数据源运行SQL查询。

运行 SELECT * FROM wikipedia 查询可以看到详细的结果。

查看查询教程以对新加载的数据运行一些示例查询。

使用spec加载数据通过控制台

Druid的安装包中在 quickstart/tutorial/wikipedia-index.json 文件中包含了一个本地批摄入任务规范的示例。 为了方便我们在这里展示出来,该规范已经配置好读取 quickstart/tutorial/wikiticker-2015-09-12-sampled.json.gz 输入文件。

{
  "type" : "index_parallel",
  "spec" : {
    "dataSchema" : {
      "dataSource" : "wikipedia",
      "dimensionsSpec" : {
        "dimensions" : [
          "channel",
          "cityName",
          "comment",
          "countryIsoCode",
          "countryName",
          "isAnonymous",
          "isMinor",
          "isNew",
          "isRobot",
          "isUnpatrolled",
          "metroCode",
          "namespace",
          "page",
          "regionIsoCode",
          "regionName",
          "user",
          { "name": "added", "type": "long" },
          { "name": "deleted", "type": "long" },
          { "name": "delta", "type": "long" }
        ]
      },
      "timestampSpec": {
        "column": "time",
        "format": "iso"
      },
      "metricsSpec" : [],
      "granularitySpec" : {
        "type" : "uniform",
        "segmentGranularity" : "day",
        "queryGranularity" : "none",
        "intervals" : ["2015-09-12/2015-09-13"],
        "rollup" : false
      }
    },
    "ioConfig" : {
      "type" : "index_parallel",
      "inputSource" : {
        "type" : "local",
        "baseDir" : "quickstart/tutorial/",
        "filter" : "wikiticker-2015-09-12-sampled.json.gz"
      },
      "inputFormat" :  {
        "type": "json"
      },
      "appendToExisting" : false
    },
    "tuningConfig" : {
      "type" : "index_parallel",
      "maxRowsPerSegment" : 5000000,
      "maxRowsInMemory" : 25000
    }
  }
}

这份规范将创建一个命名为"wikipedia"的数据源。

在"Tasks"页面,点击 Submit task 后选择 Raw JSON task,

然后会在页面中弹出任务规范输入框,您可以在上面粘贴规范

提交任务规范后,您可以按照上述相同的规范等待数据加载然后查询。

使用spec加载数据通过命令行

为了方便在Druid的软件包中提供了一个批摄取的帮助脚本 bin/post-index-task

该脚本会将数据摄取任务发布到Druid Overlord并轮询Druid直到可以查询数据为止。

在Druid根目录运行以下命令

bin/post-index-task --file quickstart/tutorial/wikipedia-index.json --url http://localhost:8081

可以看到以下的输出:

Beginning indexing data for wikipedia
Task started: index_wikipedia_2018-07-27T06:37:44.323Z
Task log:     http://localhost:8081/druid/indexer/v1/task/index_wikipedia_2018-07-27T06:37:44.323Z/log
Task status:  http://localhost:8081/druid/indexer/v1/task/index_wikipedia_2018-07-27T06:37:44.323Z/status
Task index_wikipedia_2018-07-27T06:37:44.323Z still running...
Task index_wikipedia_2018-07-27T06:37:44.323Z still running...
Task finished with status: SUCCESS
Completed indexing data for wikipedia. Now loading indexed data onto the cluster...
wikipedia loading complete! You may now query your data

提交任务规范后,您可以按照上述相同的规范等待数据加载然后查询。

不使用脚本来加载数据

我们简短地讨论一下如何在不使用脚本的情况下提交数据摄取任务,您将不需要运行这些命令。

要提交任务可以在一个新的终端中通过以下方式提交任务到Druid

curl -X 'POST' -H 'Content-Type:application/json' -d @quickstart/tutorial/wikipedia-index.json http://localhost:8081/druid/indexer/v1/task

当任务提交成功后会打印出来任务的ID

{"task":"index_wikipedia_2018-06-09T21:30:32.802Z"}

您可以如上所述从控制台监视此任务的状态

查询已加载数据

加载数据后,请按照查询教程的操作,对新加载的数据执行一些示例查询。

数据清理

如果您希望阅读其他任何入门教程则需要关闭集群并通过删除druid软件包下的var目录的内容来重置集群状态,因为其他教程将写入相同的"wikipedia"数据源。

更多信息

更多关于加载批数据的信息可以查看原生批摄取文档