部门要搭建一套druid环境,买的是阿里云的服务
overload使用一台机器,middleManager使用两台机器
其他的查询组件也都部署在这三台机器上
因为这几个节点设计indexService,也就是灌库任务,我们主要关心灌库
下面是灌库过程中遇到的一堆坑
druid灌库会启动hadoop的mr任务,会读s3上数据,会将生成的segment写到deep storage上。
涉及最本质的三个问题:
1.数据从哪来
2.数据在哪计算
3.数据写哪去
阿里提供的druid集群,本身有一套自带的hadoop做mr计算,有自带的hdfs做deep storage
我们这次druid灌库一直都使用这个自带的hadoop和hdfs
1.准备好了灌库脚本和灌库数据,启动灌库命令后立刻报错
这个问题在另一篇文章中详细讨论
2.灌库任务无法连接s3
虽然在家目录的.aws配置了访问s3桶的秘钥,但是druid灌库json中也有这个秘钥配置,改成新的秘钥之后,问题解决
3.索引创建任务失败