我正在尝试使用 Firehose 将数据从 PostgreSQL 提取到 Druid。
我已经添加了druid.extensions.loadList=["postgresql-metadata-storage"]conf 文件,但是任务失败了
java.lang.ClassCastException: java.util.LinkedHashMap 无法转换为 java.nio.ByteBuffer
摄取规范文件
{
"type": "index",
"spec": {
"dataSchema": {
"dataSource": "dataset_1007",
"parser": {
"type": "string",
"parseSpec": {
"format": "tsv",
"columns": [
"id",
"name",
"datetimecol"
],
"timestampSpec": {
"column": "datetimecol",
"format": "auto"
},
"dimensionsSpec": {
"dimensions": [
"id",
"name",
"datetimecol"
]
}
}
},
"granularitySpec": {
"type": "uniform",
"segmentGranularity": "DAY",
"queryGranularity": "NONE",
"rollup": false
}
},
"ioConfig": {
"type": "index",
"firehose": {
"type": "sql",
"database": {
"type": "postgresql",
"connectorConfig": {
"connectURI": "jdbc:postgresql://ISVDRDBILXP1/testdb",
"user": "druid",
"password": "druid"
}
},
"sqls": [
"SELECT id,name,datetimecol FROM public.testtable"
]
},
"appendToExisting": false
},
"tuningConfig": {
"forceExtendableShardSpecs": true,
"type": "index"
}
}
}
很难排除是哪个表列造成了这个问题,我已将所有列类型更改为 varchar()。请指出我是否在任何地方出错。
泛舟湖上清波郎朗
相关分类