查看 hosts 文件是否配置了映射
注意:构建这个项目需要降低springboot版本为:
<parent>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-parent</artifactId>
<version>2.2.0.RELEASE</version>
<relativePath/> <!-- lookup parent from repository -->
</parent>
然后清理IDEA缓存,重启IDEA!
这个问题后来解决了嘛!
我的也是
使用这个案例模板文件重新命名
logstash-sample.conf个人理解确实应该是 `>=`. 前文配置时也是 `>=`
改成ansi格式,不要有中文备注
DROP TABLE IF EXISTS `t_blog`;
CREATE TABLE `t_blog` (
`id` int(11) NOT NULL AUTO_INCREMENT COMMENT '自增id',
`title` varchar(60) DEFAULT NULL COMMENT '博客标题',
`author` varchar(60) DEFAULT NULL COMMENT '博客作者',
`content` mediumtext COMMENT '博客内容',
`create_time` datetime DEFAULT NULL COMMENT '创建时间',
`update_time` datetime DEFAULT NULL COMMENT '更新时间',
PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=8 DEFAULT CHARSET=utf8mb4;
-- ----------------------------
-- Records of t_blog
-- ----------------------------
INSERT INTO `t_blog` VALUES ('1', 'Springboot 为什么这', 'bywind', '没错 Springboot ', '2019-12-08 01:44:29', '2019-12-08 01:44:34');
INSERT INTO `t_blog` VALUES ('3', 'Springboot 中 Redis', 'bywind', 'Spring Boot', '2019-12-08 01:44:29', '2019-12-08 01:44:29');
INSERT INTO `t_blog` VALUES ('4', 'Springboot 中如何优化', 'bywind', '优化大数据', '2019-12-08 01:44:29', '2019-12-08 01:44:29');
INSERT INTO `t_blog` VALUES ('5', 'Springboot 消息队列', 'bywind', '消息队列', '2019-12-08 01:44:29', '2019-12-08 01:44:29');
INSERT INTO `t_blog` VALUES ('6', 'Docker Compose + Springboot', 'bywind', 'docker容器', '2019-12-08 01:44:29', '2019-12-08 01:44:29');
INSERT INTO `t_blog` VALUES ('7', 'Springboot整合ElasticSearch', 'fengzf', 'Springboot + ElasticSearch 构建博客检索系统', '2022-01-20 10:37:07', '2022-01-20 10:37:10');
应该是老师为了突出es的强大, 刻意把性能压低的...我这边like语句就1ms
那是转回数据的时候出错了,不能用null,
这个步骤说得很细,真棒
假设第一次扫描结束时,时间节点为t1,而且这个时间节点有两条数据A和B,其中B没扫到,如果后面还是按大于t1扫描,就会漏掉B。
如果我们的策略是第一次扫描直接放弃t1时间节点的数据,即update_time<now()。这样下次扫描就可以扫到了,因为sql_last_value是小于t1的,update_time>:sql_last_value就包含了A和B。
简而言之,往前看一个步骤就可以理解了。
input {
jdbc {
jdbc_driver_library => "D:\\data_of_programming\\L2R\\ElasticSearch\\logstash-6.3.2\\mysql-connector-java-5.1.44.jar"
jdbc_driver_class => "com.mysql.jdbc.Driver"
jdbc_connection_string => "jdbc:mysql://localhost:3306/blog?serverTimezone=UTC&characterEncoding=utf8"
jdbc_user => "root"
jdbc_password => "root"
# 定时任务,默认一分钟,"* * * * *"代表设置为无延迟
schedule => "* * * * *"
# 清空上一次sql_last_value记录
clean_run => true
statement => "SELECT * FROM t_blog"
}
}
output {
elasticsearch {
hosts => ["127.0.0.1:9200"]
index => "blog"
document_id => "%{id}"
}
}
您好!你解决了没有,我现在也遇到相同的问题:这段代码:
Page<EsBlog> search = (Page<EsBlog>) esBlogRepository.search(builder); List<EsBlog> content = search.getContent();
也是报错: