qq_慕函数6335445
把请求体删掉
qq_慕函数6335445
报错信息贴下。可能是请求body有误或无对应索引。
慕丝Jack
批量插入数据
PUT http://localhost:9200/book/novel/_bulk
{ "index":{"_id": "5"} }
{ "author": "王五", "title": "菜谱", "word_count": 5000, "publish_date": "2002-10-01"}
{ "index":{"_id": "8"} }
{ "author": "瓦力", "title": "ElasticSearch入门", "word_count": 3000, "publish_date": "2017-08-20"}
{ "index":{"_id": "9"} }
{ "author": "很胖的瓦力", "title": "ElasticSearch精通", "word_count": 3000, "publish_date": "2017-08-15"}
{ "index":{"_id": "10"} }
{ "author": "牛魔王", "title": "芭蕉扇", "word_count": 1000, "publish_date": "2000-10-01"}
{ "index":{"_id": "2"} }
{ "author": "李三", "title": "Java入门", "word_count": 2000, "publish_date": "2010-10-01"}
{ "index":{"_id": "4"} }
{ "author": "李四", "title": "ElasticSearch大法好", "word_count": 1000, "publish_date": "2017-08-01"}
{ "index":{"_id": "6"} }
{ "author": "赵六", "title": "剑谱", "word_count": 10000, "publish_date": "1997-01-01"}
{ "index":{"_id": "1"} }
{ "author": "张三", "title": "移魂大法", "word_count": 1000, "publish_date": "2000-10-01"}
{ "index":{"_id": "7"} }
{ "author": "张三丰", "title": "太极拳", "word_count": 1000, "publish_date": "1997-01-01"}
{ "index":{"_id": "3"} }
{ "author": "张四", "title": "Python入门", "word_count": 2000, "publish_date": "2005-10-01"}
{ "index":{"_id": "11"} }
{ "author": "孙悟空", "title": "七十二变", "word_count": 1000, "publish_date": "2000-10-01"}
{ "index":{"_id": "11"} }
{ "author": "瓦力", "title": "瓦力教我们学ElasticSearch", "word_count": 1000, "publish_date": "2017-08-01 00:00:00"}
幕布斯6497522
同样求助
慕后端6576068
分片不影响查询的,也就是集群和单机的查询语法是一样的,查询结果不受影响
金色年华ch
慕桂英5157884
梦幻逍遥IT
好好学习多多思考
梦幻逍遥IT
最简单直观的方法 就是在往数据库添加数据时也往ES里填一份 相应的删除、改动时也同步进行 查询时就查ES就好了
梦幻逍遥IT
term是代表完全匹配,也就是精确查询,搜索前不会再对搜索词进行分词
sunnyday1993
Mac自带QuickTime Player
慕粉3480043
慕码人1464173
兄嘚 这种情况要看具体问题了 问问题 报了什么错 要贴出来啊 老师演示没问题 基本就是你的问题了
qq_慕前端011593
qq_原点_25
应该是分词问题
qq_原点_25
是不是可以用match_phrase_prefix查啊
西瓜滚雪
最后一行需要回车换行
snow_leopard
我也刚学,有问题这里问吧!让更多的人来回答
慕粉1442009425
用get就好了。。。
qq_以夢為馬_1
因为match是模糊匹配查询,查询的时候不是整词匹配的 而是匹配“三”“国”“演”“义”这四个字分开匹配,之前几本书都叫三国演义,相当于全匹配了,演员的自我修养刚好有演字,所以也匹配上了,如果有图书名带三国演义中的任意一个或几个字也是都可以匹配出来的,看下一节老师讲的内容 就能明白了
weibo_旮旯爿片_0
用来设置存储的信息,比如淘宝的商品,数据库中有很多字段,商品名,价格,归属地,图片,归属商家,详情图片,套餐详情等等,但是查询的时候不需要那么多,一般只需要显示一个图片,名称,价格,商家,销量 mapping就是用来设置需要显示的这些字段
我也刚看这个,如果是solr的话会对每个字段有自己的设置,是否分词,是否索引,是否存储
我真的知道
from 表示的是分页 0表示第一页,一次类推,size是页码,表示每页查询多少条数据