MongoDB(六)—-MongoDB索引的额外属性

MongoDB(六)—-MongoDB索引的额外属性

1.唯一索引

唯一索引会保证索引对应的键不会出现相同的值,比如_id索引就是唯一索引
创建索引时也需要保证属性中内容是不重复的
语法格式:

db.COLLECTION_NAME.createIndex({
   索引键名:排序规则},{
   unique:true})
db.user.createIndex({
   name:1},{
   background:true,unique:true})

2.部分索引–就是带有过滤条件的索引

部分索引是只针对符合某个特定条件的文档建立索引,3.2版本才支持该特性。
语法格式:

db.COLLECTION_NAME.createIndex({
   索引键名:排序规则},{
   partialFilterExpression:{
   键名:{
   匹配条件:条件值}}})

给年龄字段添加索引,过滤条件是年龄大于50

db.user.createIndex({
   age:1},{
   partialFilterExpression:{
   age:{
   $gt:50}}})

查看执行计划,是否用到索引

当年龄是24时,没有用到索引
db.user.find({
   age:{
   $eq:24}}).explain()
   "winningPlan": {
   
            "stage": "COLLSCAN",
            "filter": {
   
                "age": {
   
                    "$eq": 24
                }
            },
            "direction": "forward"
        },
 当年龄是54时,用到了索引
  "inputStage": {
   
                "stage": "IXSCAN",
                "keyPattern": {
   
                    "age": 1
                },
                "indexName": "age_1",
                "isMultiKey": false,
                "multiKeyPaths": {
   
                    "age": [ ]
                },

3.稀疏索引

稀疏索引仅包含具有索引字段的文档的条目,即使索引字段包含空值也是如此。索引会跳过缺少索引字段的任何文档。索引是“稀疏的”,因为它不包含集合的所有文档。相反,非稀疏索引包含集合中的所有文档,为那些不包含索引字段的文档存储空值。
语法格式:

db.COLLECTION_NAME.createIndex({
   索引键名:排序规则},{
   sparse:true})

注意:从MongoDB 3.2开始,MongoDB提供了创建部分索引的选项 。部分索引提供了稀疏索引功能的超集。如果您使用的是MongoDB 3.2或更高版本,则部分索引应优先于稀疏索引。

4.覆盖索引查询

官方的MongoDB的文档中说明,覆盖查询是以下的查询:
1.所有的查询字段是索引的一部分

2.所有的查询返回字段在同一个索引中
由于所有出现在查询中的字段是索引的一部分, MongoDB 无需在整个数据文档中检索匹配查询条件和返回使用相同索引 的查询结果。
因为索引存在于RAM中,从索引中获取数据比通过扫描文档读取数据要快得多。
如有如下索引:
db.stu.createIndex({title:1,:size:1})
那么执行如下查询时,该索引会覆盖查询:
db.stu.find({title:“dev”},{size:1,_id:0})
也就是说,对于上述查询,MongoDB的不会去数据库文件中查找。相反,它会从索引中提取数据,这是非常快速的数据查询。

5.查询计划

在MongoDB中通过explain()函数启动执行计划,我们可以使用查询计划分析索引的使用情况,可通过查看详细的查询计划来决定如何优化。
语法结构:db.COLLECTION_NAME.find().explain()

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/2319.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

  • iOS自动化之WDA(WebDriverAgent)安装

    iOS自动化之WDA(WebDriverAgent)安装1、WDA介绍WebDriverAgent在iOS端实现了一个WebDriverserver,借助这个server我们可以远程控制iOS设备。你可以启动、杀死应用,点击、滚动视图

  • 用js来实现那些数据结构09(集合01-集合的实现)

    说到集合,第一个想到的就是中学学到的那个数学概念:集合。在我们开始集合相关的js实现前,我们有必要来了解一下什么是集合以及集合的数学概念。好吧,我们一起来复习一下早就被我们遗忘的集合。集合是由一组

  • ES6 函数的扩展

    ES6 函数的扩展

  • Linux如何下载安装软件超详细解析

    网上很多Linux下载软件的方法,看了很多帖子感觉Linux下载软件的方式有很多,每个人都有自己的习惯,对于一个新手来说及其不友好,有时候会看的很蒙。在这里做出总结。

  • [RK3399/RK3328][Android10.0]Ethernet:以太网设置静态ip,重启后无法获取IP的问题「建议收藏」

    [RK3399/RK3328][Android10.0]Ethernet:以太网设置静态ip,重启后无法获取IP的问题「建议收藏」测试平台Platform:RK3399/RK3328OS:Android10.0现象设置中设置以太网为静态ip,设置后使用ifconfig查看ip显示正常。然后重启,极大概率出现开机后设备没有获取到ip.分析解决测试后发现了几点规律:设置静态ip会开机获取不到ip,但是设置动态ip无问题没有获取到ip时,使用ifconfig查看,发现网卡设备连接正常。此时拔插网线,或者使用ifconfigeth0down+ifconfigeth0up来开关一次设备后,就能正常获取到ip

  • 网络爬虫——scrapy入门案例

    网络爬虫——scrapy入门案例一、概述Scrapy,Python开发的一个快速、高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试.其最初是为了页面抓取(更确切来说,网络抓取)所设计的,后台也应用在获取API所返回的数据(例如AmazonAssociatesWebServices)或者通用的网络爬虫.Scrapy吸引人的地方在于它是一个框架,任何人都可以根据需求方便的修改。它也提供了多种类型爬虫的基类,如BaseSpider

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号