一 什么是NoSQL?
Nosql=Not Just SQL(不只是SQL)
关系型数据库:列+行,同一张表的数据结构是一样的。
非关系型数据库:数据存储没有固定格式,可以横向扩展。
NoSQL一般指非关系型数据库。随着Web2.0互联网的诞生,传统关系数据库已经难以应对Web2.0大数据时代。特别是大型且高并发的社区暴露出许多难以克服的挑战。 NoSQL 在当今的大数据环境中正在快速发展,而Redis 是增长最快的。
传统RDBMS 和NoSQL
RDBMS – 组织结构- 固定SQL – 数据和关系存在于单独的表(行和列)中- DML(数据操作语言)、DDL(数据定义语言)等- 严格一致性(ACID) : 一致性、隔离性;持久性- 基本事务型NoSQL – 不仅仅是数据- 没有固定的查询语言- 键值存储(redis)、列式存储(HBase)、文档存储(MongoDB)、图数据库(图(Neo4j)) – 最终一致性(BASE):基本上可用,软状态/灵活事务,最终一致
二 redis是什么?
Redis=Remote Dictionary Server,即远程词典服务。
它是一个采用ANSI C语言编写的开源日志型键值数据库,具有网络支持、基于内存的持久性,并提供多种语言的API。
与memcached类似,数据缓存在内存中以保证效率。不同的是,redis会定期将更新的数据写入磁盘或者将更改操作写入额外的记录文件,并基于此实现主从(master-slave)同步。
三 redis五大基本类型
Redis 是一个开源内存数据结构服务器,可用作数据库、缓存和消息队列代理。支持字符串、哈希表、列表、集合、有序集、位图、hyperlog 日志和其他数据类型。它包括内置复制、Lua 脚本、LRU 恢复、事务、各种级别的磁盘持久性,并通过Redis Sentinel 提供高可用性,并通过Redis Cluster 提供自动分区。
Redis的类型我们都很熟悉,网上命令的使用介绍也很多,为了帮助大家在开发过程中更好的使用Redis,下面我们重点介绍一下五种基本类型的底层数据结构和应用。
1 String(字符串)
1、String类型是redis中最基本的数据结构,也是最常用的类型。 并且由于其他四种类型或多或少都是建立在字符串类型之上的,因此字符串类型是Redis的基础。 2.字符串类型值最大可存储512MB。这里的String类型可以是简单的字符串,复杂的xml/json字符串,二进制图像或音频字符串,以及数字字符串。
应用场景
1.缓存功能:字符串为: Redis是各种语言中最常用的数据类型,不仅仅是Redis,因此可以使用Redis作为缓存,与其他数据库一起作为存储层,并且使用Redis支持高并发,使用它会显着提高速度。提高系统读写速度,减轻后端数据库的负载。
2、计数器:很多系统都使用Redis作为系统的实时计数器,可以让你快速实现计数和查询功能。并且,最终的数据结果可以在特定的时间保存到数据库或其他存储介质中进行永久存储。
3. 清点多个单位的数量。示例:uid:公明计数:0。根据不同的uid更新计数数量。
4. 用户会话共享:用户可能需要刷新界面、重新登录才能访问其数据,或者访问页面来缓存cookie。 1)每次都重新登录,效率不高。 ) Cookie 存在安全风险,因为它们存储在客户端上。目前,您可以使用redis来集中管理用户会话。在这种模式下,只需要保证redis的高可用性,每个用户会话的更新和检索就可以快速完成。效率大大提高。
2 List(列表)
列表类型用于存储多个有序字符串。列表中的每个字符都被视为元素2。列表支持存储2^32 Power -1 元素。 3.Redis可以从列表的两端插入(pubsh)和弹出(pop)元素,并执行读取指定范围内的一组元素,或者读取指定下标的元素等操作。 Redis列表是一种相对灵活的链表数据结构,充当队列或堆栈。 4. Redis列表是链表数据结构,因此其元素是有序的,并且列表中的元素可以重复。 这意味着可以根据链表的下标检索指定元素以及一定范围内的元素集合。
应用场景
1.消息队列:线索的链表结构可以很容易地实现阻塞队列。您可以使用左进和右出命令完成队列设计。例如,一个数据生产者可以使用Lpush命令从左侧插入数据,多个数据消费者可以使用BRpop命令“获取”列表末尾的数据。
2、文章列表和数据分页展示的应用。例如,我们经常使用的博客网站上的文章列表,随着用户数量的增加,需要逐页显示,每个用户都有自己的文章列表。考虑使用Redis 列表。它不仅是有序的,还支持根据范围检索元素,使其成为分页查询功能的完美解决方案。查询效率大大提高。
3 Set(集合)
1.Redis集合类型与List列表类型类似,可以用来存储多个字符串元素的集合。 2. 然而,与列表不同的是,集合集合不允许有重复的元素。此外,set集合中的元素是无序的,并且没有元素下标。 3、Redis中的集合类型是使用哈希表构建的,因此复杂度为O(1),支持集合内的增删改查,以及多个集合之间的交集和连接,并支持差分操作。这些采集操作可以用来解决程序开发过程中数据采集过程中的很多问题。应用场景
1、标签:比如兴趣标签,常用于博客网站,利用标签来整合有相同爱好、关注相似内容的用户。
2. 扩展用途,例如共同好友特征、共同爱好或二级好友。
3.统计您网站的独立IP。您可以利用集合集合中元素的非唯一性,快速统计实时访问您网站的独立IP。
数据结构
set的底层结构写起来相对复杂。使用两种数据结构来存储整数集和哈希表。
4 sorted set(有序集合)
Redis有序集也是集合类型的一部分,因此它们仍然保留了集合中元素不能重复的特性,但不同的是有序集每个元素都有一个额外的分数。
Redis 有序集合也是集合类型的一部分,因此它们保留了集合中元素不能重复的特性,但不同的是有序集合在每个元素上设置了一个额外的分数,而这个分数是用来作为排序的依据。
应用场景
1. 排名列表:经典使用场景的有序集合。例如,视频网站需要对其用户上传的视频进行排名。排名按照时间、浏览量、点赞数等多种方式进行维护。
2. 使用排序集创建一个队列,例如,正常消息的得分为1,重要消息的得分为2。然后,工作线程可以选择按照分数的相反顺序执行工作任务。优先考虑重要任务。
5 hash(哈希)
Redis中的哈希数据结构是一组键值对,是字符串类型的字段和值的映射表。因此,哈希数据结构相当于另一层中的值。包含键和值数据。因此,redis哈希数据结构特别适合存储关系对象。
应用场景
1. 哈希数据类型的键值特性使其最常用于存储关系数据库中的表记录。 Redis 哈希类型使用的场景。以记录作为键值,将字段值对应的每一列的属性值存储在哈希表中,并通过键值区分表中的主键。
2.常用于存储用户相关信息。优化用户信息的检索可以消除重复读取数据库的需要,从而提高系统性能。
四 五大基本类型底层数据存储结构
在学习基本类型底层数据存储结构之前,我们先看一下Redis的整体存储结构。
redis的整体内部存储结构是一个大的hashmap,它是通过数组实现的hash。每个dictEntry都是一个键/值对象,值是一个定义的redisObject。
结构图如下。
dictEntry是存储键和值的地方。让我们看一下dictEntry 结构。
/* * Dictionary*/typedef struct dictEntry { //key void *key; //void *val 指向特定的redisObject; //指向下一个redisObject 的哈希表节点形成链表。 struct dictEntry *next;} dictEntry;
1 redisObject
接下来我们看一下redisObject的结构。
/* * Redis 对象*/typedef struct redisObject { //类型4 位unsigned type:4; //编码4 位unsigned encoding:4; //LRU 时间(相对于server.lru 时钟) 24 位unsigned lru:22; Redis 数据通过引用计数来共享32 位int refcount; //指向对象的64 位值void *ptr;} robj; 表示对象的类型。虽然List、Hash、Set都是Zset,但每个对象可能有多个底层数据结构实现,以提高存储效率和程序执行效率。 Encoding 表示对象底部使用的编码。
Redis 对象底层的八种数据结构
REDIS_ENCODING_INT(长整数) REDIS_ENCODING_EMBSTR embstr(编码的简单动态字符串) REDIS_ENCODING_RAW(简单动态字符串) REDIS_ENCODING_HT(字典) REDIS_ENCODING_LINKEDLIST(双链表) REDIS_ENCODING_ZIPLIST(压缩列表) REDIS_ENCODING_INTSET(集成数字集) _SKIPLIST(跳过列表和字典)现在,可以通过redisObject专门指定redis数据类型。让我们总结一下每种数据类型使用的数据结构,如下图所示。
我们已经准备好了准备知识,下面按基本类型来划分。
2 String数据结构
字符串类型转换序列
当存储的值是整数并且值的大小不超过长范围时,请使用整数存储。
如果字符串长度不超过44 个字节,则使用EMBSTR 编码
由于redisObject和sds是连续的内存,所以只需要分配一次内存空间,大大提高了查询效率。这有一些缺点:随着字符串的增长,它的长度也会增长。这个时候我们就要重新分配内存,所以我们要重新分配整个redisObject和sds。所以redis使用embstr只允许在数据发生变化时读取。然后转换为raw编码并且不再使用embstr编码。
如果长度超过44 个字符,请使用原始编码。
SDS
embstr 和raw 均针对sds 进行编码。看一下sds的结构。
/* 创建对应的数据结构,用于不同长度的格式化。 注意: sdshdr5 未使用。只需直接访问标志字节即可。 * 但是,我们在这里记录了5 类SDS 字符串的布局。 */struct __attribute__ ((__packed__)) sdshdr5. { unsigned char flags; /* 3 lsb 类型,5 msb 字符串长度*/char buf[];};struct __attribute__ ((__packed__)) sdshdr8 { /* 使用*/uint8_t alloc; 标头和空终止符*/unsigned char flags ; /* 3 个lsb 类型,5 个未使用的位*/char buf[];};struct __attribute__ ((__packed__)) sdshdr16 { uint16_t len; /* 使用*/uint16_t alloc /* 头和null 不包括终止符*/flags; /* 3 个lsb 类型,5 个未使用的位*/char buf[];};struct __attribute__ ((__packed__)) sdshdr32 { uint32_t len; /* 使用*/uint32_t alloc /* 不包括标头和空终止符*/char flags; /* 3 个lsb 类型,5 个未使用的位*/char buf[];};struct __attribute__ ((__packed__)) sdshdr64 { uint64_t len; 使用*/uint64_t alloc /* 不包括标头和空终止符*/flags; /* 3 lsb 类型,5 个未使用的位*/char buf[];}; 那么为什么不在C 中使用字符串呢?
1)获取字符串的长度,复杂度较低。在C语言中使用字符串时,len的存在可以让你直接求出字符串的长度,复杂度为O(1)。整个字符串的复杂度为O(n)。
2)避免缓冲区溢出:在C语言中要连接两个字符串,可以使用strcat函数,但前提是没有足够的内存空间。发生缓冲区溢出。与sds合并时,首先使用len检查内存空间是否满足要求。如果不满足要求,空间就会扩大,不会发生缓冲区溢出。
3)减少修改字符串的内存重新分配次数:C语言字符串不跟踪字符串长度。如果要更改字符串,则需要重新分配内存。未能重新分配会导致内存缓冲区泄漏。
redis SDS实现了两种策略:预分配空间和后期释放空间。
预分配空间:
1)当SDS改变后的SDS长度(len值)变为1mb时,会分配一块与len大小相同的未使用区域。在这种情况下,len和free的值将是相同的。例如,如果修改后的字符串长度为100字节,则将分配100字节的未使用空间。最终的sds 空间实际上是100 + 100 + 1(保留空字符’\0’)。
2)1MB以上,每次会分配1MB未使用空间。
延迟空间释放:在缩短字符串时,程序不会立即使用内存重新分配来回收缩短后多余的字节,而是使用free 属性记录这些字节的数量,等待后续使用(sds 也提供了API)。您可以手动触发字符串缩短);
4)二进制安全性:C字符串使用空字符作为字符串结尾,而某些二进制文件(例如图像)的内容中可能存在空字符串,因此无法访问。所有SDS API 以二进制方式处理buf 中的元素。 SDS 不是使用空字符串来确定字符串是否结束,而是使用len 属性表示的长度来确定字符串是否结束。
5)遵循每个字符串以空字符串结尾的约定,以便可以复用C语言库string.h中的一些函数。
学完了SDS,我们再回到上面所说的。如果embstr小于44字节,为什么还要编码?
再看一下reject对象和sds定义的结构(短字符串embstr使用最小的sdshdr8)。
typedef struct redisObject { //类型4 位unsigned type:4; //编码4 位unsignedcoding:4; //LRU 时间(相对于server.lru 时钟) 24 位unsigned lru:22; //Redis 中的引用计数数据bit int 可以共享。 refcount; //指向对象的64 位值void *ptr;} robj;struct __attribute__ ((__packed__)) sdshdr8 { uint8_t len; /* 不包括标头和空终止符*/unsigned char flags /* 3 lsb of type; 5 个未使用的位*/char buf[];};
4 + 4 + 24 + 32 + 64=128 位=16 字节
sdshdr8 占用空间
1 (uint8_t) + 1 (uint8_t) + 1(无符号字符)+ 1(buf[] 中的尾随“\0”字符)=4 个字节
初始最小分配为64 字节,因此仅分配一次空间的最大embstr 为64 – 16 – 4=44 字节。
3 List存储结构
Redis3.2之前底层实现:压缩列表ziplist 或者双向循环链表linkedlist 列表存储数据,如果列表存储的数据量比较小,并且满足以下两个条件: 使用ziplist存储。
列表中存储的每个元素长度小于64字节,列表中的数据数量小于512字节。
2. Redis3.2及更高版本的底层实现:快速列表
QuickList是一个双向链表,QuickList中的每个节点都是基于ZipList的双向链表,它结合了双向链表和ZipList的优点。
ziplist
ziplist是一个压缩链表,其优点是节省内存空间,因为存储的内容在连续的内存区域中。如果列表对象的元素不大且每个元素都不大,则使用ziplist存储。但是,如果数据量太大,ziplist就变得很难使用。为了保证内存中存储内容的连续性,插入复杂度为O(N),这意味着每次有插入都会重新执行realloc。如下图所示,在redisObject对象结构中,ptr指向ziplist。您只需重新排列整个ziplist 一次,并且它们在内存中是连续的区域。
ziplist的结构如下:
1、zlbytes:用于记录整个压缩列表占用的内存字节数。
2、zltail:记录从链表结束节点到压缩链表起始地址的字节数。
3、zllen:记录压缩链表的节点数。
4.entryX:我们来谈谈列表中的每个节点
5. zlend:用于标记压缩列表的结尾。
如果您有大量数据,为什么不尝试使用ziplist 呢?
因为ziplist是一块连续的内存,所以插入时间复杂度为O(n),并且每次插入新元素都需要重新分配来扩展内存,一旦超过ziplist的内存大小,内存空间就会被占用。是减少。它将被重新分配,内容将被复制到新地址。如果数量很大,内存重新分配和内存复制将花费更长的时间。因此,它不适合大字符串或存储容量大的元素。
快速列表(quickList)
Quick List 是ziplist 和linkedlist 的组合,将一个linkedlist 分成段,使用ziplist 紧凑地存储每个段,并使用双向指针链接多个ziplist。
为什么不直接使用链表呢?
链表的额外空间相对太大。
和next指针就要占去16个字节,而且每一个结点都是单独分配,会加剧内存的碎片化,影响内存管理效率。
quicklist结构
typedef struct quicklist { // 指向quicklist的头部 quicklistNode *head; // 指向quicklist的尾部 quicklistNode *tail; unsigned long count; unsigned int len; // ziplist大小限定,由list-max-ziplist-size给定 int fill : 16; // 节点压缩深度设置,由list-compress-depth给定 unsigned int compress : 16;} quicklist;typedef struct quicklistNode { // 指向上一个ziplist节点 struct quicklistNode *prev; // 指向下一个ziplist节点 struct quicklistNode *next; // 数据指针,如果没有被压缩,就指向ziplist结构,反之指向quicklistLZF结构 unsigned char *zl; // 表示指向ziplist结构的总长度(内存占用长度) unsigned int sz; // ziplist数量 unsigned int count : 16; /* count of items in ziplist */ unsigned int encoding : 2; /* RAW==1 or LZF==2 */ // 预留字段,存放数据的方式,1–NONE,2–ziplist unsigned int container : 2; /* NONE==1 or ZIPLIST==2 */ // 解压标记,当查看一个被压缩的数据时,需要暂时解压,标记此参数为1,之后再重新进行压缩 unsigned int recompress : 1; /* was this node previous compressed? */ unsigned int attempted_compress : 1; /* node can’t compress; too small */ // 扩展字段 unsigned int extra : 10; /* more bits to steal for future usage */} quicklistNode;typedef struct quicklistLZF { // LZF压缩后占用的字节数 unsigned int sz; /* LZF size in bytes*/ // 柔性数组,存放压缩后的ziplist字节数组 char compressed[];} quicklistLZF;结构图如下:
ziplist的长度
quicklist内部默认单个ziplist长度为8k字节,超出了这个字节数,就会新起一个ziplist。关于长度可以使用list-max-ziplist-size决定。
压缩深度
我们上面说到了quicklist下是用多个ziplist组成的,同时为了进一步节约空间,Redis还会对ziplist进行压缩存储,使用LZF算法压缩,可以选择压缩深度。quicklist默认的压缩深度是0,也就是不压缩。压缩的实际深度由配置参数list-compress-depth决定。为了支持快速push/pop操作,quicklist 的首尾两个 ziplist 不压缩,此时深度就是 1。如果深度为 2,就表示 quicklist 的首尾第一个 ziplist 以及首尾第二个 ziplist 都不压缩。
4 Hash类型
当Hash中数据项比较少的情况下,Hash底层才用压缩列表ziplist进行存储数据,随着数据的增加,底层的ziplist就可能会转成dict,具体配置如下
hash-max-ziplist-entries 512hash-max-ziplist-value 64在List中已经介绍了ziplist,下面来介绍下dict。
看下数据结构
typedef struct dict { dictType *type; void *privdata; dictht ht[2]; long rehashidx; /* rehashing not in progress if rehashidx == -1 */ int iterators; /* number of iterators currently running */} dict;typedef struct dictht { //指针数组,这个hash的桶 dictEntry **table; //元素个数 unsigned long size; unsigned long sizemask; unsigned long used;} dictht;dictEntry大家应该熟悉,在上面有讲,使用来真正存储key->value的地方typedef struct dictEntry { // 键 void *key; // 值 union { // 指向具体redisObject void *val; // uint64_t u64; int64_t s64; } v; // 指向下个哈希表节点,形成链表 struct dictEntry *next;} dictEntry;我们可以看到每个dict中都有两个hashtable
结构图如下:
虽然dict结构有两个hashtable,但是通常情况下只有一个hashtable是有值的。但是在dict扩容缩容的时候,需要分配新的hashtable,然后进行渐近式搬迁,这时候两个hashtable存储的旧的hashtable和新的hashtable。搬迁结束后,旧hashtable删除,新的取而代之。
下面让我们学习下rehash全貌。
5 渐进式rehash
所谓渐进式rehash是指我们的大字典的扩容是比较消耗时间的,需要重新申请新的数组,然后将旧字典所有链表的元素重新挂接到新的数组下面,是一个O(n)的操作。但是因为我们的redis是单线程的,无法承受这样的耗时过程,所以采用了渐进式rehash小步搬迁,虽然慢一点,但是可以搬迁完毕。
扩容条件
我们的扩容一般会在Hash表中的元素个数等于第一维数组的长度的时候,就会开始扩容。扩容的大小是原数组的两倍。不过在redis在做bgsave(RDB持久化操作的过程),为了减少内存页的过多分离(Copy On Write),redis不会去扩容。但是如果hash表的元素个数已经到达了第一维数组长度的5倍的时候,就会强制扩容,不管你是否在持久化。
不扩容主要是为了尽可能减少内存页过多分离,系统需要更多的开销去回收内存。
缩容条件
当我们的hash表元素逐渐删除的越来越少的时候。redis于是就会对hash表进行缩容来减少第一维数组长度的空间占用。缩容的条件是元素个数低于数组长度的10%,并且缩容不考虑是否在做redis持久化。
不用考虑bgsave主要是因为我们的缩容的内存都是已经使用过的,缩容的时候可以直接置空,而且由于申请的内存比较小,同时会释放掉一些已经使用的内存,不会增大系统的压力。
rehash步骤
1、为ht[1] 分配空间,让字典同时持有ht[0]和ht[1]两个哈希表;
2、定时维持一个索引计数器变量rehashidx,并将它的值设置为0,表示rehash 开始;
3、在rehash进行期间,每次对字典执行CRUD操作时,程序除了执行指定的操作以外,还会将ht[0]中的数据rehash 到ht[1]表中,并且将rehashidx加一;
4、当ht[0]中所有数据转移到ht[1]中时,将rehashidx 设置成-1,表示rehash 结束;
(采用渐进式rehash 的好处在于它采取分而治之的方式,避免了集中式rehash 带来的庞大计算量。特别的在进行rehash时只能对h[0]元素减少的操作,如查询和删除;而查询是在两个哈希表中查找的,而插入只能在ht[1]中进行,ht[1]也可以查询和删除。)
5、将ht[0]释放,然后将ht[1]设置成ht[0],最后为ht[1]分配一个空白哈希表。
过程如下图:
6 set数据结构
Redis 的集合相当于Java中的 HashSet,它内部的键值对是无序、唯一的。它的内部实现相当于一个特殊的字典,字典中所有的 value 都是一个值 NULL。集合Set类型底层编码包括hashtable和inset。
当存储的数据同时满足下面这样两个条件的时候,Redis 就采用整数集合intset来实现set这种数据类型:
存储的数据都是整数存储的数据元素个数小于512个
当不能同时满足这两个条件的时候,Redis 就使用dict来存储集合中的数据
hashtable在上面介绍过了,我们就只介绍inset。
inset结构体
typedef struct intset { uint32_t encoding; // length就是数组的实际长度 uint32_t length; // contents 数组是实际保存元素的地方,数组中的元素有以下两个特性: // 1.没有重复元素 // 2.元素在数组中从小到大排列 int8_t contents[];} intset;// encoding 的值可以是以下三个常量的其中一个#define INTSET_ENC_INT16 (sizeof(int16_t))#define INTSET_ENC_INT32 (sizeof(int32_t))#define INTSET_ENC_INT64 (sizeof(int64_t))inset的查询
intset是一个有序集合,查找元素的复杂度为O(logN)(采用二分法),但插入时不一定为O(logN),因为有可能涉及到升级操作。比如当集合里全是int16_t型的整数,这时要插入一个int32_t,那么为了维持集合中数据类型的一致,那么所有的数据都会被转换成int32_t类型,涉及到内存的重新分配,这时插入的复杂度就为O(N)了。是intset不支持降级操作。
**inset是有序不要和我们zset搞混,zset是设置一个score来进行排序,而inset这里只是单纯的对整数进行升序而已**
7 Zset数据结构
Zset有序集合和set集合有着必然的联系,他保留了集合不能有重复成员的特性,但不同的是,有序集合中的元素是可以排序的,但是它和列表的使用索引下标作为排序依据不同的是,它给每个元素设置一个分数,作为排序的依据。
zet的底层编码有两种数据结构,一个ziplist,一个是skiplist。
Zset也使用了ziplist做了排序,所以下面讲一下ziplist如何做排序。
ziplist做排序
每个集合元素使用两个紧挨在一起的压缩列表节点来保存,第一个节点保存元素的成员(member),而第二个元素则保存元素的分值(score)。
存储结构图如下一目了然:
skiplist跳表
结构体如下,skiplist是与dict结合来使用的,这个结构比较复杂。
/* * 跳跃表 */typedef struct zskiplist { // 头节点,尾节点 struct zskiplistNode *header, *tail; // 节点数量 unsigned long length; // 目前表内节点的最大层数 int level;} zskiplist;/* * 跳跃表节点 */typedef struct zskiplistNode { // member 对象 robj *obj; // 分值 double score; // 后退指针 struct zskiplistNode *backward; // 层 struct zskiplistLevel { // 前进指针 struct zskiplistNode *forward; // 这个层跨越的节点数量 unsigned int span; } level[];} zskiplistNode;跳表是什么?
我们先看下链表
如果想查找到node5需要从node1查到node5,查询耗时
但如果在node上加上索引:
这样通过索引就能直接从node1查找到node5
redis跳跃表
让我们再看下redis的跳表结构(图太复杂,直接从网上找了张图说明)
header:指向跳跃表的表头节点,通过这个指针程序定位表头节点的时间复杂度就为O(1);
tail:指向跳跃表的表尾节点,通过这个指针程序定位表尾节点的时间复杂度就为O(1);
level:记录目前跳跃表内,层数最大的那个节点的层数(表头节点的层数不计算在内),通过这个属性可以再O(1)的时间复杂度内获取层高最好的节点的层数;
length:记录跳跃表的长度,也即是,跳跃表目前包含节点的数量(表头节点不计算在内),通过这个属性,程序可以再O(1)的时间复杂度内返回跳跃表的长度。
结构右方的是四个 zskiplistNode结构,该结构包含以下属性
层(level):
节点中用L1、L2、L3等字样标记节点的各个层,L1代表第一层,L2代表第二层,以此类推。
每个层都带有两个属性:前进指针和跨度。前进指针用于访问位于表尾方向的其他节点,而跨度则记录了前进指针所指向节点和当前节点的距离(跨度越大、距离越远)。在上图中,连线上带有数字的箭头就代表前进指针,而那个数字就是跨度。当程序从表头向表尾进行遍历时,访问会沿着层的前进指针进行。
每次创建一个新跳跃表节点的时候,程序都根据幂次定律(powerlaw,越大的数出现的概率越小)随机生成一个介于1和32之间的值作为level数组的大小,这个大小就是层的“高度”。
后退(backward)指针:
节点中用BW字样标记节点的后退指针,它指向位于当前节点的前一个节点。后退指针在程序从表尾向表头遍历时使用。与前进指针所不同的是每个节点只有一个后退指针,因此每次只能后退一个节点。
分值(score):
各个节点中的1.0、2.0和3.0是节点所保存的分值。在跳跃表中,节点按各自所保存的分值从小到大排列。
成员对象(oj):
各个节点中的o1、o2和o3是节点所保存的成员对象。在同一个跳跃表中,各个节点保存的成员对象必须是唯一的,但是多个节点保存的分值却可以是相同的:分值相同的节点将按照成员对象在字典序中的大小来进行排序,成员对象较小的节点会排在前面(靠近表头的方向),而成员对象较大的节点则会排在后面(靠近表尾的方向)。
五 三大特殊数据类型
1 geospatial(地理位置)
1.geospatial将指定的地理空间位置(纬度、经度、名称)添加到指定的key中。 这些数据将会存储到sorted set这样的目的是为了方便使用GEORADIUS或者GEORADIUSBYMEMBER命令对数据进行半径查询等操作。2.sorted set使用一种称为Geohash的技术进行填充。经度和纬度的位是交错的,以形成一个独特的52位整数。 sorted set的double score可以代表一个52位的整数,而不会失去精度。(有兴趣的同学可以学习一下Geohash技术,使用二分法构建唯一的二进制串)3.有效的经度是-180度到180度 有效的纬度是-85.05112878度到85.05112878度
应用场景
查看附近的人微信位置共享地图上直线距离的展示
2 Hyperloglog(基数)
什么是基数? 不重复的元素
hyperloglog 是用来做基数统计的,其优点是:输入的提及无论多么大,hyperloglog使用的空间总是固定的12KB ,利用12KB,它可以计算2^64个不同元素的基数!非常节省空间!但缺点是估算的值,可能存在误差
应用场景
网页统计UV (浏览用户数量,同一天同一个ip多次访问算一次访问,目的是计数,而不是保存用户)
传统的方式,set保存用户的id,可以统计set中元素数量作为标准判断。
但如果这种方式保存大量用户id,会占用大量内存,我们的目的是为了计数,而不是去保存id。
3 Bitmaps(位存储)
Redis提供的Bitmaps这个“数据结构”可以实现对位的操作。Bitmaps本身不是一种数据结构,实际上就是字符串,但是它可以对字符串的位进行操作。可以把Bitmaps想象成一个以位为单位数组,数组中的每个单元只能存0或者1,数组的下标在bitmaps中叫做偏移量。单个bitmaps的最大长度是512MB,即2^32个比特位。
应用场景
两种状态的统计都可以使用bitmaps,例如:统计用户活跃与非活跃数量、登录与非登录、上班打卡等等。
六 Redis事务
事务本质:一组命令的集合
1 数据库事务与redis事务
数据库的事务
数据库事务通过ACID(原子性、一致性、隔离性、持久性)来保证。
数据库中除查询操作以外,插入(Insert)、删除(Delete)和更新(Update)这三种操作都会对数据造成影响,因为事务处理能够保证一系列操作可以完全地执行或者完全不执行,因此在一个事务被提交以后,该事务中的任何一条SQL语句在被执行的时候,都会生成一条撤销日志(Undo Log)。
redis事务
redis事务提供了一种“将多个命令打包, 然后一次性、按顺序地执行”的机制, 并且事务在执行的期间不会主动中断 —— 服务器在执行完事务中的所有命令之后, 才会继续处理其他客户端的其他命令。
Redis中一个事务从开始到执行会经历开始事务(muiti)、命令入队和执行事务(exec)三个阶段,事务中的命令在加入时都没有被执行,直到提交时才会开始执行(Exec)一次性完成。
一组命令中存在两种错误不同处理方式
1.代码语法错误(编译时异常)所有命令都不执行
2.代码逻辑错误(运行时错误),其他命令可以正常执行 (该点不保证事务的原子性)
为什么redis不支持回滚来保证原子性
这种做法的优点:
Redis 命令只会因为错误的语法而失败(并且这些问题不能在入队时发现),或是命令用在了错误类型的键上面:这也就是说,从实用性的角度来说,失败的命令是由编程错误造成的,而这些错误应该在开发的过程中被发现,而不应该出现在生产环境中。
因为不需要对回滚进行支持,所以 Redis 的内部可以保持简单且快速。
**鉴于没有任何机制能避免程序员自己造成的错误, 并且这类错误通常不会在生产环境中出现, 所以 Redis 选择了更简单、更快速的无回滚方式来处理事务。
事务监控
悲观锁:认为什么时候都会出现问题,无论做什么操作都会加锁。
乐观锁:认为什么时候都不会出现问题,所以不会上锁!更新数据的时候去判断一下,在此期间是否有人修改过这个数据。
使用cas实现乐观锁
redis使用watch key监控指定数据,相当于加乐观锁
watch保证事务只能在所有被监视键都没有被修改的前提下执行, 如果这个前提不能满足的话,事务就不会被执行。
watch执行流程
七 Redis持久化
Redis是一种内存型数据库,一旦服务器进程退出,数据库的数据就会丢失,为了解决这个问题Redis供了两种持久化的方案,将内存中的数据保存到磁盘中,避免数据的丢失
两种持久化方式:快照(RDB文件)和追加式文件(AOF文件),下面分别为大家介绍两种方式的原理。
RDB持久化方式会在一个特定的间隔保存那个时间点的数据快照。
AOF持久化方式则会记录每一个服务器收到的写操作。在服务启动时,这些记录的操作会逐条执行从而重建出原来的数据。写操作命令记录的格式跟Redis协议一致,以追加的方式进行保存。
Redis的持久化是可以禁用的,就是说你可以让数据的生命周期只存在于服务器的运行时间里。
两种方式的持久化是可以同时存在的,但是当Redis重启时,AOF文件会被优先用于重建数据。
1 RDB持久化
RDB持久化产生的文件是一个经过压缩的二进制文件,这个文件可以被保存到硬盘中,可以通过这个文件还原数据库的状态,它可以手动执行,也可以在redis.conf配置文件中配置,定时执行。
工作原理
在进行RDB时,redis的主进程不会做io操作,会fork一个子进程来完成该操作:
Redis 调用forks。同时拥有父进程和子进程。子进程将数据集写入到一个临时 RDB 文件中。当子进程完成对新 RDB 文件的写入时,Redis 用新 RDB 文件替换原来的 RDB 文件,并删除旧的 RDB 文件。这种工作方式使得 Redis 可以从写时复制(copy-on-write)机制中获益(因为是使用子进程进行写操作,而父进程依然可以接收来自客户端的请求)
触发机制
在Redis中RDB持久化的触发分为两种:自己手动触发与自动触发。
主动触发
save命令是同步的命令,会占用主进程,会造成阻塞,阻塞所有客户端的请求
bgsavebgsave是异步进行,进行持久化的时候,redis还可以将继续响应客户端请求
bgsave和save对比
命令
save
bgsave
IO类型
同步
异步
阻塞
是
是(阻塞发生在fock(),通常非常快)
复杂度
O(n)
O(n)
优点
不会消耗额外的内存
不阻塞客户端命令
缺点
阻塞客户端命令
需要fock子进程,消耗内存
自动触发
save自动触发配置,见下面配置,满足m秒内修改n次key,触发rdb# 时间策略 save m n m秒内修改n次key,触发rdbsave 900 1save 300 10save 60 10000# 文件名称dbfilename dump.rdb# 文件保存路径dir /home/work/app/redis/data/# 如果持久化出错,主进程是否停止写入stop-writes-on-bgsave-error yes# 是否压缩rdbcompression yes# 导入时是否检查rdbchecksum yes从节点全量复制时,主节点发送rdb文件给从节点完成复制操作,主节点会触发bgsave命令;执行flushall命令,会触发rdb退出redis,且没有开启aof时
优点:
RDB 的内容为二进制的数据,占用内存更小,更紧凑,更适合做为备份文件;RDB 对灾难恢复非常有用,它是一个紧凑的文件,可以更快的传输到远程服务器进行 Redis 服务恢复;RDB 可以更大程度的提高 Redis 的运行速度,因为每次持久化时 Redis 主进程都会 fork() 一个子进程,进行数据持久化到磁盘,Redis 主进程并不会执行磁盘 I/O 等操作;与 AOF 格式的文件相比,RDB 文件可以更快的重启。缺点:
因为 RDB 只能保存某个时间间隔的数据,如果中途 Redis 服务被意外终止了,则会丢失一段时间内的 Redis 数据。RDB 需要经常 fork() 才能使用子进程将其持久化在磁盘上。如果数据集很大,fork() 可能很耗时,并且如果数据集很大且 CPU 性能不佳,则可能导致 Redis 停止为客户端服务几毫秒甚至一秒钟。
2 AOF(Append Only File)
以日志的形式来记录每个写的操作,将Redis执行过的所有指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作。
AOF配置项
# 默认不开启aof 而是使用rdb的方式appendonly no# 默认文件名appendfilename “appendonly.aof”# 每次修改都会sync 消耗性能# appendfsync always# 每秒执行一次 sync 可能会丢失这一秒的数据appendfsync everysec# 不执行 sync ,这时候操作系统自己同步数据,速度最快# appendfsync no AOF的整个流程大体来看可以分为两步,一步是命令的实时写入(如果是appendfsync everysec 配置,会有1s损耗),第二步是对aof文件的重写。
AOF 重写机制
随着Redis的运行,AOF的日志会越来越长,如果实例宕机重启,那么重放整个AOF将会变得十分耗时,而在日志记录中,又有很多无意义的记录,比如我现在将一个数据 incr一千次,那么就不需要去记录这1000次修改,只需要记录最后的值即可。所以就需要进行 AOF 重写。
Redis 提供了bgrewriteaof指令用于对AOF日志进行重写,该指令运行时会开辟一个子进程对内存进行遍历,然后将其转换为一系列的 Redis 的操作指令,再序列化到一个日志文件中。完成后再替换原有的AOF文件,至此完成。
同样的也可以在redis.config中对重写机制的触发进行配置:
通过将no-appendfsync-on-rewrite设置为yes,开启重写机制;auto-aof-rewrite-percentage 100意为比上次从写后文件大小增长了100%再次触发重写;
auto-aof-rewrite-min-size 64mb意为当文件至少要达到64mb才会触发制动重写。
触发方式
手动触发:bgrewriteaof自动触发 就是根据配置规则来触发,当然自动触发的整体时间还跟Redis的定时任务频率有关系。
优点
1、数据安全,aof 持久化可以配置 appendfsync 属性,有 always,每进行一次 命令操作就记录到 aof 文件中一次。
2、通过 append 模式写文件,即使中途服务器宕机,可以通过 redis-check-aof 工具解决数据一致性问题。
3、AOF 机制的 rewrite 模式。AOF 文件没被 rewrite 之前(文件过大时会对命令 进行合并重写),可以删除其中的某些命令(比如误操作的 flushall))
缺点
1、AOF 文件比 RDB 文件大,且恢复速度慢。
2、数据集大的时候,比 rdb 启动效率低。
3 rdb与aof对比
比较项
RDB
AOF
启动优先级
低
高
体积
小
大
恢复速度
快
慢
数据安全性
丢数据
根据策略决定
八 发布与订阅
redis发布与订阅是一种消息通信的模式:发送者(pub)发送消息,订阅者(sub)接收消息。
redis通过PUBLISH和SUBSCRIBE等命令实现了订阅与发布模式,这个功能提供两种信息机制,分别是订阅/发布到频道、订阅/发布到模式的客户端。
1 频道(channel)
订阅
发布
完整流程
发布者发布消息
发布者向频道channel:1发布消息hi
127.0.0.1:6379> publish channel:1 hi(integer) 1订阅者订阅消息
127.0.0.1:6379> subscribe channel:1Reading messages… (press Ctrl-C to quit)1) “subscribe” // 消息类型2) “channel:1” // 频道3) “hi” // 消息内容执行subscribe后客户端会进入订阅状态,仅可以使subscribe、unsubscribe、psubscribe和punsubscribe这四个属于”发布/订阅”之外的命令
订阅频道后的客户端可能会收到三种消息类型
subscribe。表示订阅成功的反馈信息。第二个值是订阅成功的频道名称,第三个是当前客户端订阅的频道数量。
message。表示接收到的消息,第二个值表示产生消息的频道名称,第三个值是消息的内容。
unsubscribe。表示成功取消订阅某个频道。第二个值是对应的频道名称,第三个值是当前客户端订阅的频道数量,当此值为0时客户端会退出订阅状态,之后就可以执行其他非”发布/订阅”模式的命令了。
数据结构
基于频道的发布订阅模式是通过字典数据类型实现的
struct redisServer { // … dict *pubsub_channels; // …};其中,字典的键为正在被订阅的频道, 而字典的值则是一个链表, 链表中保存了所有订阅这个频道的客户端。
订阅
当使用subscribe订阅时,在字典中找到频道key(如没有则创建),并将订阅的client关联在链表后面。
当client 10执行subscribe channel1 channel2 channel3时,会将client 10分别加到 channel1 channel2 channel3关联的链表尾部。
发布
发布时,根据key,找到字典汇总key的地址,然后将msg发送到关联的链表每一台机器。
退订
遍历关联的链表,将指定的地址删除即可。
2 模式(pattern)
pattern使用了通配符的方式来订阅
通配符中?表示1个占位符,*表示任意个占位符(包括0),?*表示1个以上占位符。
所以当使用 publish命令发送信息到某个频道时, 不仅所有订阅该频道的客户端会收到信息, 如果有某个/某些模式和这个频道匹配的话, 那么所有订阅这个/这些频道的客户端也同样会收到信息。
订阅发布完整流程
发布者发布消息
127.0.0.1:6379> publish b m1(integer) 1127.0.0.1:6379> publish b1 m1(integer) 1127.0.0.1:6379> publish b11 m1(integer) 1订阅者订阅消息
127.0.0.1:6379> psubscribe b*Reading messages… (press Ctrl-C to quit)1) “psubscribe”2) “b*”3) (integer) 31) “pmessage”2) “b*”3) “b”4) “m1″1) “pmessage”2) “b*”3) “b1″4) “m1″1) “pmessage”2) “b*”3) “b11″4) “m1”
数据结构
pattern属性是一个链表,链表中保存着所有和模式相关的信息。
struct redisServer { // … list *pubsub_patterns; // …};// 链表中的每一个节点结构如下,保存着客户端与模式信息typedef struct pubsubPattern { redisClient *client; robj *pattern;} pubsubPattern;数据结构图如下:
订阅
当有信的订阅时,会将订阅的客户端和模式信息添加到链表后面。
发布
当发布者发布消息时,首先会发送到对应的频道上,在遍历模式列表,根据key匹配模式,匹配成功将消息发给对应的订阅者。
完成的发布伪代码如下
def PUBLISH(channel, message): # 遍历所有订阅频道 channel 的客户端 for client in server.pubsub_channels[channel]: # 将信息发送给它们 send_message(client, message) # 取出所有模式,以及订阅模式的客户端 for pattern, client in server.pubsub_patterns: # 如果 channel 和模式匹配 if match(channel, pattern): # 那么也将信息发给订阅这个模式的客户端 send_message(client, message)退订
使用punsubscribe,可以将订阅者退订,将改客户端移除出链表。
九 主从复制
什么是主从复制
主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。2.前者称为主节点(master),后者称为从节点(slave);数据的复制是单向的,只能由主节点到从节点默认情况下,每台redis服务器都是主节点;且一个主节点可以有多个从节点(或者没有),但一个从节点只有一个主主从复制的作用主要包括
数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
高可用基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。
主从库采用的是读写分离的方式
1 原理
分为全量复制与增量复制
全量复制:发生在第一次复制时
增量复制:只会把主从库网络断连期间主库收到的命令,同步给从库
2 全量复制的三个阶段
第一阶段是主从库间建立连接、协商同步的过程。
主要是为全量复制做准备。从库和主库建立起连接,并告诉主库即将进行同步,主库确认回复后,主从库间就可以开始同步了。
具体来说,从库给主库发送 psync 命令,表示要进行数据同步,主库根据这个命令的参数来启动复制。psync 命令包含了主库的 runID 和复制进度 offset 两个参数。runID,是每个 Redis 实例启动时都会自动生成的一个随机 ID,用来唯一标记这个实例。当从库和主库第一次复制时,因为不知道主库的 runID,所以将 runID 设为“?”。offset,此时设为 -1,表示第一次复制。主库收到 psync 命令后,会用 FULLRESYNC 响应命令带上两个参数:主库 runID 和主库目前的复制进度 offset,返回给从库。从库收到响应后,会记录下这两个参数。这里有个地方需要注意,FULLRESYNC 响应表示第一次复制采用的全量复制,也就是说,主库会把当前所有的数据都复制给从库。
第二阶段,主库将所有数据同步给从库。
从库收到数据后,在本地完成数据加载。这个过程依赖于内存快照生成的 RDB 文件。
具体来说,主库执行 bgsave 命令,生成 RDB 文件,接着将文件发给从库。从库接收到 RDB 文件后,会先清空当前数据库,然后加载 RDB 文件。这是因为从库在通过 replicaof 命令开始和主库同步前,可能保存了其他数据。为了避免之前数据的影响,从库需要先把当前数据库清空。在主库将数据同步给从库的过程中,主库不会被阻塞,仍然可以正常接收请求。否则,Redis 的服务就被中断了。但是,这些请求中的写操作并没有记录到刚刚生成的 RDB 文件中。为了保证主从库的数据一致性,主库会在内存中用专门的 replication buffer,记录 RDB 文件生成后收到的所有写操作。
第三个阶段,主库会把第二阶段执行过程中新收到的写命令,再发送给从库。
具体的操作是,当主库完成 RDB 文件发送后,就会把此时 replication buffer 中的修改操作发给从库,从库再重新执行这些操作。这样一来,主从库就实现同步了。
十 哨兵机制
哨兵的核心功能是主节点的自动故障转移
下图是一个典型的哨兵集群监控的逻辑图
Redis Sentinel包含了若个Sentinel节点,这样做也带来了两个好处:
对于节点的故障判断是由多个Sentinel节点共同完成,这样可以有效地防止误判即使个别Sentinel节点不可用,整个Sentinel集群依然是可用的。
哨兵实现了一下功能
监控:每个Sentinel节点会对数据节点(Redis master/slave 节点)和其余Sentinel节点进行监控通知:Sentinel节点会将故障转移的结果通知给应用方故障转移:实现slave晋升为master,并维护后续正确的主从关系配置中心:在Redis Sentinel模式中,客户端在初始化的时候连接的是Sentinel节点集合,从中获取主节点信息其中,监控和自动故障转移功能,使得哨兵可以及时发现主节点故障并完成转移;而配置中心和通知功能,则需要在与客户端的交互中才能体现。
1 原理
监控
Sentinel节点需要监控master、slave以及其它Sentinel节点的状态。这一过程是通过Redis的pub/sub系统实现的。Redis Sentinel一共有三个定时监控任务,完成对各个节点发现和监控:
监控主从拓扑信息:每隔10秒,每个Sentinel节点,会向master和slave发送INFO命令获取最新的拓扑结构Sentinel节点信息交换:每隔2秒,每个Sentinel节点,会向Redis数据节点的__sentinel__:hello频道上,发送自身的信息,以及对主节点的判断信息。这样,Sentinel节点之间就可以交换信息节点状态监控:每隔1秒,每个Sentinel节点,会向master、slave、其余Sentinel节点发送PING命令做心跳检测,来确认这些节点当前是否可达
主观/客观下线
主观下线
每个Sentinel节点,每隔1秒会对数据节点发送ping命令做心跳检测,当这些节点超过down-after-milliseconds没有进行有效回复时,Sentinel节点会对该节点做失败判定,这个行为叫做主观下线。
客观下线
客观下线,是指当大多数Sentinel节点,都认为master节点宕机了,那么这个判定就是客观的,叫做客观下线。
那么这个大多数是指多少呢?这其实就是分布式协调中的quorum判定了,大多数就是过半数,比如哨兵数量是5,那么大多数就是5/2+1=3个,哨兵数量是10大多数就是10/2+1=6个。
注:Sentinel节点的数量至少为3个,否则不满足quorum判定条件。
哨兵选举
如果发生了客观下线,那么哨兵节点会选举出一个Leader来进行实际的故障转移工作。Redis使用了Raft算法来实现哨兵领导者选举,大致思路如下:
每个Sentinel节点都有资格成为领导者,当它主观认为某个数据节点宕机后,会向其他Sentinel节点发送sentinel is-master-down-by-addr命令,要求自己成为领导者;收到命令的Sentinel节点,如果没有同意过其他Sentinel节点的sentinelis-master-down-by-addr命令,将同意该请求,否则拒绝(每个Sentinel节点只有1票);如果该Sentinel节点发现自己的票数已经大于等于MAX(quorum, num(sentinels)/2+1),那么它将成为领导者;如果此过程没有选举出领导者,将进入下一次选举。
故障转移
选举出的Leader Sentinel节点将负责故障转移,也就是进行master/slave节点的主从切换。故障转移,首先要从slave节点中筛选出一个作为新的master,主要考虑以下slave信息:
跟master断开连接的时长:如果一个slave跟master的断开连接时长已经超过了down-after-milliseconds的10倍,外加master宕机的时长,那么该slave就被认为不适合选举为master;slave的优先级配置:slave priority参数值越小,优先级就越高;复制offset:当优先级相同时,哪个slave复制了越多的数据(offset越靠后),优先级越高;run id:如果offset和优先级都相同,则哪个slave的run id越小,优先级越高。接着,筛选完slave后, 会对它执行slaveof no one命令,让其成为主节点。
最后,Sentinel领导者节点会向剩余的slave节点发送命令,让它们成为新的master节点的从节点,复制规则与parallel-syncs参数有关。
Sentinel节点集合会将原来的master节点更新为slave节点,并保持着对其关注,当其恢复后命令它去复制新的主节点。
注:Leader Sentinel节点,会从新的master节点那里得到一个configuration epoch,本质是个version版本号,每次主从切换的version号都必须是唯一的。其他的哨兵都是根据version来更新自己的master配置。
十一 缓存穿透、击穿、雪崩
1 缓存穿透
问题来源
缓存穿透是指缓存和数据库中都没有的数据,而用户不断发起请求。由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。在流量大时,可能DB就挂掉了,要是有人利用不存在的key频繁攻击我们的应用,这就是漏洞。
如发起为id为“-1”的数据或id为特别大不存在的数据。这时的用户很可能是攻击者,攻击会导致数据库压力过大。
解决方案接口层增加校验,如用户鉴权校验,id做基础校验,id<=0的直接拦截;从缓存取不到的数据,在数据库中也没有取到,这时也可以将key-value对写为key-null,缓存有效时间可以设置短点,如30秒(设置太长会导致正常情况也没法使用)。这样可以防止攻击用户反复用同一个id暴力攻击。布隆过滤器。类似于一个hash set,用于快速判某个元素是否存在于集合中,其典型的应用场景就是快速判断一个key是否存在于某容器,不存在就直接返回。布隆过滤器的关键就在于hash算法和容器大小。
2 缓存击穿
问题来源
缓存击穿是指缓存中没有但数据库中有的数据(一般是缓存时间到期),这时由于并发用户特别多,同时读缓存没读到数据,又同时去数据库去取数据,引起数据库压力瞬间增大,造成过大压力。
解决方案
1、设置热点数据永远不过期。
2、接口限流与熔断,降级。重要的接口一定要做好限流策略,防止用户恶意刷接口,同时要降级准备,当接口中的某些服务不可用时候,进行熔断,失败快速返回机制。
3、加互斥锁
3 缓存雪崩
问题来源
缓存雪崩是指缓存中数据大批量到过期时间,而查询数据量巨大,引起数据库压力过大甚至down机。和缓存击穿不同的是,缓存击穿指并发查同一条数据,缓存雪崩是不同数据都过期了,很多数据都查不到从而查数据库。
解决方案
缓存数据的过期时间设置随机,防止同一时间大量数据过期现象发生。如果缓存数据库是分布式部署,将热点数据均匀分布在不同的缓存数据库中。设置热点数据永远不过期
文章最后
每一项技术深挖都是一个庞大的体系,学海无涯,共勉。
原创文章,作者:小条,如若转载,请注明出处:https://www.sudun.com/ask/84904.html