文章已同步至掘金:https://juejin.cn/post/6909672227734552583
欢迎访问😃,有任何问题都可留言评论哦~
概述
Redis是什么?
Redis (Remote Dictionary Server ) ,即远程字典服务!
是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的APl.
redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了master-slave(主从)同步。
免费和开源!是当下最热门的NoSQL技术之一!也被人们称之为结构化数据库!
Redis能干什么?
1、内存存储、持久化,内存中是断电即失
2、效率高,可以用于告诉缓存
3、发布订阅系统
4、地图信息分析
5、计时器、计数器(浏览量)
6、…
特性
1、多样的数据类型
2、持久化
3、集群
4、事务
5、…
Linux安装
1、下载安装包,https://redis.io/
2、上传到服务器
3、解压Redis安装包(程序一般放到 /opt 下面)
4、进入解压后的文件,可以看到Redis的配置文件(redis.conf)
5、基本的环境安装(要在redis文件夹下执行)
yum install gcc-c++
make
make install
最新的redis6.0 需要gcc 5以上,先升级gcc
sudo yum install centos-release-scl
sudo yum install devtoolset-7-gcc*
scl enable devtoolset-7 bash
然后再make 就好了
6、redis的默认安装路径/usr/local/bin
或者有docker的话,直接使用docker拉取redis镜像
7、进入/usr/local/bin
目录下,新建一个文件夹,把redis的配置文件(redis.conf)复制到新建的文件夹下,之后就用这个配置文件启动,并不会改动原来的文件。
8、redis默认不是后台启动的,所以需要修改配置文件,把daemonize
修改为yes
,默认为no
9、启动redis服务,返回到/usr/local/bin
下面,执行命令redis-server 新建文件夹名/redis.conf
10、连接redis,redis-cli -p 6379
,会出来127.0.0.1:6379
,然后输入ping
,如果出现PONG
,则连接成功
11、关闭redis连接shutdown
可以使用redis-benchmark
来测试性能,具体方法:http://www.redis.cn/topics/benchmarks.html
设置密码
# 设置临时密码
config get requirepass //获取临时密码设置
config set requirepass "123456"//设置密码,,123456为我设置的密码,这个可以任意设置
# 使用密码登录
auth 123456
# 上面这种方法设置了密码之后,当你关闭服务器之后,密码就失效了。
# 设置永久密码
# 在redis安装目录下的配置文件中(redis.conf 或者 redis.windows.conf)直接配置密码
# 配置文件中有一行是这样的
# requirepass foobared
# 去掉注释,并且把foobared改为自己的密码保存即可
# 如果你已经按照上面的方法在配置文件中设置了密码,但启动后仍旧无效,说明你肯定没有指定配置文件运行。服务端也会报出如下警告:
# Warning: no config file specified, using the default config.
# windows下正确的启动方式:
redis-server.exe redis.windows.conf
# 在指定了配置文件后,再启动就可以读取到设置的密码了。
基本知识
Redis默认16个数据库。
可以使用 select
切换数据库,例如:select 3
查看数据库大小,dbsize
查看当前数据库所有的key,keys *
清空当前数据库,flushdb
清空全部数据库,flushall
设置键值对,set name fanjunyang
获取值,get name
Redis是单线程的
明白Redis是很快的,官方表示, Redis是基于内存操作, CPU不是Redis性能瓶颈, Redis的瓶颈是根据机器的内存和网络带宽,既然可以使用单线程来实现,就使用单线程了!
Redis为什么单线程还这么快?
1、误区1:性能的服务器一定是多线程的?
2、误区2:多线程(CPU上下文会切换 )一定比单线程效率高
先对CPU>内存>硬盘的速度要有所了解
核心:redis是将所有的数据全部放在内存中的,所以说使用单线程去操作效率就是最高的,多线程(CPU上下文会切换:耗时的操作! ! ! ) ,对于内存系统来说,如果没有上下文切换,效率就是最高的。多次读写都是在一个CPU上的,在内存情况下,这个就是最佳的方案。
五大数据类型
更多命令请参考:https://redis.io/commands
Redis-Key
select 3 # 切换数据库
keys * # 查看所有的key
set name fanjunyang # 设置key
get name # 获取value
exists name # 判断当前key是否才能在,1存在 0不存在
move name 1 # 移动key到指定数据库
del name # 移除key
expire name 10 # 设置key的过期时间,单位秒
ttl name # 查看当前key的剩余时间
type name # 查看key的类型
序号 | 命令及描述 |
---|---|
1 | DEL key 该命令用于在 key 存在时删除 key。 |
2 | DUMP key 序列化给定 key ,并返回被序列化的值。 |
3 | EXISTS key 检查给定 key 是否存在。 |
4 | EXPIRE key seconds 为给定 key 设置过期时间,以秒计。 |
5 | EXPIREAT key timestamp EXPIREAT 的作用和 EXPIRE 类似,都用于为 key 设置过期时间。 不同在于 EXPIREAT 命令接受的时间参数是 UNIX 时间戳(unix timestamp)。 |
6 | PEXPIRE key milliseconds 设置 key 的过期时间以毫秒计。 |
7 | PEXPIREAT key milliseconds-timestamp 设置 key 过期时间的时间戳(unix timestamp) 以毫秒计 |
8 | KEYS pattern 查找所有符合给定模式( pattern)的 key 。 |
9 | MOVE key db 将当前数据库的 key 移动到给定的数据库 db 当中。 |
10 | PERSIST key 移除 key 的过期时间,key 将持久保持。 |
11 | PTTL key 以毫秒为单位返回 key 的剩余的过期时间。 |
12 | TTL key 以秒为单位,返回给定 key 的剩余生存时间(TTL, time to live)。 |
13 | RANDOMKEY 从当前数据库中随机返回一个 key 。 |
14 | RENAME key newkey 修改 key 的名称 |
15 | RENAMENX key newkey 仅当 newkey 不存在时,将 key 改名为 newkey 。 |
16 | SCAN cursor [MATCH pattern] [COUNT count] 迭代数据库中的数据库键。 |
17 | TYPE key 返回 key 所储存的值的类型。 |
教程:https://www.runoob.com/redis/redis-keys.html
String(字符串)
append name ceshi # 追加命令,可以动态修改值,如果当前key不存在,就相当于set key
strlen name # 获取字符串的长度
---------------------------------------------------
# 加1减1
set views 0 # 帖子浏览量
get views
incr views # 加1
decr views # 减1
# 设置步长
incrby views 10 # 步长为10
decrby views 10
---------------------------------------------------
# 截取字符串,字符串范围 range
set name "fanjunyang"
get name
getrange name 0 3 # 截取下标从0到3,闭区间
getrange name 0 -1 # 获得全部的字符串,和 get key一样
# 替换字符串
set name fanjunyang
setrange name 1 xx # 替换指定位置开始的字符串
get name # fxxjunyang
---------------------------------------------------
setex # 设置过期时间
setnx # 不存在再设置(存在就不设置)在分布式锁会常常使用
setex name 30 "fanjunyang"
setnx name "fan" # 如果存在就不设置
---------------------------------------------------
mset k1 v1 k2 v2 k3 v3 # 批量设置
mget k1 k2 k3 # 批量获取
msetnx k1 v1 k4 v4 # 原子性操作,要么一起成功,要么一起失败
getset # 先get然后再set,如果不存在值,则返回nil,如果存在值,获取原来的值,并设置新的值
set user:996597002:name fanjunyang
# 设置一个user:996597002对象,值为josn字符来保存一个对象
set user:996597002 {name:fanjunyang,age:23}
序号 | 命令及描述 |
---|---|
1 | SET key value 设置指定 key 的值 |
2 | GET key 获取指定 key 的值。 |
3 | GETRANGE key start end 返回 key 中字符串值的子字符 |
4 | GETSET key value 将给定 key 的值设为 value ,并返回 key 的旧值(old value)。 |
5 | GETBIT key offset 对 key 所储存的字符串值,获取指定偏移量上的位(bit)。 |
6 | MGET key1 [key2…] 获取所有(一个或多个)给定 key 的值。 |
7 | SETBIT key offset value 对 key 所储存的字符串值,设置或清除指定偏移量上的位(bit)。 |
8 | SETEX key seconds value 将值 value 关联到 key ,并将 key 的过期时间设为 seconds (以秒为单位)。 |
9 | SETNX key value 只有在 key 不存在时设置 key 的值。 |
10 | SETRANGE key offset value 用 value 参数覆写给定 key 所储存的字符串值,从偏移量 offset 开始。 |
11 | STRLEN key 返回 key 所储存的字符串值的长度。 |
12 | MSET key value [key value …] 同时设置一个或多个 key-value 对。 |
13 | MSETNX key value [key value …] 同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在。 |
14 | PSETEX key milliseconds value 这个命令和 SETEX 命令相似,但它以毫秒为单位设置 key 的生存时间,而不是像 SETEX 命令那样,以秒为单位。 |
15 | INCR key 将 key 中储存的数字值增一。 |
16 | INCRBY key increment 将 key 所储存的值加上给定的增量值(increment) 。 |
17 | INCRBYFLOAT key increment 将 key 所储存的值加上给定的浮点增量值(increment) 。 |
18 | DECR key 将 key 中储存的数字值减一。 |
19 | DECRBY key decrement key 所储存的值减去给定的减量值(decrement) 。 |
20 | APPEND key value 如果 key 已经存在并且是一个字符串, APPEND 命令将指定的 value 追加到该 key 原来值(value)的末尾。 |
教程:https://www.runoob.com/redis/redis-strings.html
List(列表)
基本数据类型,列表
在redis里面,我们可以把list玩成,栈、队列、阻塞队列
所有的list命令都是用 l 头的
lpush list one # 将一个值或者多个值,插入到列表头部(左)
lpush list two
lpush list three
lrange list 0 -1
1)"three"
2)"two"
3)"one"
lrange list 0 1 # 获取区间的值
rpush list four # 将一个值或者多个值,插入到列表尾部(右)
1)"three"
2)"two"
3)"one"
4)"four"
lpop list # 移除列表的第一个元素
rpop list # 移除列表的最后一个元素
lindex list 1 # 通过下标获得list中的某一个值
llen list # 返回列表的长度
lrem list 1 one # 移除list集合中指定个数的value,精确匹配,list中可以存在重复的值
ltrim list 1 2 # 通过下标截取指定的长度,这个list已经被改变了
rpoplpush mylist myotherlist # 移除列表的最后一个元素,并将它移动到新的列表中
exists list # 判断列表是否存在
lset list 0 item # 把list列表中的第一个值替换为item(前提是存在list列表,如果不存在,就会报错)
linsert list before "two" "ceshi" # 在list列表的two字符串前面插入ceshi,当然也可以使用after
序号 | 命令及描述 |
---|---|
1 | BLPOP key1 [key2 ] timeout 移出并获取列表的第一个元素, 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止。 |
2 | BRPOP key1 [key2 ] timeout 移出并获取列表的最后一个元素, 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止。 |
3 | BRPOPLPUSH source destination timeout 从列表中弹出一个值,将弹出的元素插入到另外一个列表中并返回它; 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止。 |
4 | LINDEX key index 通过索引获取列表中的元素 |
5 | LINSERT key BEFORE|AFTER pivot value 在列表的元素前或者后插入元素 |
6 | LLEN key 获取列表长度 |
7 | LPOP key 移出并获取列表的第一个元素 |
8 | LPUSH key value1 [value2] 将一个或多个值插入到列表头部 |
9 | LPUSHX key value 将一个值插入到已存在的列表头部 |
10 | LRANGE key start stop 获取列表指定范围内的元素 |
11 | LREM key count value 移除列表元素 |
12 | LSET key index value 通过索引设置列表元素的值 |
13 | LTRIM key start stop 对一个列表进行修剪(trim),就是说,让列表只保留指定区间内的元素,不在指定区间之内的元素都将被删除。 |
14 | RPOP key 移除列表的最后一个元素,返回值为移除的元素。 |
15 | RPOPLPUSH source destination 移除列表的最后一个元素,并将该元素添加到另一个列表并返回 |
16 | RPUSH key value1 [value2] 在列表中添加一个或多个值 |
17 | RPUSHX key value 为已存在的列表添加值 |
Set(集合)
无序不重复集合
sadd myset hello # set集合中添加元素
smembers myset # 查看指定set的所有值
sismember myset hello # 判断某一个值是不是在set集合中,是的话返回1,不是返回0
scard myset # 获取set集合中的内容元素个数
srem myset hello # 移除set集合中的指定元素
srandmember myset # 随机抽选出1个元素
srandmember myset 2 # 随机抽选出2个元素
spop myset # 随机移除set集合中的元素
smove myset1 myset2 hello # 将一个指定的值,移动到另一个set集合
# sdiff差集(按第一个集合展示差异)sunion并集 sinterf交集
sdiff myset1 myset2
sunion myset1 myset2
sinterf myset1 myset2
序号 | 命令及描述 |
---|---|
1 | SADD key member1 [member2] 向集合添加一个或多个成员 |
2 | SCARD key 获取集合的成员数 |
3 | SDIFF key1 [key2] 返回第一个集合与其他集合之间的差异。 |
4 | SDIFFSTORE destination key1 [key2] 返回给定所有集合的差集并存储在 destination 中 |
5 | SINTER key1 [key2] 返回给定所有集合的交集 |
6 | SINTERSTORE destination key1 [key2] 返回给定所有集合的交集并存储在 destination 中 |
7 | SISMEMBER key member 判断 member 元素是否是集合 key 的成员 |
8 | SMEMBERS key 返回集合中的所有成员 |
9 | SMOVE source destination member 将 member 元素从 source 集合移动到 destination 集合 |
10 | SPOP key 移除并返回集合中的一个随机元素 |
11 | SRANDMEMBER key [count] 返回集合中一个或多个随机数 |
12 | SREM key member1 [member2] 移除集合中一个或多个成员 |
13 | SUNION key1 [key2] 返回所有给定集合的并集 |
14 | SUNIONSTORE destination key1 [key2] 所有给定集合的并集存储在 destination 集合中 |
15 | SSCAN key cursor [MATCH pattern] [COUNT count] 迭代集合中的元素 |
Hash(哈希)
Map集合,key-map,这时候的值是一个map集合,本质和String类型没有太大区别
hash更适合于对象的存储,String适合字符串的存储
hset myhash field hello # set一个具体的key-value
hget myhash field # 获取一个值
hmset myhash field1 hello field2 word # set多个key-value
hmget myhash field1 field2 # 获取值
hgetall myhash # 获取全部的数据
hdel myhash field1 # 删除hash指定的key字段,对应的value值就没了
hlen myhash # 获取当前hash中有多少的键值对
hexists myhash field1 # 判断hash中的指定字段是否存在
hkeys myhash # 获得所有的key
hvals myhash # 获得所有的value
hsetnx myhash field3 hello # 如果不存在则可以设置,如果存在则不能设置
序号 | 命令及描述 |
---|---|
1 | HDEL key field1 [field2] 删除一个或多个哈希表字段 |
2 | HEXISTS key field 查看哈希表 key 中,指定的字段是否存在。 |
3 | HGET key field 获取存储在哈希表中指定字段的值。 |
4 | HGETALL key 获取在哈希表中指定 key 的所有字段和值 |
5 | HINCRBY key field increment 为哈希表 key 中的指定字段的整数值加上增量 increment 。 |
6 | HINCRBYFLOAT key field increment 为哈希表 key 中的指定字段的浮点数值加上增量 increment 。 |
7 | HKEYS key 获取所有哈希表中的字段 |
8 | HLEN key 获取哈希表中字段的数量 |
9 | HMGET key field1 [field2] 获取所有给定字段的值 |
10 | HMSET key field1 value1 [field2 value2 ] 同时将多个 field-value (域-值)对设置到哈希表 key 中。 |
11 | HSET key field value 将哈希表 key 中的字段 field 的值设为 value 。 |
12 | HSETNX key field value 只有在字段 field 不存在时,设置哈希表字段的值。 |
13 | HVALS key 获取哈希表中所有值。 |
14 | HSCAN key cursor [MATCH pattern] [COUNT count] 迭代哈希表中的键值对。 |
Zset(有序集合)
在set的基础上,增加了一个值,排序功能
zadd myset 1 one # 添加一个值
zadd myset 2 two 3 three # 添加多个值
三种特殊的数据类型
geospatial 地理位置
教程:https://www.redis.net.cn/order/3685.html
如果两个位置之间的其中一个不存在, 那么命令返回空值。
指定单位的参数 unit 必须是以下单位的其中一个:
- m 表示单位为米。
- km 表示单位为千米。
- mi 表示单位为英里。
- ft 表示单位为英尺。
例如:朋友的定位,附近的人,打车距离计算?
# 添加城市地理位置
# 规则:两极无法直接添加
geoadd china:city 116.40 39.90 beijing
# 获取指定城市的经度纬度
geopos china:city beijing
# 两个城市之间的距离
geodist china:city beijing shanghai
# 以给定的经纬度为中心(110 30), 找出某一半径(1000km)内的元素
GEORADIUS china:city 110 30 1000 km
GEORADIUS china:city 110 30 1000 km withdist # 显示到中间位置的距离
GEORADIUS china:city 110 30 1000 km withcoord # 显示他人的定位信息
# 找出位于指定位置周围的其他位置
GEORADIUSBYMEMBER china:city beijing 100km
GEO底层的实现原理其实就是Zset !我们可以使用Zset命令来操作geo !
zrange china:city 0 -1 # 列出所有的城市
Hyperloglog
教程:https://www.redis.net.cn/order/3629.html
简介
Redis 2.8.9版本就更新了Hyperloglog数据结构
Redis Hyperloglog基数统计的算法
优点:占用的内存是固定, 2~64不同的元素的技术,只需要废12KB内存!如果要从内存角度来比较的话Hyperloglog首选
网页的UV (一个人访问一个网站多次,但是还是算作一个人!)
传统的方式, set保存用户的id,然后就可以统计set中的元素数量作为标准判断
这个方式如果保存大量的用户id ,就会比较麻烦!我们的目的是为了计数,而不是保存用户id;
0.81%错误率!统计UV任务,可以忽略不计的
pfadd mykey a b c d e f # 添加数据
pfcount mykey # 统计个数
pfmerge mykey3 mykey1 mykey2 # 合并mykey1 mykey2到mykey3,并集
pfcount mykey3 # 看并集数量
Bitmaps
位存储
统计用户信息,活跃,不活跃!登录、未登录!打卡, 365打卡!两个状态的,都可以使用Bitmaps !
Bitmaps位图,数据结构!都是操作二进制位来进行记录,就只有0和1两个状态!
# 使用bitmap来记录周一到周日的打卡
# 周一:1 周二:0 周三:0 .....
setbit sign 0 1
setbit sign 1 0
setbit sign 2 0
setbit sign 3 1
setbit sign 4 0
setbit sign 5 1
setbit sign 6 1
# 查看某一天是否打卡
getbit sign 3
# 统计打卡的天数
bitcount sign
事务
Redis单条命令式保证原子性的,但是事务不保证原子性!
Redis事务本质:一组命令的集合,一个事务中的所有命令都会被序列化,在事务执行过程的中,会按照顺序执行
一次性、顺序性、排他性,执行一些列的命令!
------ 队列 set set set 执行 ------
Redis事务没有没有隔离级别的概念!
所有的命令在事务中,并没有直接被执行!只有发起执行命令的时候才会执行!(Exec)
redis的事务:
- 开启事务(multi)
- 命令入队(…)
- 执行事务(exec)
- 放弃事务(diseard)
正常执行事务
127.0.0.1:6379> multi # 开启事务
оk
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> get k2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> exec # 执行事务
1) ок
2) ок
3) "v2"
4) ок
错误情况:
- 编译型异常(代码有问题!命令有错! ) ,事务中所有的命令都不会被执行!
- 运行时异常( 1/0) ,如果事务队列中存在语法性,那么执行命令的时候,其他命令是可以正常执行的,错误命令抛出异常!
监控(乐观锁)
悲观锁:很悲观,认为什么时候都会出问题,无论做什么都会加锁。
乐观锁:很乐观,认为什么时候都不会出问题,所以不会上锁!更新数据的时候去判断一下,在此期间是否有人修改过这个数据,获取version,更新的时候比较version
redis监视测试
# 正常执行成功
127.0.0.1:6379> set money 100
ок
127.0.0.1:6379> set out 0
оK
127.0.0.1:6379> watch money #监视money对象
ок
127.0.0.1:6379> multi #事务正常结束,数据期间没有发生变动,这个时候就正常执行成功!
ok
127.0.0.1:6379» DECRBY money 20
QUEUED
127.0.0.1:6379> INCRBY out 20
QUEUED
127.0.0.1:6379> exec
1) (integer) 80
2) (integer) 20
测试多线程修改值,使用watch可以当做redis的乐观锁操作!
127.0.0.1:6379> watch money #监视 money
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> DECRBY money 10
QUEUED
127.0.0.1:6379> INCRBY out 10
QUEUED
127.0.0.1:6379> exec #执行之前,另外一个线程,修改了我们的值,这个时候,就会导致事务执行失败!
(nil)
Redis.conf配置
网络
bind 127.0.0.1 # 绑定的ip
protected-mode yes # 保护模式
port 6379 # 端口
通用GENERAL
daemonize yes #以守护进程的方式运行,默认是no,我们需要自己开启为yes!
pidfile /var/run/redis_6379.pid #如果以后台的方式运行,我们就需要指定一个pid文件!
# 日志
# specify the server verbosity level.
#This can be one of:
# debug (a lot of information, useful for development/testing)
#verbose (many rarely useful info, but not a mess like the debua level).
# notice (moderately verbose, what you want in production probably)生产环境
#warning (only very important / critical messages are logged)
1oglevel notice
logfile "" # 日志的文件位置名
databases 16 # 数据库数量,默认16个
always-show-logo yes # 是否总是显示logo
快照
# 持久化,在规定的时间内,执行了多少次操作,则会持久化到文件.rdb.aof
# redis是内存数据库,如果没有持久化,那么数据断电及失!
#如果900s内,如果至少有一个1 key进行了修改,我们及进行持久化操作
save 900 1
#如果300s内,如果至少10 key进行了修改,我们及进行持久化操作
save 300 10
#如果60s内,如果至少10000 key进行了修改,我们及进行持久化操作
save 60 10000
#我们之后学习持久化,会自己定义这个测试!
stop-writes-on-bgsave-error yes #持久化如果出错,是否还需要继续工作!
rdbcompression yes #是否压缩rdb文件,需要消耗一些cpu资源!
rdbchecksum yes #保存rdb文件的时候,进行错误的检查校验!
dir ./ #rdb文件保存的目录!
SECURITY 安全
可以在这里设置redis的密码,默认是没有密码!
127.0.0.1:6379 ping
PONG
127.0.0.1:6379> config get requirepass #获取redis的密码
1) "requi repass"
2) ""
127.0.0.1:6379> config set requirepass "123456" #设置redis密码
OK
127.0.0.1:6379> config get requirepass 发现所有的命令都没有权限了
(error) NOAUTH Authentication required.
127.0.0.1:6379> ping
(error) NOAUTH Authentication required.
127.0.0.1:6379> auth 123456 #使用密码进行登录!
оK
127.0.0.1:6379> config get requirepass
1) "requirepass"
2) "123456"
限制 CLIENTS
maxclients 10000 #设置能连接上redis的最大客户端的数量
maxmemory <bytes> #redis配置最大的内存容量
maxmemory-policy noeviction #内存到达上限之后的处理策略
1, volatile-1ru:只对设置了过期时间的key进行LRU (默认值)
2, allkeys-1ru: 删除1ru算法的key
3, volatile-random:随机删除即将过期key
4, al1 keys-random:随机删除
5、 volatile-tt1 : 删除即将过期的
6, noeviction: 永不过期,返回错误
APPEND ONLY 模式 aof配置
appendonly no #默认是不开启aof模式的,默认是使用rdb方式持久化的,在大部分所有的情况下, rdb完全够用!
appendfilename "appendonTy.aof" #持久化的文件的名字
# appendfsync always #每次修改都会sync,消耗性能
appendfsync everysec #每秒执行一次sync,可能会丢失这1s的数据!
# appendfsync no #不执行sync,这个时候操作系统自己同步数据,速度最快!
Redis持久化
Redis是内存数据库,如果不将内存中的数据库状态保存到磁盘,那么一旦服务器进程退出,服务器中的数据库状态也会消失。所以Redis提供了持久化功能。
RDB(Redis DataBase)
在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里。
Redis会单独创建( fork )一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。
整个过程中,主进程是不进行任何I0操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢
失。
默认是RDB,一般情况下不需要修改这个配置
rdb保存的文件是dump.rdb 都是在我们的配置文件中快照中进行配置的!
dbfilename dump.rdb
save 60 5 # 只要60s内修改了5次key,就会触发rdb操作
触发规则
1、save的规则满足的情况下,会自动触发rdb规则
2、执行flushall 命令,也会触发我们的rdb规则!
3、退出redis ,也会产生rdb文件!
备份就会自动生成一个dump.rdb
如何恢复rdb文件
1、只需要将rdb文件放在我们redis启动目录就可以, redis启动的时候会自动检查dump.rdb恢复其中的数据!
2、查看需要存在的位置
127.0.0.1:6379> config get dir
1) "dir"
2) "/usr/local/bin" #如果在这个目录下存在dump.rdb文件,启动就会自动恢复其中的数据
默认配置几乎就用了
优点:
1、适合大规模的数据恢复
2、对数据的完整性要不高
缺点:
1、需要一定的时间间隔进程操作!如果redis意外宕机了,这个最后一次修改数据就没有的了
2、fork进程的时候,会占用一定的内容空间!
AOF(Append Only File)
以日志的形式来记录每个写操作,将Redis执行过的所有指令记录下来(读操作不记录) ,只许追加文件但不可以改写文件, redis启动之初会读取该文件重新构建数据,换言之, redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作
Aof保存的是appendonly.aof文件
默认不开启,手动进行配置,只需把 appendonly 改为 yes 即可
重启redis即可生效
重写规则说明
aof默认就是文件的无限追加,文件会越来越大
appendonly yes
appendfilename "appendonTy.aof" #持久化的文件的名字
# appendfsync always #每次修改都会sync,消耗性能
appendfsync everysec #每秒执行一次sync,可能会丢失这1s的数据!
# appendfsync no #不执行sync,这个时候操作系统自己同步数据,速度最快!
如果这个aof文件有错误,这时候redis是启动不起来的吗,我们需要修复这个aof文件
redis给我们提供了一个工具 redis-check-aof --fix
优点:
1、每一次修改都同步,文件的完整会更加好!
2、每秒同步一次,可能会丢失一秒的数据
3、从不同步,效率最高的!
缺点:
1、相对于数据文件来说, aof远远大于rdb ,修复的速度也比rdb慢!
2、Aof运行效率也要比rdb慢,所以我们redis默认的配置就是rdb持久化!
扩展:
1, RDB持久化方式能够在指定的时间间隔内对你的数据进行快照存储
2, AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据, AOF命令以Redis协议追加保存每次写的操作到文件末尾, Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大。
3、只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化
4、同时开启两种持久化方式
-
在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整。
-
RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件,那要不要只使用AOF呢?作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份) ,快速重启,而且不会有AOF可能潜在的Bug ,留着作为一个万一的手段。
5.性能建议
- 因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 900 1这条规则。
- 如果Enable AOF ,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了,代价一是带来了持续的10,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率, AOF重写的基础大小默认值64M太小了,可以设到5G以上,默认超过原大小
100%大小重写可以改到适当的数值。 - 如果不Enable AOF ,仅靠Master-Slave Replication实现高可用性也可以,能省掉一大笔10,也减少了rewrite时带来的系统波动。代价是如果Master/Slave同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave中的RDB文件,载入较新的那个,微博就是这种架构。
Redis发布订阅
Redis发布订阅(pub/sub)是一种消息通信模式:发送者(pub)发送消息,订阅者(sub)接收消息。
Redis客户端可以订阅任意数量的频道。
订阅/发布消息图:
第一个:消息发送者,第二个:频道,第三个:消息订阅者!
下图展示了频道 channel1 , 以及订阅这个频道的三个客户端 —— client2 、 client5 和 client1 之间的关系:
当有新消息通过 PUBLISH 命令发送给频道 channel1 时, 这个消息就会被发送给订阅它的三个客户端:
序号 | 命令及描述 |
---|---|
1 | PSUBSCRIBE pattern [pattern …] 订阅一个或多个符合给定模式的频道。 |
2 | PUBSUB subcommand [argument [argument …]] 查看订阅与发布系统状态。 |
3 | PUBLISH channel message 将信息发送到指定的频道。 |
4 | PUNSUBSCRIBE [pattern [pattern …]] 退订所有给定模式的频道。 |
5 | SUBSCRIBE channel [channel …] 订阅给定的一个或多个频道的信息。 |
6 | UNSUBSCRIBE [channel [channel …]] 指退订给定的频道。 |
测试
订阅端:
127.0.0.1:6379> SUBSCRIBE yexi #订阅一个频道yexi
Reading messages... (press ctrl-c to quit)
1) "subscribe"
2) "yexi"
3) (integer) 1
#等待读取推送的信息
1) "message" # 消息
2) "yexi" # 哪个频道的消息
3) "hello, yexi" # 消息的内容
1) "message“
2) "yexi"
3) "hello,redis"
发送端:
127.0.0.1:6379> PUBLISH yexi "hello, yexi" # 发布者发布消息到频道
(integer) 1
127.0.0.1:6379> PUBLISH yexi "hello,redis" # 发布者发布消息到频道
(integer) 1
127.0.0.1:6379>
原理
Redis是使用C实现的,通过分析Redis源码里的pubsub.c文件,了解发布和订阅机制的底层实现,籍此加深对Redis的理解。
Redis通PUBLISH, SUBSCRIBE和PSUBSCRIBE等命令实现发布和订阅功能。
通过SUBSCRIBE命令订阅某频道后, redis-server里维护了一个字典,字典的键就是一个个频道! ,而字典的值则是一个链表,链表中保存了所有订阅这个channel的客户端。SUBSCRIBE命令的关键,就是将客户端添加到给定channel的订阅链表中。
通过PUBLISH命令向订阅者发送消息, redis-server会使用给定的频道作为键,在它所维护的channel字典中查找记录了订阅这个频道的所有客户端的链表,遍历这个链表,将消息发布给所有订阅者。
Pub/Sub从字面上理解就是发布( Publish )与订阅( Subscribe ) ,在Redis中,你可以设定对某一个key值进行消息发布及消息订阅,当一个key值上进行了消息发布后,所有订阅它的客户端都会收到相应的消息。这一功能最明显的用法就是用作实时消息系统,比如普通的即时聊天,群聊等功能。
使用场景:
- 实时消息系统
- 实时聊天
- 订阅、关注系统
Redis主从复制
概念
主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(master/leader),后者称为从节点(slavel/follower);数据的复制是单向的,只能由主节点到从节点。Master以写为主, Slave以读为主。
默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点
主从复制的作用主要包括:
1、数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
2、故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。
3、负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点) ,分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
4、高可用基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。
一般来说,要将Redis运用于工程项目中,只使用一台Redis是万万不能的,原因如下:
1、从结构上,单个Redis服务器会发生单点故障,并且一台服务器需要处理所有的请求负载,压力较大;
2、从容量上,单个Redis服务器内存容量有限,就算一台Redis服务器内存容量为256G,也不能将所有内存用作Redis存储内存, 一般来说,单台Redis最大使用内存不应该超过20G.
电商网站上的商品,一般都是一次上传,无数次浏览的,说专业点也就是"多读少写"
对于这种场景,我们可以使如下这种架构:
主从复制,读写分离,80%的情况下都是在进行读操作。减缓服务器的压力,架构中经常使用,一般是一主二从。
只要在公司中,主从复制就是必须要使用的,因为在真实的项目中不可能单机使用Redis !
环境配置
只配置从库,不配置主库
127.0.0.1:6379> info replication #查看当前库的信息
# Replication
role:master #角色 master
connected_slaves:0 # 没有从机
master_replid:b63c90e6c501143759cb0e7f450bdleb0c70882a
master_replid2:00000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
rep1_backlog_size: 1048576
rep1_backlog_first_byte_offset:0
repl_backlog_histlen:o
复制三份配置文件,修改各自的port(主机不用改)、pidfile、logfile、dbfilename
修改完毕后启动3个redis的服务
一主二从
默认情况下,每台Redis服务器都是主节点,我们一般情况下只用配置从机就好了
认老大,一主(79)二从(80、81)
127.0.0.1:6380> SLAVEOF 127.0.0.1 6379 # SLAVEOF host 6379 找谁当自己的老大!
ок
127.0.0.1:6380> info replication
#Replication
role:slave # 从机
master_host:127.0.0.1
master_port:6379
master_link_status:up
master_last_io_seconds_ago:3
master_sync_in_progress:o
slave_repl_offset:14
如果两个都配置完了,则主机上有两个从机。
真实的从主配置应该在配置文件中配置,这样的话是永久的,我们这里使用的是命令,暂时的!
细节
主机可以写。从机不能写只能读。主机中的所有信息和数据,都会自动被从机保存。
如果主机断开连接,从机依旧连接到主机的,但是没有写操作,这个时候,主机如果回来了,从机依旧可以直接获取到主机写的信息!
如果是用命令行来配置的主从,这个时候如果重启了,就会变回主机!只要变为从机,立马就会从主机中获取值。
复制原理
Slave启动成功连接到master后会发送一个sync同步命令
Master接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后, master将传送整个数据文件到slave,并完成一次完全同步。
全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。
增量复制: Master继续将新的所有收集到的修改命令依次传给slave ,完成同步
但是只要是重新连接master ,一次完全同步(全量复制)将被自动执行
套娃模式
之前的模式,一旦79宕机了,就不可能进行写操作:
演变一下,80既是从机,也是主机:
这时候也可以完成我们的主从复制!
如果没有老大了,这个时候能不能选择一个老大出来呢?手动
谋权篡位
如果主机断开了连接,我们可以使用SLAVEOF no one
让自己变成主机!其他的节点就可以手动连接到最新的这个主节点(手动),如果这个时候老大修复了,那就重新连接。
哨兵模式
自动选取老大的模式
概述
主从切换技术的方法是:当主服务器宕机后,需要手动把一台从服务器切换为主服务器,这就需要人工干预,费事费力,还会造成一段时间内服务不可用。这不是一种推荐的方式,更多时候,我们优先考虑哨兵模式。Redis从2.8开始正式提供了Sentinel (哨兵)架构来解决这个问题。
谋朝篡位的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库。
哨兵模式是一种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它会独立运行。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例。
这里的哨兵有两个作用
- 通过发送命令,让Redis服务器返回监控其运行状态,包括主服务器和从服务器。
- 当哨兵监测到master宕机,会自动将slave切换成master,然后通过发布订阅模式通知其他的从服务器,修改配置文件,让它们切换主机。
然而一个哨兵进程对Redis服务器进行监控,可能会出现问题,为此,我们可以使用多个哨兵进行监控。各个哨兵之间还会进行监控,这样就形成了多哨兵模式。
假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover过程,仅仅是哨兵1主观的认为主服务器不可用,这个现象成为主观下线。当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行failover[故障转移]操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线。
测试
我们目前的状态是一主二从!
1、配置哨兵配置文件sentinel.conf
# sentinel monitor 被监控的名称 host port 1
# 后面的这个数字1,代表主机挂了,slave投票看让谁接替成为主机,票数最多的,就会成为主机
sentinel monitor myredis 127.0.0.1 6379 1
2、启动哨兵
redis-sentinel sentinel.conf
# ...可以看到具体的信息
如果Master节点断开了,这个时候就会从从机中随机选择一个服务器作为主机! (这里面有一个投票算法! )
如果主机此时回来了,只能归并到新的主机下,当作从机,这就是哨兵模式的规则。
哨兵模式
优点:
1、哨兵集群,基于主从复制模式,所有的主从配置优点,它全有
2、主从可以切换,故障可以转移,系统的可用性就会更好
3、哨兵模式就是主从模式的升级,手动到自动,更加健壮!
缺点:
1, Redis不好啊在线扩容的,集群容量一旦到达上限,在线扩容就十分麻烦!
2、实现哨兵模式的配置其实是很麻烦的,里面有很多选择!
哨兵模式的全部配置
# Example sentinel.conf
# 哨兵sentine1实例运行的端口默认26379
port 26379
# 哨兵sentinel的工作目录
dir /tmp
# 哨兵sentine1监控的redis主节点的ip port
# master-name 可以自己命名的主节点名字只能由字母A-z、数字0-9、这三个字符".-_"组成。
# quorum配置多少个sentine1哨兵统一认为master主节点失联那么这时客观上认为主节点失联了
# sentinel monitor <master-name> <ip> <redis-port> <quorum>
sentinel monitor mymaster 127.0.0.1 6379 2
# 当在Redis实例中开启了requirepass foobared授权密码这样所有连接Redis实例的客户端都要提供密码
# 设置哨兵sentinel连接主从的密码注意必须为主从设置一样的验证密码
# sentinel auth-pass <master-name> <password>
sentinel auth-pass mymaster MySUPER--secret-0123password
# 指定多少毫秒之后主节点没有应答哨兵sentine1此时哨兵主观上认为主节点下线默认30秒
#sentinel down-after-mil7iseconds <magter-name> <mil1iseconds>
sentinel down-after-milliseconds mymaster 30000
#这个配置项指定了在发生failover主备切换时最多可以有多少个slave同时对新的master进行同步,
# 这个数字越小,完成failover所需的时间就越长,
# 但是如果这个数字越大,就意味着越多的slave因为replication而不可用。
# 可以通过将这个值设为1来保证每次只有一个slave处于不能处理命令请求的状态。
# sentinel parallel-syncs <master-name> <numslaves>
sentinel parallel-syncs mymaster 1
# 故障转移的超时时间failover-timeout可以用在以下这些方面:
# 1.同一个sentine1对同一个master两次failover之间的间隔时间。
# 2.当一个sTave从一个错误的master那里同步数据开始计算时间。直到slave被纠正为向正确的master那里同步数据时。
# 3,当想要取消一个正在进行的failover所需要的时间。
# 4,当进行failover时,配置所有slaves指向新的master所需的最大时间。不过,即使过了这个超时, slaves依然会被正确配置为指向master,但是就不按parallel-syncs所配置的规则来了
# 默认三分钟
# sentinel failover-timeout <master-name> <milliseconds>
sentinel failover-timeout mymaster 180000
# SCRIPTS EXECUTION
# 配置当某一事件发生时所需要执行的脚本,可以通过脚本来通知管理员,例如当系统运行不正常时发邮件通知相关人员。
# 对于脚本的运行结果有以下规则:
# 若脚本执行后返回1,那么该脚本稍后将会被再次执行,重复次数目前默认为10
# 若脚本执行后返回2,或者比2更高的一个返回值,脚本将不会重复执行。
# 如果脚本在执行过程中由于收到系统中断信号被终止了,则同返回值为1时的行为相同。
# 一个脚本的最大执行时间为60s,如果超过这个时间,脚本将会被一个SIGKILL信号终止,之后重新执行。
# 通知型脚本: 当sentine1有任何警告级别的事件发生时(比如说redis实例的主观失效和客观失效等等) ,将会去调用这个脚本,这时这个脚本应该通过邮件, SMS等方式去通知系统管理员关于系统不正常运行的信息。调用该脚本时,将传给脚本两个参数,一个是事件的类型,一个是事件的描述。如果sentine1.conf配置文件中配置了这个脚本路径,那么必须保证这个脚本存在于这个路径,并且是可执行的,否则sentinel无法正常启动成功.
# 通知脚本
# sentinel notification-script <master-name> <script-path>
sentinel notification-script mymaster /var/redis/notify.sh
# 客户端重新配置主节点参数脚本
# 当一个master由于failover而发生改变时,这个脚本将会被调用,通知相关的客户端关于master地址已经发生改变的信息。
# 以下参数将会在调用脚本时传给脚本:
# <master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
# 目前<state>总是"failover"
# <role>是"Teader"或者"observer"中的一个。
# 参数from-ip, from-port, to-ip, to-port是用来和旧的master和新的master(即旧的slave)通信的
# 这个脚本应该是通用的,能被多次调用,不是针对性的。
# sentinel client-reconfig-script <master-name> <script-path>
sentinel client-reconfig-script mymaster /var/redis/reconfig.sh
Redis缓存穿透和雪崩
服务的高可用问题
Redis缓存的使用,极大的提升了应用程序的性能和效率,特别是数据查询方面。但同时,它也带来了一些问题。其中,最要害的问题,就是数据的一致性问题,从严格意义上讲,这个问题无解。如果对数据的一致性要求很高,那么就不能使用缓存。
另外的一些典型问题就是,缓存穿透、缓存雪崩和缓存击穿。目前,业界也都有比较流行的解决方案。
缓存穿透(查不到)
概念
缓存穿透的概念很简单,用户想要查询一个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中,于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就相当于出现了缓存穿透。
解决方案
布隆过滤器
布隆过滤器是一种数据结构,对所有可能查询的参数以hash形式存储,在控制层先进行校验,不符合则丢弃,从而避免了对底层存储系统的查询压力;
缓存空对象
当存储层不命中后,即使返回的空对象也将其缓存起来,同时会设置一个过期时间,之后再访问这个数据将会从缓存中获取,保护了后端数据源;
但是这种方法会存在两个问题:
1、如果空值能够被缓存起来,这就意味着缓存需要更多的空间存储更多的键,因为这当中可能会有很多的空值的键;
2、即使对空值设置了过期时间,还是会存在缓存层和存储层的数据会有一段时间窗口的不一致,这对于需要保持一致性的业务会有影响。
缓存击穿(量太大)
概述
这里需要注意和缓存击穿的区别,缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞。
当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导使数据库瞬间压力过大。
解决方案
设置热点数据永不过期
从缓存层面来看,没有设置过期时间,所以不会出现热点key过期后产生的问题。
加互斥锁
分布式锁:使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大。
缓存雪崩
概念
缓存雪崩,是指在某一个时间段,缓存集中过期失效。Redis宕机!
产生雪崩的原因之一,比如在写本文的时候,马上就要到双十二零点,很快就会迎来一波抢购,这波商品时间比较集中的放入了缓存,假设缓存一个小时。那么到了凌晨一点钟的时候,这批商品的缓存就都过期了。而对这批商品的访问查询,都落到了数据库上,对于数据库而言,就会产生周期性的压力波峰。于是所有的请求都会达到存储层,存储层的调用量会暴增,造成存储层也会挂掉的情况。
其实集中过期,倒不是非常致命,比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因为自然形成的缓存雪崩,一定是在某个时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就是对数据库产生周期性的压力而已。而缓存服务节点的宕机,对数据库服务器造成的压力是不可预知的,很有可能瞬间就把数据库压垮。
解决方案
redis高可用
这个思想的含义是,既然redis有可能挂掉,那我多增设几台redis ,这样一台挂掉之后其他的还可以继续工作,其实就是搭建的集群。(异地多活!)
限流降级
这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量。比如对某个key只允许一个线程查询数据和写缓存,其他线程等待。
数据预热
数据加热的含义就是在正式部署之前,我先把可能的数据先预先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即将发生大并发访问前手动触发加载缓存不同的key ,设置不同的过期时间,让缓存失效的时间点尽量均匀
评论区