哪些网站可以做视频搬运,泰兴做网站的公司,网站建设维护是什么岗位,微芒科技网站建设top详细解读redis配置文件
https://raw.githubusercontent.com/redis/redis/6.2/redis.conf
Units
配置数据单位换算关系配置大小单位#xff1a;当需要内存大小时#xff0c;可以指定。开头定义了一些基本的度量单位#xff0c;只支持bytes#xff0c;不支持bit#xff0…详细解读redis配置文件
https://raw.githubusercontent.com/redis/redis/6.2/redis.conf
Units
配置数据单位换算关系配置大小单位当需要内存大小时可以指定。开头定义了一些基本的度量单位只支持bytes不支持bit大小写不敏感因此 1GB 1Gb 1gB 都是一样的
################## 该部分用于指定存储单位的大小换算关系不区分大小写只支持bytes不支持bits
# 1k 1000 bytes
# 1kb 1024 bytes
# 1m 1000000 bytes
# 1mb 1024*1024 bytes
# 1g 1000000000 bytes
# 1gb 1024*1024*1024 bytes
#
# units are case insensitive so 1GB 1Gb 1gB are all the same.
包含其它配置文件的信息 include path
对于公共部分配置可以按以下方式配置引入。类似jsp中的include多实例的情况可以把公用的配置文件提取出来
# include /path/to/local.conf
# include /path/to/other.conf
Network 网络相关
bind IP1 [IP2 …]
这项配置绑定的IP并不是远程访问的客户端的IP地址而是本机的IP地址。
# bind 192.168.1.100 10.0.0.1
# bind 127.0.0.1 ::1
bind 127.0.0.1
本机的IP地址是和网卡network interfaces绑定在一起的配置这项后Redis只会接收来自指定网卡的数据包。比如我的主机有以下网卡
rootVM-4-5-ubuntu:~# ifconfig
eth0: flags4163UP,BROADCAST,RUNNING,MULTICAST mtu 1500inet 10.0.4.5 netmask 255.255.252.0 broadcast 10.0.7.255inet6 fe80::5054:ff:fe0b:843 prefixlen 64 scopeid 0x20linkether 52:54:00:0b:08:43 txqueuelen 1000 (Ethernet)RX packets 283943 bytes 28027507 (28.0 MB)RX errors 0 dropped 0 overruns 0 frame 0TX packets 280878 bytes 43033240 (43.0 MB)TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0lo: flags73UP,LOOPBACK,RUNNING mtu 65536inet 127.0.0.1 netmask 255.0.0.0inet6 ::1 prefixlen 128 scopeid 0x10hostloop txqueuelen 1000 (Local Loopback)RX packets 35168 bytes 2582220 (2.5 MB)RX errors 0 dropped 0 overruns 0 frame 0TX packets 35168 bytes 2582220 (2.5 MB)TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
如果我想要让Redis可以远程连接的话就需要让Redis监听eht0这块网卡也就是要加上配置bind 127.0.0.1 10.0.4.5这样既可以本地访问也能够远程访问。主要bind只能有一行配置如果有多个网卡要监听就配置多个ip用空格隔开否者只有配置的最后一个bind生效。
保护模式 protected-mode
从注释信息就可以看到如果protected-mode是yes的话如果没有指定bind或者没有指定密码那么只能本地访问。
protected-mode yes
端口号 port
配置Redis监听的端口号默认6379。
# Accept connections on the specified port, default is 6379 (IANA #815344).
# If port 0 is specified Redis will not listen on a TCP socket.
port 6379
TCP半连接队列长度配置 tcp-backlog
在进行TCP/IP连接时内核会维护两个队列
syns queue用于保存已收到sync但没有接收到ack的TCP半连接请求。由/proc/sys/net/ipv4/tcp_max_syn_backlog指定我的系统Ubuntu20.04上是1024。accept queue用于保存已经建立的连接也就是全连接。由/proc/sys/net/core/somaxconn指定。
根据配置里的注释需要同时提高somaxconn和tcp_max_syn_backlog的值来确保生效。
tcp-backlog 511
是否超时无操作关闭连接 timeout
客户端经过多少时间单位秒没有操作就关闭连接0代表永不关闭。
timeout 0
TCP连接保活策略 tcp-keepalive
TCP连接保活策略可以通过tcp-keepalive配置项来进行设置单位为秒假如设置为60秒则server端会每60秒向连接空闲的客户端发起一次ACK请求以检查客户端是否已经挂掉对于无响应的客户端则会关闭其连接。如果设置为0则不会进行保活检测。
tcp-keepalive 300
GENERAL 通用配置
启动方式 daemonize 是否以守护后台进程的方式启动默认no。
daemonize yes
进程pid文件 pidfile
redis启动后会把pid写入到pidfile指定的文件中。
pidfile /var/run/redis_6379.pid
进程pid文件 pidfile
redis启动后会把pid写入到pidfile指定的文件中。
pidfile /var/run/redis_6379.pid
日志相关 loglevel logfile
loglevel用于配置日志打印机别默认notice
debug能设置的最高的日志级别打印所有信息包括debug信息。verbose打印除了debug日志之外的所有日志。notice打印除了debug和verbose级别的所有日志。warning仅打印非常重要的信息。
loglevel noticelogfile
指定数据库的数量 databse
redis默认有16个数据库编号从0开始。
databases 16
启动是否显示logo
always-show-logo yes
SNAPSHOTTING 快照相关
SECURITY 安全相关
################################## SECURITY #################################### Warning: since Redis is pretty fast, an outside user can try up to
# 1 million passwords per second against a modern box. This means that you
# should use very strong passwords, otherwise they will be very easy to break.
# Note that because the password is really a shared secret between the client
# and the server, and should not be memorized by any human, the password
# can be easily a long string from /dev/urandom or whatever, so by using a
# long and unguessable password no brute force attack will be possible.
大致意思就是redis很快所以被破解密码时性能也很好如果你的密码太渣渣了那么可能很快就被破解了因此尽量使用长且不容易被猜到的密码作为redis的访问密码。
配置ACL
ACL访问控制列表。
有两种方法配置ACL
在命令行通过ACL命令进行配置在Redis配置文件中开始可以直接在redis.conf中配置也可以通过外部aclfile配置。aclfile path。
配置语法user username ... acl rules ...例如 user worker list connection ~jobs:* on ffa9203c493aa99
redis默认有一个default用户。如果default具有nopass规则就是说没有配置密码那么新连接将立即作为default用户登录无需通过AUTH命令提供任何密码。否则连接会在未验证状态下启动并需要AUTH验证才能开始工作。
描述用户可以做的操作的ACL规则如下
启用或禁用用户已经建立的连接不会生效 on 启用用户该用户可以验证身份登陆。off 禁用用户该用户不允许验证身份登陆。允许/禁止用户执行某些命令 command 允许用户执行command指示的命令✅-command 禁止用户执行command指示的命令category 允许用户执行category分类中的所有命令✅-category 禁止用户执行category分类中的所有命令command|subcommand 允许执行某个被禁止的command的子命令subcommand。没有对应的-规则。✅allcommands all的别名允许执行所有命令。✅nocommands -all的别名禁止执行所有命令。允许/禁止用户访问某些Key ~pattern 添加用户可以访问的Key比如~*代表用户可以访问所有key~K*代表用户可访问以K开头的key。✅allkeys 等价于~*✅resetkeys ~pattern 刷新允许模式的列表会覆盖之前设置的模式。例如 user test ~* resetkeys ~K*则只允许访问匹配K*的键~*失效。✅为用户配置有效密码 password 将密码添加到用户的有效密码列表中。例如user test mypass on则用户test可以使用mypass验证。password 将密码从用户的有效密码列表中删除即不可以使用该密码验证。nopass 使用任意密码都可以成功验证。resetpass 清除用户可用密码列表的数据并清除 nopass 状态。之后该用户不能登陆。直到重新设置密码/设置nopass。reset 重置用户到初始状态。该命令会执行以下操作resetpass, resetkeys, off,-all。ACL日志配置
设置ACL日志最大长度默认128个记录。这个日志是存在内存里的。
acllog-max-len 128
外部ACL文件配置
默认位置etc/redis/users.acl我们可以在这个文件中定义所有用户的ACL控制信息。
aclfile /etc/redis/users.acl
配置默认用户default的密码
该配置只对默认用户default生效。
requirepass yourpass
CLIENTS 客户端配置
设置最大同时客户端连接数
设置可以同时连接客户端的最大数量。默认该项设置为 10000 个客户端。达到限制值后的连接会被拒绝并会返回错误信息。
maxclients 10000
MEMORY MANAGEMENT 内存管理
maxmemory最大内存限制 指定Redis最大内存限制。达到内存限制时Redis将尝试删除已到期或即将到期的Key。 建议设置否则将内存占满造成服务器宕机设置redis可以使用的内存量。一旦到达内存使用上限redis将会试图移除内部数据移除规则可以通过maxmemory-policy来指定。如果redis无法根据移除规则来移除内存中的数据或者设置了“不允许移除”那么redis则会针对那些需要申请内存的指令返回错误信息比如SET、LPUSH等。但是对于无内存申请的指令仍然会正常响应比如GET等。如果你的redis是主redis说明你的redis有从redis那么在设置内存使用上限时需要在系统中留出一些内存空间给同步队列缓存只有在你设置的是“不移除”的情况下才不用考虑这个因素。
maxmemory bytes
达到最大内存限制时的策略maxmemory-policy
配置达到最大内存限制后Redis进行何种操作。默认noeviction
maxmemory-policy noeviction
总共有8种策略可供选择。
volatile-lru 只对设置了过期时间的Key进行淘汰淘汰算法近似的LRU。allkeys-lru 对所有Key进行淘汰LRU。volatile-lfu 只对设置了过期时间的Key进行淘汰淘汰算法近似的LFU。allkeys-lfu 对所有Key进行淘汰LFU。volatile-random 只对设置了过期时间的Key进行淘汰淘汰算法为随机淘汰。allkeys-random 对所有Key进行淘汰随机淘汰。volatile-ttl 只对设置了过期时间的Key进行淘汰删除即将过期的即ttl最小的。noeviction 永不删除key达到最大内存再进行数据装入时会返回错误。
对于可以通过删除key来释放内存的策略如果没有key可以删除了那么也会报错。
使用LRU/LFU/TTL算法时采样率
Redis使用的是近似的LRU/LFU/minimal TTL算法。主要是为了节约内存以及提升性能。Redis配置文件有maxmemory-samples选项可以配置每次取样的数量。Redis每次会选择配置数量的key然后根据算法从中淘汰最差的key。
maxmemory-samples 5
可以通过修改这个配置来获取更高的淘汰精度或者更好的性能。默认值5就可以获得很好的结果。选择10可以非常接近真是的LRU算法但是会耗费更多的CPU资源。3的话更快但是淘汰结果不是特别准确。
从库不淘汰数据
配置Redis主从复制时从库超过maxmemory也不淘汰数据。这个配置主要是为了保证主从库的一致性因为Redis的淘汰策略是随机的如果允许从库自己淘汰key那么会导致主从不一致的现象出现master节点删除key的命令会同步给slave节点。
replica-ignore-maxmemory yes
过期keys驻留在内存中的比例
设置过期keys仍然驻留在内存中的比重默认是为1表示最多只能有10%的过期key驻留在内存中该值设置的越小那么在一个淘汰周期内消耗的CPU资源也更多因为需要实时删除更多的过期key。
active-expire-effort 1
LAZY FREEING 懒惰删除
# Redis has two primitives to delete keys. One is called DEL and is a blocking
# deletion of the object. It means that the server stops processing new commands
# in order to reclaim all the memory associated with an object in a synchronous
# way. If the key deleted is associated with a small object, the time needed
# in order to execute the DEL command is very small and comparable to most other
# O(1) or O(log_N) commands in Redis. However if the key is associated with an
# aggregated value containing millions of elements, the server can block for
# a long time (even seconds) in order to complete the operation.
#
# For the above reasons Redis also offers non blocking deletion primitives
# such as UNLINK (non blocking DEL) and the ASYNC option of FLUSHALL and
# FLUSHDB commands, in order to reclaim memory in background. Those commands
# are executed in constant time. Another thread will incrementally free the
# object in the background as fast as possible.
# DEL, UNLINK and ASYNC option of FLUSHALL and FLUSHDB are user-controlled.
# Its up to the design of the application to understand when it is a good
# idea to use one or the other. However the Redis server sometimes has to
# delete keys or flush the whole database as a side effect of other operations.
# Specifically Redis deletes objects independently of a user call in the
# following scenarios:
#
# 1) On eviction, because of the maxmemory and maxmemory policy configurations,
# in order to make room for new data, without going over the specified
# memory limit.
# 2) Because of expire: when a key with an associated time to live (see the
# EXPIRE command) must be deleted from memory.
# 3) Because of a side effect of a command that stores data on a key that may
# already exist. For example the RENAME command may delete the old key
# content when it is replaced with another one. Similarly SUNIONSTORE
# or SORT with STORE option may delete existing keys. The SET command
# itself removes any old content of the specified key in order to replace
# it with the specified string.
# 4) During replication, when a replica performs a full resynchronization with
# its master, the content of the whole database is removed in order to
# load the RDB file just transferred.
#
# In all the above cases the default is to delete objects in a blocking way,
# like if DEL was called. However you can configure each case specifically
# in order to instead release memory in a non-blocking way like if UNLINK
# was called, using the following configuration directives.
翻译上面的话就是
Redis有两个删除keys的原语。一个是DEL并且它是一个阻塞的删除对象的操作。意味着server会停止处理新的command以便以同步的方式回收与对象关联的所有内存。如果被删除的key关联的是一个小对象那么执行DEL命令所需要的时间非常短与Redis中其它O(1)或O(log_N)的命令时间开销几乎一样。然鹅如果key与包含了数百万个元素的大对象相关联那么服务器为了完成删除命令会阻塞很长时间甚至几秒钟。
出于以上原因Redis提供了非阻塞的删除原语例如UNLINK(非阻塞式的DEL)和FLUSHALL、FLUSHDB命令的ASYNC选项以便在后台回收内存。这些命令会在常量固定的时间内执行。另外一个线程会在后台尽可能快的以渐进式的方式释放对象。
使用DEL,UNLINK以及FLUSHALL和FLUSHDB的ASYNC选项是由用户来控制的。这应该由应用程序的设计来决定使用其中的哪一个。 然鹅作为其它操作的副作用Redis server有时不得不去删除keys或者刷新整个数据库。具体来说Redis在以下情况下会独立于用户调用而删除对象
1 由于maxmemory 和maxmemory policy的设置为了在不超出指定的内存限制而为新对象腾出空间而逐出旧对象
2 因为过期当一个key设置了过期时间且必须从内存中删除时
3 由于在已经存在的key上存储对象的命令的副作用。例如RENAME命令可能会删除旧的key的内容当该key的内容被其它内容代替时。类似的SUNIONSTORE或者带STORE选项的SORT命令可能会删除已经存在的keys。SET命令会删除指定键的任何旧内容以便使用指定字符串替换。
4在复制过程中当副库与主库执行完全重新同步时整个数据库的内容将被删除以便加载刚刚传输的RDB文件。
在上述所有情况下默认情况是以阻塞方式删除对象就像调用DEL一样。但是你可以使用以下配置指令专门配置每种情况以非阻塞的方式释放内存就像调用UNLINK一样。
相关的配置 # 内存达到设置的maxmemory时是否使用惰性删除对应上面 1
lazyfree-lazy-eviction no
# 过期keys是否惰性删除对应上面 2
lazyfree-lazy-expire no
# 内部删除选项对应上面选项 3的情况是否惰性删除
lazyfree-lazy-server-del no
# slave接收完RDB文件后清空数据是否是惰性的对应上面情况 4
replica-lazy-flush no# It is also possible, for the case when to replace the user code DEL calls
# with UNLINK calls is not easy, to modify the default behavior of the DEL
# command to act exactly like UNLINK, using the following configuration
# directive:# 是否将DEL调用替换为UNLINK注释里写的从user code里替换DEL调用为UNLINK调用可能并不是一件
# 容易的事因此可以使用以下选项将DEL的行为替换为UNLINK
lazyfree-lazy-user-del no
THREADED I/O
Redis大体上是单线程的但是也有一些场景使用额外的线程去做的比如UNLINK、slow I/O accesses。
现在还可以在不同的I/O线程中处理Redis客户端socket读写。只是网络IO这块儿成了多线程执行命令的那个家伙还是单线程特别是因为写操作很慢通常Redis的用户使用pipeline来提升每个核心下的Redis性能并且运行多个Redis实例来实现扩展。使用多线程I/O不需要使用pipeline和实例切分就可以轻松的提升两倍的性能。
默认情况下多线程是禁用的我们建议只在至少有4个或更多内核的机器中启用多线程至少保留一个备用内核。使用超过8个线程不太可能有多大帮助。我们还建议仅当您确实存在性能问题时才使用线程化I/O因为除非Redis实例能够占用相当大的CPU时间否则使用此功能没有意义。 redis.conf相关配置翻译 配置IO线程数
如果你的机器是4核的可以配置2个或者3个线程。如果你有8核可以配置6个线程。通过下面这个参数来配置线程数 io-threads 4
将io-threads设置为1将只使用主线程。当启用I/O线程时我们只使用多线程进行写操作也就是说执行write(2)系统调用并将Client缓冲区传输到套接字。但是也可以通过将以下配置指令设置为yes来启用读取线程和协议解析 io-threads-do-reads no
通常情况下多线程的read并没有什么卵用。
需要注意的两点是
这两个配置不能运行时通过CONFIG SET来改变而且开启SSL功能时多线程I/O同样不会生效。如果你想用benchmark脚本测试多线程下的性能提升确保benchmark也是多线程模式在后面加上--threads参数来匹配Redis的线程数。不然看不到什么性能提升。
KERNEL OOMCONTROL 设置OOM时终止哪些进程
在Linux上可以提示内核OOM killer在OOM发生时应该首先终止哪些进程。
启用此功能可使Redis根据其角色主动控制其所有进程的oom_score_adj值。默认分数将尝试在所有其他进程之前杀死背景子进程并在主进程之前杀死从节点进程。
Redis支持三个选项
no对oom-score-adj不做任何修改默认值yesrelative的别名absoluteoom-score-adj-values配置的值将写入内核relative当服务器启动时使用相对于oom_score_adj初始值的值然后将其限制在-1000到1000的范围内。因为初始值通常为0所以它们通常与绝对值匹配。 oom-score-adj no
当使用oom-score-adj选项不为no时该指令控制用于主、从和后台子进程的特定值。数值范围为-2000到2000越高意味着死亡的可能性越大。
非特权进程不是根进程也没有CAP_SYS_RESOURCE功能可以自由地增加它们的价值但不能将其降低到初始设置以下。这意味着将oom score adj设置为“相对”并将oom score adj值设置为正值将始终成功 # 分别控制主进程、从进程和后台子进程的值
oom-score-adj-values 0 200 800
APPEND ONLY MODE AOF持久化配置
开始/关闭aof appendonly no
aof文件名称 appendfilename appendonly.aof
执行fsync()系统调用刷盘的频率 appendfsync everysec
everysec每秒执行可能会丢失最后一秒的数据。always每次写操作执行数据最安全但是对性能有影响。no不强制刷盘由内核决定什么时候刷盘数据最不安全性能最好。当有后台保存任务时关闭appendfsync
当后台在执行save任务或者aof文件的rewrite时会对磁盘造成大量I/O操作在某些Linux配置中Redis可能会在fsync()系统调用上阻塞很长时间。需要注意的是目前还没有很好的解决方法因为即使是在不同的线程中执行fsync()调用也会阻塞write(2)调用。
为了缓解上述问题可以使用以下选项防止在进行BGSAVE或者BGREWRITEAOF时在主进程中调用fsync()。
这意味这如果有其它子进程在执行saving任务时Redis的行为相当于配置了appendfsync none。实际上这意味着在最坏的情况下使用Linux默认设置可能丢失最多30s的日志。
如果您有延迟的问题性能问题将此设置为“yes”否则设置为“no”。从持久化的角度看这是最安全的选择。 no-appendfsync-on-rewrite no
自动重写aof文件
在AOF文件大小增长到了指定的百分比相对于上次AOF文件大小的增长量或者最小体积时自动调用BGREWRITEAOF命令重写AOF文件。 auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
AOF文件末尾被截断
在Redis启动过程的最后当AOF数据加载回内存时可能会发现AOF文件被截断。当运行Redis的系统崩溃时可能会发生这种情况尤其是在安装ext4文件系统时没有dataordered选项然而当Redis本身崩溃或中止但操作系统仍然正常工作时这种情况不会发生。
Redis可以在出现这种情况时带着错误退出也可以加载尽可能多的数据现在是默认值并在发现AOF文件在最后被截断时启动。以下选项控制此行为。
如果aof load truncated设置为yes则会加载一个被截断的aof文件Redis服务器开始发送日志通知用户该事件。否则如果该选项设置为“no”服务器将因错误而中止并拒绝启动。当选项设置为“no”时用户需要使用“redis-check-aof”实用程序修复AOF文件然后才能重新启动服务器。
请注意如果在中间发现AOF文件已损坏服务器仍将退出并出现错误。此选项仅适用于Redis尝试从AOF文件读取更多数据但找不到足够字节的情况。 aof-load-truncated yes
开启混合持久化
当重写AOF文件时Redis能够在AOF文件中使用RDB前导以更快地重写和恢复。启用此选项后重写的AOF文件由两个不同的节组成
[RDB file][AOF tail]
加载时Redis识别出AOF文件以“Redis”字符串开头并加载带前缀的RDB文件然后继续加载AOF尾部。 aof-use-rdb-preamble yes
LUA SCRIPTING-LUA脚本相关
配置LUA脚本最大执行时长
单位毫秒默认5s。当脚本运行时间超过限制后Redis将开始接受其他命令当不会执行而是会返回BUSY错误。 lua-time-limit 5000
REDIS CLUSTER 集群配置
允许集群模式 只有以集群模式启动的Redis实例才能作为集群的节点 cluster-enabled yes
集群配置文件
由Redis创建维护不需要我们关心内容只需要配好位置即可 cluster-config-file nodes-6379.conf
节点超时时间
集群模式下master节点之间会互相发送PING心跳来检测集群master节点的存活状态超过配置的时间没有得到响应则认为该master节点主观宕机。 cluster-node-timeout 15000
设置副本有效因子
副本数据太老旧就不会被选为故障转移的启动者。
副本没有简单的方法可以准确测量其“数据年龄”因此需要执行以下两项检查
如果有多个复制副本能够进行故障切换则它们会交换消息以便尝试为具有最佳复制偏移量的副本提供优势已经从master接收了尽可能多的数据的节点更可能成为新master。复制副本将尝试按偏移量获取其排名并在故障切换开始时应用与其排名成比例的延迟排名越靠前的越早开始故障迁移。每个副本都会计算最后一次与其主副本交互的时间。这可以是最后一次收到的PING或命令如果主机仍处于“已连接”状态也可以是与主机断开连接后经过的时间如果复制链路当前已关闭。如果最后一次交互太旧复制副本根本不会尝试故障切换。
第二点的值可以由用户调整。特别的如果自上次与master交互以来经过的时间大于(node-timeout * cluster-replica-validity-factor) repl-ping-replica-period则不会成为新的master。
较大的cluster-replica-validity-factor可能允许数据太旧的副本故障切换到主副本而太小的值可能会阻止群集选择副本。
为了获得最大可用性可以将cluster-replica-validity-factor设置为0这意味着无论副本上次与主机交互的时间是什么副本都将始终尝试故障切换主机。不过他们总是会尝试应用与其偏移等级成比例的延迟。
0是唯一能够保证当所有分区恢复时集群始终能够继续的值保证集群的可用性。 cluster-replica-validity-factor 10
设置master故障转移时保留的最少副本数
群集某个master的slave可以迁移到孤立的master即没有工作slave的master。这提高了集群抵御故障的能力因为如果孤立master没有工作slave则在发生故障时无法对其进行故障转移。
只有在slave的旧master的其他工作slave的数量至少为给定数量时slave才会迁移到孤立的master。这个数字就是cluster-migration-barrier。值为1意味着slave只有在其master至少有一个其他工作的slave时才会迁移以此类推。它通常反映集群中每个主机所需的副本数量。
默认值为1仅当副本的主副本至少保留一个副本时副本才会迁移。要禁用迁移只需将其设置为非常大的值。可以设置值0但仅对调试有用并且在生产中很危险。 cluster-migration-barrier 1
哈希槽全覆盖检查
默认情况下如果Redis群集节点检测到至少有一个未覆盖的哈希槽没有可用的节点为其提供服务它们将停止接受查询。这样如果集群部分关闭例如一系列哈希槽不再被覆盖那么所有集群最终都将不可用。一旦所有插槽再次被覆盖它就会自动返回可用状态。
然而有时您希望正在工作的集群的子集继续接受对仍然覆盖的密钥空间部分的查询。为此只需将cluster-require-full-coverage选项设置为no。 cluster-require-full-coverage yes
是否自动故障转移
当设置为“yes”时此选项可防止副本在主机故障期间尝试故障切换master。但是如果被迫这样做主机仍然可以执行手动故障切换。
这在不同的场景中很有用尤其是在多个数据中心运营的情况下如果不在DCDataCenter完全故障的情况下我们希望其中一方永远不会升级为master。 cluster-replica-no-failover no
集群失败时允许节点处理读请求
此选项设置为“yes”时允许节点在集群处于关闭状态时提供读取流量只要它认为自己拥有这些插槽。
这对两种情况很有用。第一种情况适用于在节点故障或网络分区期间应用程序不需要数据一致性的情况。其中一个例子是缓存只要节点拥有它应该能够为其提供服务的数据。
第二个用例适用于不满足三个分片集群但又希望启用群集模式并在以后扩展的配置。不设置该选项而使用1或2分片配置中的master中断服务会导致整个集群的读/写服务中断。如果设置此选项则只会发生写中断。如果达不到master的quorum客观宕机数值插槽所有权将不会自动更改。 cluster-allow-reads-when-down no
CLUSTER DOCKER/NAT support
声明访问IP、port
以下三项设置对NAT网络或者Docker的支持。
因为NAT端口映射的IP地址在局域网之外是没办法访问到的因此在这种情况下要声明集群的公网网关NAT映射/宿主机的IP地址以便局域网之外也可以访问到NAT映射后的/Docker容器内的Redis集群中的每个实例。
cluster-announce-bus-port集群节点之间进行数据交换的额外端口。 cluster-announce-ip
cluster-announce-port
cluster-announce-bus-port
SLOW LOG 慢日志
Redis的慢查询日志功能用于记录执行时间超过给定时长的命令请求用户可以通过这个功能产生的日志来监视和优化查询速度
设置慢日志记录阈值
超过这个值的命令会被记录到慢日志中默认10000微秒。 slowlog-log-slower-than microseconds
慢日志文件大小
可以通过这个配置改变慢日志文件的最大长度超过这个长度后最旧的记录会被删除。默认128。 slowlog-max-len 128
LATENCY MONITOR 延迟监控
Redis延迟监控子系统在运行时对不同的操作进行采样以收集与Redis实例可能的延迟源相关的数据。
通过延迟命令用户可以打印图表和获取报告。
系统仅记录在等于或大于通过延迟监视器阈值配置指令指定的毫秒数的时间内执行的操作。当其值设置为零时延迟监视器将关闭。
默认情况下延迟监控是禁用的因为如果没有延迟问题通常不需要延迟监控而且收集数据会对性能产生影响虽然影响很小但可以在大负载下进行测量。如果需要可以在运行时使用命令CONFIG SET latency-monitor-threshold millists轻松启用延迟监控。
设置延迟阈值 latency-monitor-threshold 0
EVENT NOTIFICATION 事件通知
实时的监控keys和values的更改。
Redis可以将key space中发生的事件通过发布/订阅通知客户端。
例如如果notify-keyspace-events已经启用并且客户端对数据库0中存储的键foo执行DEL操作则将通过Pub/Sub发布两条消息
PUBLISH keyspace0:foo delPUBLISH keyevent0:del foo
可以在一组类中选择Redis将通知的事件。每个类由一个字符标识
K Keyspace事件通过__keyspacedb__前缀发布。E Keyevent事件通过__keyeventdb__ 前缀发布。g 通用命令非特定类型例如DELEXPIRERENAME…$ String相关命令l List相关命令s Set相关命令h Hash相关命令z Sorted SetZSet相关命令x 过期事件每次key过期时生成的事件e 回收事件达到maxmemory时回收key的事件t Stream相关命令m Key-miss events访问的key不存在时触发A g$lshzxet的别名因此AKE代表了除了m之外的所有事件。
默认情况下所有事件通知都是关闭的因为大多数用户不需要这些特性。且需要至少有K或者E时事件通知才会生效。 notify-keyspace-events
GOPHER SERVER Gopher协议
开启Gopher协议大体意思就是说这是一个90年代很流行的Web协议客户端和服务端实现都非常简单Redis服务器只需要100行代码就能支持它。一些人想要一个更简单的互联网另一些人认为主流互联网变得过于受控为想要一点新鲜空气的人创造一个替代空间是很酷的。总之为了庆祝Redis诞生10周年Redis的作者将这个协议支持作为礼物送给了Redis。 # Redis contains an implementation of the Gopher protocol, as specified in
# the RFC 1436 (https://www.ietf.org/rfc/rfc1436.txt).
#
# The Gopher protocol was very popular in the late 90s. It is an alternative
# to the web, and the implementation both server and client side is so simple
# that the Redis server has just 100 lines of code in order to implement this
# support.
#
# What do you do with Gopher nowadays? Well Gopher never *really* died, and
# lately there is a movement in order for the Gopher more hierarchical content
# composed of just plain text documents to be resurrected. Some want a simpler
# internet, others believe that the mainstream internet became too much
# controlled, and its cool to create an alternative space for people that
# want a bit of fresh air.
#
# Anyway for the 10nth birthday of the Redis, we gave it the Gopher protocol
# as a gift.
#
# --- HOW IT WORKS? ---
#
# The Redis Gopher support uses the inline protocol of Redis, and specifically
# two kind of inline requests that were anyway illegal: an empty request
# or any request that starts with / (there are no Redis commands starting
# with such a slash). Normal RESP2/RESP3 requests are completely out of the
# path of the Gopher protocol implementation and are served as usual as well.
#
# If you open a connection to Redis when Gopher is enabled and send it
# a string like /foo, if there is a key named /foo it is served via the
# Gopher protocol.
#
# In order to create a real Gopher hole (the name of a Gopher site in Gopher
# talking), you likely need a script like the following:
#
# https://github.com/antirez/gopher2redis
#
# --- SECURITY WARNING ---
#
# If you plan to put Redis on the internet in a publicly accessible address
# to server Gopher pages MAKE SURE TO SET A PASSWORD to the instance.
# Once a password is set:
#
# 1. The Gopher server (when enabled, not by default) will still serve
# content via Gopher.
# 2. However other commands cannot be called before the client will
# authenticate.
#
# So use the requirepass option to protect your instance.
#
# Note that Gopher is not currently supported when io-threads-do-reads
# is enabled.
#
# To enable Gopher support, uncomment the following line and set the option
# from no (the default) to yes.
#
# gopher-enabled no
ADVANCED CONFIG 高级设置
设置Hash底层数据结构由ziplist转为hashtable的阈值
当Hash类型的keys只包含了少量的实体并且实体的大小没有超过给定的阈值时Hash底层会使用ziplist来存储数据而不是使用hashtable以节省空间。 hash-max-ziplist-entries 512
hash-max-ziplist-value 64
当一个Hash类型的key包含的实体数量超过了hash-max-ziplist-entries的值或者某个实体的大小超过了hash-max-ziplist-value的值单位字节那么底层编码就会升级成hashtable。
设置List底层数据结构quicklist中单个ziplist的大小
Redis中List数据结构的底层使用的是quicklist的数据结构本质上是ziplist作为节点串起来的linkedlist。可以通过该项设置来改变每个ziplist的最大大小ziplist中的fill属性超过这个值就会开启一个新的ziplist。总共提供了-5到-1五个选项
-5最大大小为64Kb不推荐作为正常情况下的负载-4最大大小为32Kb不推荐-3最大大小为16Kb大概可能估计好像不是很推荐原话probably not recommended-2最大大小为8Kbgood原话-1最大大小为4Kbgood原话
默认值是-2 list-max-ziplist-size -2
设置压缩List中ziplist为quicklistLZF结构
大神们觉着ziplist不够zip啊所以再压缩一下吧。实际上是考虑了这样的场景即List数据结构两端访问频率比较高但是中间部分访问频率不是很高的情况那么使用ziplist存放这部分结构就有点浪费是不是可以把这部分结构进行压缩LZF算法压缩呢这个选项就是进行这个操作的。有下面几个值
0代表不压缩默认值1两端各一个节点不压缩2两端各两个节点不压缩...依次类推。。。 list-compress-depth 0
设置Set底层intset最大entities个数/intset升级为hashtable的阈值
Set数据结构只有在一种情况下会使用intset来存储set由能转成10进制且数值在64bit有符号整形数值组成时。下面的配置设置了intset能存储的最大entities数量超过这个数量会转成hashtable存储。默认512个。 set-max-intset-entries 512
设置ZSet底层数据结构由ziplist转为skiplist的阈值
当超过下面设置的阈值时ZSet底层存储结构会由ziplist转为skiplist。 zset-max-ziplist-entries 128
zset-max-ziplist-value 64
设置HyperLogLog底层稀疏矩阵转为稠密矩阵的阈值
HyperLogLog当在计数比较小时会使用稀疏矩阵来存储只有当计数达到阈值时才会转为稠密矩阵。
超过16000的值是完全无用的因为这种情况下使用稠密矩阵更加节省内存。
建议的值是3000左右以便在不降低太多PFADD速度的情况下获取空间有效编码的好处稀疏编码的PFADD的时间复杂度为O(N)。当不考虑CPU占用时而考虑内存占用时这个值可以升到10000左右。 hll-sparse-max-bytes 3000
自定义Stream宏节点大小
可以通过stream-node-max-bytes选项修改Stream中每个宏节点能够占用的最大内存或者通过stream-node-max-entries参数指定每个宏节点中可存储条目的最大数量。 stream-node-max-bytes 4096
stream-node-max-entries 100
开启Rehash
Redis将在每100毫秒时使用1毫秒的CPU时间来对redis的hash表进行重新hash可以降低内存的使用。当你的使用场景中有非常严格的实时性需要不能够接受Redis时不时的对请求有2毫秒的延迟的话把这项配置为no。如果没有这么严格的实时性要求可以设置为yes以便能够尽可能快的释放内存。 activerehashing yes
客户端输出缓存控制
客户端输出缓冲区限制可用于强制断开由于某种原因从服务器读取数据速度不够快的客户端一个常见原因是发布/订阅客户端不能像发布服务器生成消息那样快地使用消息。
对于三种不同类型的客户端克制设置不同的限制
normal一般客户端包含监控客户端replica副本客户端slavepubsub客户端至少订阅了一个pubsub通道或模式。
每个客户端输出缓冲区限制指令语法 client-output-buffer-limit class hard limit soft limit soft seconds
一旦达到hard limit限制或者达到soft limit之后又过了soft seconds秒那么客户端会立即被断开连接。
例如如果hard limit为32兆字节soft limit和soft seconds分别为16兆字节10秒则如果输出缓冲区的大小达到32兆字节客户端将立即断开连接但如果客户端达到16兆字节并连续超过限制10秒客户端也将断开连接。
默认情况下普通客户端不受限制因为它们不会在没有请求以推送方式的情况下接收数据而是在请求之后接收数据因此只有异步客户端可能会创建一个场景其中请求数据的速度比读取数据的速度快。
相反pubsub和副本客户端有一个默认限制因为订阅者和副本以推送方式接收数据。
硬限制或软限制都可以通过将其设置为零来禁用。 client-output-buffer-limit normal 0 0 0
client-output-buffer-limit replica 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
配置客户端query buffer大小
客户端query buffer大小不能超过该项配置的值。 每个Client都有一个query buffer(查询缓存区或输入缓存区), 它用于保存客户端的发送命令redis server从query buffer获取命令并执行。如果程序的Key设计不合理客户端使用大量的query buffer这会导致redis server比较危险很容易达到maxmeory限制导致缓存数据被清空、数据无法写入和oom. client-query-buffer-limit 1gb
Redis协议批量请求单个字符串限制
默认512mb可以通过下面选项修改 proto-max-bulk-len 512mb
Redis执行任务频率
Redis调用一个内部函数来执行许多后台任务比如在超时时关闭客户端连接清楚从未被请求过的过期key…
并非所有任务都已相同的频率执行但Redis根据指定的hz值检查要执行的任务。
默认情况下hz的值为10.提高这个值会让Redis在空闲的时候占用更多的CPU但同时也会让Redis在有很多keys同时过期时响应更快并且可以更精确的处理超时。
范围在1到500之间但是超过100通常不是一个好主意。大多数用户应该使用缺省值10只有在需要非常低延迟的环境中才应该将值提高到100。 hz 10
动态hz配置
根据客户端连接的数量动态的调整hz的值当有更多的客户端连接时会临时以hz设置基准提高该hz的值。默认开启。 dynamic-hz yes
AOF重写时执行fsync刷盘策略
当一个子系统重写AOF文件时如果启用了以下选项则该文件将每生成32MB的数据进行fsync同步。这对于以更增量的方式将文件提交到磁盘并避免较大的延迟峰值非常有用。 aof-rewrite-incremental-fsync yes
保存RDB文件时执行fsync刷盘策略
当redis保存RDB文件时如果启用以下选项则每生成32 MB的数据文件就会同步一次。这对于以更增量的方式将文件提交到磁盘并避免较大的延迟峰值非常有用。 rdb-save-incremental-fsync yes
LFU设置
设置Redis LFU相关。Redis LFU淘汰策略实现有两个可调整参数lfu-log-factor和lfu-decay-time。
代码语言javascript
复制
lfu-log-factor 10
lfu-decay-time 1
ACTIVE DEFRAGMENTATION 碎片整理
主动在线碎片整理允许Redis服务器压缩内存中数据的少量分配和释放之间的空间内存碎片从而回收内存。
碎片化是每个分配器幸运的是Jemalloc比较少发生这种情况和某些工作负载都会发生的自然过程。通常需要重启服务器以降低碎片或者至少清除所有数据并重新创建。然而多亏了Oran Agra为Redis 4.0实现的这一功能这个过程可以在服务器运行时以“hot”的方式在运行时发生类似热部署的意思不需要停止服务。
基本上当碎片超过某个级别参见下面的配置选项时Redis将通过利用特定的Jemalloc功能以了解分配是否导致碎片并将其分配到更好的位置开始在连续内存区域中创建值的新副本同时释放数据的旧副本。对所有键递增地重复该过程将导致碎片降至正常值。
需要了解的重要事项
1.默认情况下此功能被禁用并且仅当您编译Redis以使用我们随Redis源代码提供的Jemalloc副本时此功能才有效。这是Linux版本的默认设置。
2.如果没有碎片问题则无需启用此功能。
3.一旦遇到内存碎片可以在需要时使用命令CONFIG SET activedefrag yes启用此功能。
配置参数能够微调碎片整理过程的行为。如果你不确定它们是什么意思最好不要改变默认值。
开启活动碎片整理 activedefrag no
启动活动碎片整理的最小内存碎片阈值 active-defrag-ignore-bytes 100mb
启动活动碎片整理的最小内存碎片百分比 active-defrag-threshold-lower 10
尝试释放的最大百分比 active-defrag-threshold-upper 100
最少CPU使用率 active-defrag-cycle-min 1
最大CPU使用率 active-defrag-cycle-max 25
最大扫描量 # Maximum number of set/hash/zset/list fields that will be processed from
# the main dictionary scan
active-defrag-max-scan-fields 1000
使用后台线程
jemalloc-bg-thread yes 贴一份完整的配置文件
#redis.conf
# Redis configuration file example.
# ./redis-server /path/to/redis.conf
################################## INCLUDES
###################################
#这在你有标准配置模板但是每个 redis 服务器又需要个性设置的时候很有用。
# include /path/to/local.conf
# include /path/to/other.conf
################################ GENERAL #####################################
#是否在后台执行yes后台运行no不是后台运行老版本默认
daemonize yes
#3.2 里的参数是否开启保护模式默认开启。要是配置里没有指定 bind 和密码。开启该参数后redis
只会本地进行访问拒绝外部访问。要是开启了密码 和 bind可以开启。否 则最好关闭设置为
no。
protected-mode yes
#redis 的进程文件
pidfile /var/run/redis/redis-server.pid
#redis 监听的端口号。
port 6379
#此参数确定了 TCP 连接中已完成队列(完成三次握手之后)的长度 当然此值必须不大于 Linux 系统定
义的/proc/sys/net/core/somaxconn 值默认是 511而 Linux 的默认参数值是 128。当系统并
发量大并且客户端速度缓慢的时候可以将这二个参数一起参考设定。该内核参数默认值一般是 128对
于负载很大的服务程序来说大大的不够。一般会将它修改为 2048 或者更大。在/etc/sysctl.conf 添加:net.core.somaxconn 2048然后在终端中执行 sysctl -p。
tcp-backlog 511
#指定 redis 只接收来自于该 IP 地址的请求如果不进行设置那么将处理所有请求
#bind 127.0.0.1
#配置 unix socket 来让 redis 支持监听本地连接。
# unixsocket /var/run/redis/redis.sock
#配置 unix socket 使用文件的权限
# unixsocketperm 700
# 此参数为设置客户端空闲超过 timeout服务端会断开连接为 0 则服务端不会主动断开连接不能
小于 0。
timeout 0
#tcp keepalive 参数。如果设置不为 0就使用配置 tcp 的 SO_KEEPALIVE 值使用 keepalive 有
两个好处:检测挂掉的对端。降低中间设备出问题而导致网络看似连接却已经与对端端口的问题。在 Linux内核中设置了 keepaliveredis 会定时给对端发送 ack。检测到对端关闭需要两倍的设置值。
tcp-keepalive 0
#指定了服务端日志的级别。级别包括debug很多信息方便开发、测试verbose许多有用的
信息但是没有 debug 级别信息多notice适当的日志级别适合生产环境warn只有非常重
要的信息
loglevel notice
#指定了记录日志的文件。空字符串的话日志会打印到标准输出设备。后台运行的 redis 标准输出是
/dev/null。
logfile /var/log/redis/redis-server.log
#是否打开记录 syslog 功能
# syslog-enabled no
#syslog 的标识符。
# syslog-ident redis
#日志的来源、设备
# syslog-facility local0
#数据库的数量默认使用的数据库是 DB 0。可以通过”SELECT “命令选择一个 db
databases 16
################################ SNAPSHOTTING ################################
# 快照配置
# 注释掉“save”这一行配置项就可以让保存数据库功能失效
# 设置 sedis 进行数据库镜像的频率。
# 900 秒15 分钟内至少 1 个 key 值改变则进行数据库保存--持久化
# 300 秒5 分钟内至少 10 个 key 值改变则进行数据库保存--持久化
# 60 秒1 分钟内至少 10000 个 key 值改变则进行数据库保存--持久化
save 900 1
save 300 10
save 60 10000
#当 RDB 持久化出现错误后是否依然进行继续进行工作yes不能进行工作no可以继续进行工作
可以通过 info 中的 rdb_last_bgsave_status 了解 RDB 持久化是否有错误
stop-writes-on-bgsave-error yes
#使用压缩 rdb 文件rdb 文件压缩使用 LZF 压缩算法yes压缩但是需要一些 cpu 的消耗。no不
压缩需要更多的磁盘空间
rdbcompression yes
#是否校验 rdb 文件。从 rdb 格式的第五个版本开始在 rdb 文件的末尾会带上 CRC64 的校验和。这跟
有利于文件的容错性但是在保存 rdb 文件的时候会有大概 10%的性能损耗所以如果你追求高性能
可以关闭该配置。
rdbchecksum yes
#rdb 文件的名称
dbfilename dump.rdb
#数据目录数据库的写入会在这个目录。rdb、aof 文件也会写在这个目录
dir /root/temp
################################# REPLICATION
#################################
#复制选项slave 复制对应的 master# slaveof masterip masterport
#如果 master 设置了 requirepass那么 slave 要连上 master需要有 master 的密码才行。
masterauth 就是用来配置 master 的密码这样可以在连上 master 后进行认证。
# masterauth master-password#当从库同主机失去连接或者复制正在进行从机库有两种运行方式1) 如果
slave-serve-stale-data 设置为 yes(默认设置)从库会继续响应客户端的请求。2) 如果
slave-serve-stale-data 设置为 no除去 INFO 和 SLAVOF 命令之外的任何请求都会返回一个错
误”SYNC with master in progress”。
slave-serve-stale-data ye#作为从服务器默认情况下是只读的yes可以修改成 NO用于写不建议。
slave-read-only yes
#是否使用 socket 方式复制数据。目前 redis 复制提供两种方式disk 和 socket。如果新的 slave
连上来或者重连的 slave 无法部分同步就会执行全量同步master 会生成 rdb 文件。有 2 种方式
disk 方式是 master 创建一个新的进程把 rdb 文件保存到磁盘再把磁盘上的 rdb 文件传递给 slave。
socket 是 master 创建一个新的进程直接把 rdb 文件以 socket 的方式发给 slave。disk 方式的时
候当一个 rdb 保存的过程中多个 slave 都能共享这个 rdb 文件。socket 的方式就的一个个 slave
顺序复制。在磁盘速度缓慢网速快的情况下推荐用 socket 方式。
repl-diskless-sync no
#diskless 复制的延迟时间防止设置为 0。一旦复制开始节点不会再接收新 slave 的复制请求直到
下一个 rdb 传输。所以最好等待一段时间等更多的 slave 连上来。
repl-diskless-sync-delay 5
#slave 根据指定的时间间隔向服务器发送 ping 请求。时间间隔可以通过 repl_ping_slave_period
来设置默认 10 秒。
# repl-ping-slave-period 10
#复制连接超时时间。master 和 slave 都有超时时间的设置。master 检测到 slave 上次发送的时间超
过 repl-timeout即认为 slave 离线清除该 slave 信息。slave 检测到上次和 master 交互的时
间超过 repl-timeout则认为 master 离线。需要注意的是 repl-timeout 需要设置一个比
repl-ping-slave-period 更大的值不然会经常检测到超时。
# repl-timeout 60
#是否禁止复制 tcp 链接的 tcp nodelay 参数可传递 yes 或者 no。默认是 no即使用 tcp nodelay。
如果 master 设置了 yes 来禁止 tcp nodelay 设置在把数据复制给 slave 的时候会减少包的数量
和更小的网络带宽。但是这也可能带来数据的延迟。默认我们推荐更小的延迟但是在数据量传输很大的
场景下建议选择 yes。
repl-disable-tcp-nodelay no
#复制缓冲区大小这是一个环形复制缓冲区用来保存最新复制的命令。这样在 slave 离线的时候不
需要完全复制 master 的数据如果可以执行部分同步只需要把缓冲区的部分数据复制给 slave就能
恢复正常复制状态。缓冲区的大小越大slave 离线的时间可以更长复制缓冲区只有在有 slave 连接
的时候才分配内存。没有 slave 的一段时间内存会被释放出来默认 1m。
# repl-backlog-size 5mb
#master 没有 slave 一段时间会释放复制缓冲区的内存repl-backlog-ttl 用来设置该时间长度。
单位为秒。
# repl-backlog-ttl 3600
#当 master 不可用Sentinel 会根据 slave 的优先级选举一个 master。最低的优先级的 slave当
选 master。而配置成 0永远不会被选举。slave-priority 100
#redis 提供了可以让 master 停止写入的方式如果配置了 min-slaves-to-write健康的 slave
的个数小于 Nmater 就禁止写入。master 最少得有多少个健康的 slave 存活才能执行写命令。这个置虽然不能保证 N 个 slave 都一定能接收到 master 的写操作但是能避免没有足够健康的 slave 的候master 不能写入来避免数据丢失。设置为 0 是关闭该功能。
# min-slaves-to-write 3
#延迟小于 min-slaves-max-lag 秒的 slave 才认为是健康的 slave。
# min-slaves-max-lag 10
# 设置 1 或另一个设置为 0 禁用这个特性。
# Setting one or the other to 0 disables the feature.
# By default min-slaves-to-write is set to 0 (feature disabled) and
# min-slaves-max-lag is set to 10.
################################## SECURITY
###################################
#requirepass 配置可以让用户使用 AUTH 命令来认证密码才能使用其他命令。这让 redis 可以使用
在不受信任的网络中。为了保持向后的兼容性可以注释该命令因为大部分用户也不需要认证。使用
requirepass 的时候需要注意因为 redis 太快了每秒可以认证 15w 次密码简单的密码很容易被
攻破所以最好使用一个更复杂的密码。
# requirepass foobared
#把危险的命令给修改成其他名称。比如 CONFIG 命令可以重命名为一个很难被猜到的命令这样用户不
能使用而内部工具还能接着使用。
# rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
#设置成一个空的值可以禁止一个命# rename-command CONFIG
################################### LIMITS
####################################
# 设置能连上 redis 的最大客户端连接数量。默认是 10000 个客户端连接。由于 redis 不区分连接是客
户端连接还是内部打开文件或者和 slave 连接等所以 maxclients 最小建议设置到 32。如果超过了
maxclientsredis 会给新的连接发送’max number of clients reached’并关闭连接。
# maxclients 10000
#redis 配置的最大内存容量。当内存满了需要配合 maxmemory-policy 策略进行处理。注意 slave
的输出缓冲区是不计算在 maxmemory 内的。所以为了防止主机内存使用完建议设置的 maxmemory 要更小一些。
# maxmemory bytes
#内存容量超过 maxmemory 后的处理策略。
#volatile-lru利用 LRU 算法移除设置过过期时间的 key。
#volatile-random随机移除设置过过期时间的 key。
#volatile-ttl移除即将过期的 key根据最近过期时间来删除辅以 TTL
#allkeys-lru利用 LRU 算法移除任何 key。
#allkeys-random随机移除任何 key。
#noeviction不移除任何 key只是返回一个写错误。
#上面的这些驱逐策略如果 redis 没有合适的 key 驱逐对于写命令还是会返回错误。redis 将不
再接收写请求只接收 get 请求。写命令包括set setnx setex append incr decr rpush lpush
rpushx lpushx linsert lset rpoplpush sadd sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby zunionstore zinterstore hset hsetnx hmset hincrby
incrby decrby getset mset msetnx exec sort。
# maxmemory-policy noeviction
#lru 检测的样本数。使用 lru 或者 ttl 淘汰算法从需要淘汰的列表中随机选择 sample 个 key选出
闲置时间最长的 key 移除。
# maxmemory-samples 5
############################## APPEND ONLY MODE ###############################
#默认 redis 使用的是 rdb 方式持久化这种方式在许多应用中已经足够用了。但是 redis 如果中途宕
机会导致可能有几分钟的数据丢失根据 save 来策略进行持久化Append Only File 是另一种持
久化方式可以提供更好的持久化特性。Redis 会把每次写入的数据在接收后都写入 appendonly.aof
文件每次启动时 Redis 都会先把这个文件的数据读入内存里先忽略 RDB 文件。
appendonly no
#aof 文件名
appendfilename appendonly.aof
#aof 持久化策略的配置
#no 表示不执行 fsync由操作系统保证数据同步到磁盘速度最快。
#always 表示每次写入都执行 fsync以保证数据同步到磁盘。
#everysec 表示每秒执行一次 fsync可能会导致丢失这 1s 数据。
appendfsync everysec
# 在 aof 重写或者写入 rdb 文件的时候会执行大量 IO此时对于 everysec 和 always 的 aof 模式
来说执行 fsync 会造成阻塞过长时间no-appendfsync-on-rewrite 字段设置为默认设置为 no。
如果对延迟要求很高的应用这个字段可以设置为 yes否则还是设置为 no这样对持久化特性来说这更安全的选择。设置为 yes 表示 rewrite 期间对新写操作不 fsync,暂时存在内存中,等 rewrite 完成
后再写入默认为 no建议 yes。Linux 的默认 fsync 策略是 30 秒。可能丢失 30 秒数据。
no-appendfsync-on-rewrite no
#aof 自动重写配置。当目前 aof 文件大小超过上一次重写的 aof 文件大小的百分之多少进行重写即当
aof 文件增长到一定大小的时候 Redis 能够调用 bgrewriteaof 对日志文件进行重写。当前 AOF 文件大
小是上次日志重写得到 AOF 文件大小的二倍设置为 100时自动启动新的日志重写过程。
auto-aof-rewrite-percentage 100
#设置允许重写的最小 aof 文件大小避免了达到约定百分比但尺寸仍然很小的情况还要重写
auto-aof-rewrite-min-size 64mb
#aof 文件可能在尾部是不完整的当 redis 启动的时候aof 文件的数据被载入内存。重启可能发生在
redis 所在的主机操作系统宕机后尤其在 ext4 文件系统没有加上 dataordered 选项redis 宕机
或者异常终止不会造成尾部不完整现象。出现这种现象可以选择让 redis 退出或者导入尽可能多的
数据。如果选择的是 yes当截断的 aof 文件被导入的时候会自动发布一个 log 给客户端然后 load。
如果是 no用户必须手动 redis-check-aof 修复 AOF 文件才可以aof-load-truncated yes
################################ LUA SCRIPTING ###############################
# 如果达到最大时间限制毫秒redis 会记个 log然后返回 error。当一个脚本超过了最大时限。
只有 SCRIPT KILL 和 SHUTDOWN NOSAVE 可以用。第一个可以杀没有调 write 命令的东西。要是已经
调用了 write只能用第二个命令杀。
lua-time-limit 5000
################################ REDIS CLUSTER ###############################
#集群开关默认是不开启集群模式# cluster-enabled yes
#集群配置文件的名称每个节点都有一个集群相关的配置文件持久化保存集群的信息。这个文件并不需
要手动配置这个配置文件有 Redis 生成并更新每个 Redis 集群节点需要一个单独的配置文件请确
保与实例运行的系统中配置文件名称不冲突
# cluster-config-file nodes-6379.conf
#节点互连超时的阀值。集群节点超时毫秒数
# cluster-node-timeout 15000
#在进行故障转移的时候全部 slave 都会请求申请为 master但是有些 slave 可能与 master 断开连
接一段时间了导致数据过于陈旧这样的 slave 不应该被提升为 master。该参数就是用来判断 slave
节点与 master 断线的时间是否过长。判断方法是
#比较 slave 断开连接的时间和(node-timeout * slave-validity-factor)
repl-ping-slave-period
#如果节点超时时间为三十秒, 并且 slave-validity-factor 为 10,假设默认的
repl-ping-slave-period 是 10 秒即如果超过 310 秒 slave 将不会尝试进行故障转移
# cluster-slave-validity-factor 10
#master 的 slave 数量大于该值slave 才能迁移到其他孤立 master 上如这个参数若被设为 2那
么只有当一个主节点拥有 2 个可工作的从节点时它的一个从节点会尝试迁移。
# cluster-migration-barrier 1
#默认情况下集群全部的 slot 有节点负责集群状态才为 ok才能提供服务。设置为 no可以在 slot
没有全部分配的时候提供服务。不建议打开该配置这样会造成分区的时候小分区的 master 一直在接
受写请求而造成很长时间数据不一致。
# cluster-require-full-coverage yes
################################## SLOW LOG
###################################
###slog log 是用来记录 redis 运行中执行比较慢的命令耗时。当命令的执行超过了指定时间就记录
在 slow log 中slog log 保存在内存中所以没有 IO 操作。
#执行时间比 slowlog-log-slower-than 大的请求记录到 slowlog 里面单位是微秒所以 1000000
就是 1 秒。注意负数时间会禁用慢查询日志而 0 则会强制记录所有命令。
slowlog-log-slower-than 1000#慢查询日志长度。当一个新的命令被写进日志的时候最老的那个记录会被删掉。这个长度没有限制。只
要有足够的内存就行。你可以通过 SLOWLOG RESET 来释放内存。
slowlog-max-len 128
################################ LATENCY MONITOR
##############################
#延迟监控功能是用来监控 redis 中执行比较缓慢的一些操作用 LATENCY 打印 redis 实例在跑命令时
的耗时图表。只记录大于等于下边设置的值的操作。0 的话就是关闭监视。默认延迟监控功能是关闭的
如果你需要打开也可以通过 CONFIG SET 命令动态设置。
latency-monitor-threshold 0
############################# EVENT NOTIFICATION
##############################
#键空间通知使得客户端可以通过订阅频道或模式来接收那些以某种方式改动了 Redis 数据集的事件。
因为开启键空间通知功能需要消耗一些 CPU 所以在默认配置下该功能处于关闭状态。
#notify-keyspace-events 的参数可以是以下字符的任意组合它指定了服务器该发送哪些类型的通
知##K 键空间通知所有通知以 __keyspace__ 为前缀
##E 键事件通知所有通知以 __keyevent__ 为前缀
##g DEL 、 EXPIRE 、 RENAME 等类型无关的通用命令的通知
##$ 字符串命令的通知
##l 列表命令的通知
##s 集合命令的通知
##h 哈希命令的通知
##z 有序集合命令的通知
##x 过期事件每当有过期键被删除时发送
##e 驱逐(evict)事件每当有键因为 maxmemory 政策而被删除时发送
##A 参数 g$lshzxe 的别名
#输入的参数中至少要有一个 K 或者 E否则的话不管其余的参数是什么都不会有任何 通知被分发。
详细使用可以参考 http://redis.io/topics/notifications
notify-keyspace-events
############################### ADVANCED CONFIG
###############################
#数据量小于等于 hash-max-ziplist-entries 的用 ziplist大于 hash-max-ziplist-entries
用 hash
hash-max-ziplist-entries 512#value 大小小于等于 hash-max-ziplist-value 的ziplist大于 hash-max-ziplist-value 用 hash。
hash-max-ziplist-value 64
#数据量小于等于 list-max-ziplist-entries 用 ziplist大于 list-max-ziplist-entries
用 list。
list-max-ziplist-entries 512#value 大小小于等于 list-max-ziplist-value 的用
ziplist大于 list-max-ziplist-value 用 list。
list-max-ziplist-value 64
#数据量小于等于 set-max-intset-entries 用 iniset大于 set-max-intset-entries 用 set。
set-max-intset-entries 51#数据量小于等于 zset-max-ziplist-entries 用 ziplist大于 zset-max-ziplist-entries
用 zset。
zset-max-ziplist-entries 128#value 大小小于等于 zset-max-ziplist-value 用 ziplist
大于 zset-max-ziplist-value 用 zset。
zset-max-ziplist-value 64
#value 大小小于等于 hll-sparse-max-bytes 使用稀疏数据结构sparse大于
hll-sparse-max-bytes 使用稠密的数据结构dense。一个比 16000 大的 value 是几乎没用的
建议的 value 大概为 3000。如果对 CPU 要求不高对空间要求较高的建议设置到 10000 左右。
hll-sparse-max-bytes 3000
#Redis 将在每 100 毫秒时使用 1 毫秒的 CPU 时间来对 redis 的 hash 表进行重新 hash可以降低内存
的使用。当你的使用场景中有非常严格的实时性需要不能够接受 Redis 时不时的对请求有 2 毫秒的迟的话把这项配置为 no。如果没有这么严格的实时性要求可以设置为 yes以便能够尽可能快的释放
内存。activerehashing yes
##对客户端输出缓冲进行限制可以强迫那些不从服务器读取数据的客户端断开连接用来强制关闭传输缓
慢的客户端。
#对于 normal client第一个 0 表示取消 hard limit第二个 0 和第三个 0 表示取消 soft limitnormal client 默认取消限制因为如果没有寻问他们是不会接收数据的。
client-output-buffer-limit normal 0 0 0#对于 slave client 和 MONITER client如果
client-output-buffer 一旦超过 256mb又或者超过 64mb 持续 60 秒那么服务器就会立即断开客
户端连接。
client-output-buffer-limit slave 256mb 64mb 60#对于 pubsub client如果
client-output-buffer 一旦超过 32mb又或者超过 8mb 持续 60 秒那么服务器就会立即断开客户
端连接。
client-output-buffer-limit pubsub 32mb 8mb 60
#redis 执行任务的频率为 1s 除以 hzhz 10
#在 aof 重写的时候如果打开了 aof-rewrite-incremental-fsync 开关系统会每 32MB 执行一
次 fsync。这对于把文件写入磁盘是有帮助的可以避免过大的延迟峰值。
aof-rewrite-incremental-fsync yes