一、概述
二、數據類型STRING
LIST
SET
HASH
ZSET
三、數據結構字典
跳躍表
四、使用場景計數器
緩存
查找表
消息隊列
會話緩存
分布式鎖實現
其它
五、Redis 與 Memcached數據類型
數據持久化
分布式
內存管理機制
六、鍵的過期時間
七、數據淘汰策略
八、持久化RDB 持久化
AOF 持久化
九、事務
十、事件文件事件
時間事件
事件的調度與執行
十一、復制連接過程
主從鏈
十二、Sentinel
十三、分片
十四、一個簡單的論壇系統分析文章信息
點贊功能
對文章進行排序
Redis 是速度非??斓姆顷P系型(NoSQL)內存鍵值數據庫,可以存儲鍵和五種不同類型的值之間的映射。
鍵的類型只能為字符串,值支持五種數據類型:字符串、列表、集合、散列表、有序集合。
Redis 支持很多特性,例如將內存中的數據持久化到硬盤中,使用復制來擴展讀性能,使用分片來擴展寫性能。
What Redis data structures look like
>?set?hello?world OK >?get?hello "world" >?del?hello (integer)?1 >?get?hello (nil)
>?rpush?list-key?item (integer)?1 >?rpush?list-key?item2 (integer)?2 >?rpush?list-key?item (integer)?3 >?lrange?list-key?0?-1 1)?"item" 2)?"item2" 3)?"item" >?lindex?list-key?1 "item2" >?lpop?list-key "item" >?lrange?list-key?0?-1 1)?"item2" 2)?"item"
>?sadd?set-key?item (integer)?1 >?sadd?set-key?item2 (integer)?1 >?sadd?set-key?item3 (integer)?1 >?sadd?set-key?item (integer)?0 >?smembers?set-key 1)?"item" 2)?"item2" 3)?"item3" >?sismember?set-key?item4 (integer)?0 >?sismember?set-key?item (integer)?1 >?srem?set-key?item2 (integer)?1 >?srem?set-key?item2 (integer)?0 >?smembers?set-key 1)?"item" 2)?"item3"
>?hset?hash-key?sub-key1?value1 (integer)?1 >?hset?hash-key?sub-key2?value2 (integer)?1 >?hset?hash-key?sub-key1?value1 (integer)?0 >?hgetall?hash-key 1)?"sub-key1" 2)?"value1" 3)?"sub-key2" 4)?"value2" >?hdel?hash-key?sub-key2 (integer)?1 >?hdel?hash-key?sub-key2 (integer)?0 >?hget?hash-key?sub-key1 "value1" >?hgetall?hash-key 1)?"sub-key1" 2)?"value1"
>?zadd?zset-key?728?member1 (integer)?1 >?zadd?zset-key?982?member0 (integer)?1 >?zadd?zset-key?982?member0 (integer)?0 >?zrange?zset-key?0?-1?withscores 1)?"member1" 2)?"728" 3)?"member0" 4)?"982" >?zrangebyscore?zset-key?0?800?withscores 1)?"member1" 2)?"728" >?zrem?zset-key?member1 (integer)?1 >?zrem?zset-key?member1 (integer)?0 >?zrange?zset-key?0?-1?withscores 1)?"member0" 2)?"982"
dictht 是一個散列表結構,使用拉鏈法解決哈希沖突。
/*?This?is?our?hash?table?structure.?Every?dictionary?has?two?of?this?as?we ?*?implement?incremental?rehashing,?for?the?old?to?the?new?table.?*/ typedef?struct?dictht?{ ????dictEntry?**table; ????unsigned?long?size; ????unsigned?long?sizemask; ????unsigned?long?used; }?dictht; typedef?struct?dictEntry?{ ????void?*key; ????union?{ ????????void?*val; ????????uint64_t?u64; ????????int64_t?s64; ????????double?d; ????}?v; ????struct?dictEntry?*next; }?dictEntry;
Redis 的字典 dict 中包含兩個哈希表 dictht,這是為了方便進行 rehash 操作。在擴容時,將其中一個 dictht 上的鍵值對 rehash 到另一個 dictht 上面,完成之后釋放空間并交換兩個 dictht 的角色。
typedef?struct?dict?{ ????dictType?*type; ????void?*privdata; ????dictht?ht[2]; ????long?rehashidx;?/*?rehashing?not?in?progress?if?rehashidx?==?-1?*/ ????unsigned?long?iterators;?/*?number?of?iterators?currently?running?*/ }?dict;
rehash 操作不是一次性完成,而是采用漸進方式,這是為了避免一次性執行過多的 rehash 操作給服務器帶來過大的負擔。
漸進式 rehash 通過記錄 dict 的 rehashidx 完成,它從 0 開始,然后每執行一次 rehash 都會遞增。例如在一次 rehash 中,要把 dict[0] rehash 到 dict[1],這一次會把 dict[0] 上 table[rehashidx] 的鍵值對 rehash 到 dict[1] 上,dict[0] 的 table[rehashidx] 指向 null,并令 rehashidx++。
在 rehash 期間,每次對字典執行添加、刪除、查找或者更新操作時,都會執行一次漸進式 rehash。
采用漸進式 rehash 會導致字典中的數據分散在兩個 dictht 上,因此對字典的查找操作也需要到對應的 dictht 去執行。
/*?Performs?N?steps?of?incremental?rehashing.?Returns?1?if?there?are?still ?*?keys?to?move?from?the?old?to?the?new?hash?table,?otherwise?0?is?returned. ?* ?*?Note?that?a?rehashing?step?consists?in?moving?a?bucket?(that?may?have?more ?*?than?one?key?as?we?use?chaining)?from?the?old?to?the?new?hash?table,?however ?*?since?part?of?the?hash?table?may?be?composed?of?empty?spaces,?it?is?not ?*?guaranteed?that?this?function?will?rehash?even?a?single?bucket,?since?it ?*?will?visit?at?max?N*10?empty?buckets?in?total,?otherwise?the?amount?of ?*?work?it?does?would?be?unbound?and?the?function?may?block?for?a?long?time.?*/ int?dictRehash(dict?*d,?int?n)?{ ????int?empty_visits?=?n?*?10;?/*?Max?number?of?empty?buckets?to?visit.?*/ ????if?(!dictIsRehashing(d))?return?0; ????while?(n--?&&?d->ht[0].used?!=?0)?{ ????????dictEntry?*de,?*nextde; ????????/*?Note?that?rehashidx?can't?overflow?as?we?are?sure?there?are?more ?????????*?elements?because?ht[0].used?!=?0?*/ ????????assert(d->ht[0].size?>?(unsigned?long)?d->rehashidx); ????????while?(d->ht[0].table[d->rehashidx]?==?NULL)?{ ????????????d->rehashidx++; ????????????if?(--empty_visits?==?0)?return?1; ????????} ????????de?=?d->ht[0].table[d->rehashidx]; ????????/*?Move?all?the?keys?in?this?bucket?from?the?old?to?the?new?hash?HT?*/ ????????while?(de)?{ ????????????uint64_t?h; ????????????nextde?=?de->next; ????????????/*?Get?the?index?in?the?new?hash?table?*/ ????????????h?=?dictHashKey(d,?de->key)?&?d->ht[1].sizemask; ????????????de->next?=?d->ht[1].table[h]; ????????????d->ht[1].table[h]?=?de; ????????????d->ht[0].used--; ????????????d->ht[1].used++; ????????????de?=?nextde; ????????} ????????d->ht[0].table[d->rehashidx]?=?NULL; ????????d->rehashidx++; ????} ????/*?Check?if?we?already?rehashed?the?whole?table...?*/ ????if?(d->ht[0].used?==?0)?{ ????????zfree(d->ht[0].table); ????????d->ht[0]?=?d->ht[1]; ????????_dictReset(&d->ht[1]); ????????d->rehashidx?=?-1; ????????return?0; ????} ????/*?More?to?rehash...?*/ ????return?1; }
是有序集合的底層實現之一。
跳躍表是基于多指針有序鏈表實現的,可以看成多個有序鏈表。
在查找時,從上層指針開始查找,找到對應的區間之后再到下一層去查找。下圖演示了查找 22 的過程。
與紅黑樹等平衡樹相比,跳躍表具有以下優點:
插入速度非??焖?,因為不需要進行旋轉等操作來維護平衡性;
更容易實現;
支持無鎖操作。
可以對 String 進行自增自減運算,從而實現計數器功能。
Redis 這種內存型數據庫的讀寫性能非常高,很適合存儲頻繁讀寫的計數量。
將熱點數據放到內存中,設置內存的最大使用量以及淘汰策略來保證緩存的命中率。
例如 DNS 記錄就很適合使用 Redis 進行存儲。
查找表和緩存類似,也是利用了 Redis 快速的查找特性。但是查找表的內容不能失效,而緩存的內容可以失效,因為緩存不作為可靠的數據來源。
List 是一個雙向鏈表,可以通過 lpush 和 rpop 寫入和讀取消息
不過最好使用 Kafka、RabbitMQ 等消息中間件。
可以使用 Redis 來統一存儲多臺應用服務器的會話信息。
當應用服務器不再存儲用戶的會話信息,也就不再具有狀態,一個用戶可以請求任意一個應用服務器,從而更容易實現高可用性以及可伸縮性。
在分布式場景下,無法使用單機環境下的鎖來對多個節點上的進程進行同步。
可以使用 Redis 自帶的 SETNX 命令實現分布式鎖,除此之外,還可以使用官方提供的 RedLock 分布式鎖實現。
Set 可以實現交集、并集等操作,從而實現共同好友等功能。
ZSet 可以實現有序性操作,從而實現排行榜等功能。
兩者都是非關系型內存鍵值數據庫,主要有以下不同:
Memcached 僅支持字符串類型,而 Redis 支持五種不同的數據類型,可以更靈活地解決問題。
Redis 支持兩種持久化策略:RDB 快照和 AOF 日志,而 Memcached 不支持持久化。
Memcached 不支持分布式,只能通過在客戶端使用一致性哈希來實現分布式存儲,這種方式在存儲和查詢時都需要先在客戶端計算一次數據所在的節點。
Redis Cluster 實現了分布式的支持。
在 Redis 中,并不是所有數據都一直存儲在內存中,可以將一些很久沒用的 value 交換到磁盤,而 Memcached 的數據則會一直在內存中。
Memcached 將內存分割成特定長度的塊來存儲數據,以完全解決內存碎片的問題。但是這種方式會使得內存的利用率不高,例如塊的大小為 128 bytes,只存儲 100 bytes 的數據,那么剩下的 28 bytes 就浪費掉了。
Redis 可以為每個鍵設置過期時間,當鍵過期時,會自動刪除該鍵。
對于散列表這種容器,只能為整個鍵設置過期時間(整個散列表),而不能為鍵里面的單個元素設置過期時間。
可以設置內存最大使用量,當內存使用量超出時,會施行數據淘汰策略。
Redis 具體有 6 種淘汰策略:
作為內存數據庫,出于對性能和內存消耗的考慮,Redis 的淘汰算法實際實現上并非針對所有 key,而是抽樣一小部分并且從中選出被淘汰的 key。
使用 Redis 緩存數據時,為了提高緩存命中率,需要保證緩存數據都是熱點數據??梢詫却孀畲笫褂昧吭O置為熱點數據占用的內存量,然后啟用 allkeys-lru 淘汰策略,將最近最少使用的數據淘汰。
Redis 4.0 引入了 volatile-lfu 和 allkeys-lfu 淘汰策略,LFU 策略通過統計訪問頻率,將訪問頻率最少的鍵值對淘汰。
Redis 是內存型數據庫,為了保證數據在斷電后不會丟失,需要將內存中的數據持久化到硬盤上。
將某個時間點的所有數據都存放到硬盤上。
可以將快照復制到其它服務器從而創建具有相同數據的服務器副本。
如果系統發生故障,將會丟失最后一次創建快照之后的數據。
如果數據量很大,保存快照的時間會很長。
將寫命令添加到 AOF 文件(Append Only File)的末尾。
使用 AOF 持久化需要設置同步選項,從而確保寫命令同步到磁盤文件上的時機。這是因為對文件進行寫入并不會馬上將內容同步到磁盤上,而是先存儲到緩沖區,然后由操作系統決定什么時候同步到磁盤。有以下同步選項:
always 選項會嚴重減低服務器的性能;
everysec 選項比較合適,可以保證系統崩潰時只會丟失一秒左右的數據,并且 Redis 每秒執行一次同步對服務器性能幾乎沒有任何影響;
no 選項并不能給服務器性能帶來多大的提升,而且也會增加系統崩潰時數據丟失的數量。
隨著服務器寫請求的增多,AOF 文件會越來越大。Redis 提供了一種將 AOF 重寫的特性,能夠去除 AOF 文件中的冗余寫命令。
一個事務包含了多個命令,服務器在執行事務期間,不會改去執行其它客戶端的命令請求。
事務中的多個命令被一次性發送給服務器,而不是一條一條發送,這種方式被稱為流水線,它可以減少客戶端與服務器之間的網絡通信次數從而提升性能。
Redis 最簡單的事務實現方式是使用 MULTI 和 EXEC 命令將事務操作包圍起來。
Redis 服務器是一個事件驅動程序。
服務器通過套接字與客戶端或者其它服務器進行通信,文件事件就是對套接字操作的抽象。
Redis 基于 Reactor 模式開發了自己的網絡事件處理器,使用 I/O 多路復用程序來同時監聽多個套接字,并將到達的事件傳送給文件事件分派器,分派器會根據套接字產生的事件類型調用相應的事件處理器。
服務器有一些操作需要在給定的時間點執行,時間事件是對這類定時操作的抽象。
時間事件又分為:
定時事件:是讓一段程序在指定的時間之內執行一次;
周期性事件:是讓一段程序每隔指定時間就執行一次。
Redis 將所有時間事件都放在一個無序鏈表中,通過遍歷整個鏈表查找出已到達的時間事件,并調用相應的事件處理器。
服務器需要不斷監聽文件事件的套接字才能得到待處理的文件事件,但是不能一直監聽,否則時間事件無法在規定的時間內執行,因此監聽時間應該根據距離現在最近的時間事件來決定。
事件調度與執行由 aeProcessEvents 函數負責,偽代碼如下:
def?aeProcessEvents(): ????#?獲取到達時間離當前時間最接近的時間事件 ????time_event?=?aeSearchNearestTimer() ????#?計算最接近的時間事件距離到達還有多少毫秒 ????remaind_ms?=?time_event.when?-?unix_ts_now() ????#?如果事件已到達,那么?remaind_ms?的值可能為負數,將它設為?0 ????if?remaind_ms?<?0: ????????remaind_ms?=?0 ????#?根據?remaind_ms?的值,創建?timeval ????timeval?=?create_timeval_with_ms(remaind_ms) ????#?阻塞并等待文件事件產生,最大阻塞時間由傳入的?timeval?決定 ????aeApiPoll(timeval) ????#?處理所有已產生的文件事件 ????procesFileEvents() ????#?處理所有已到達的時間事件 ????processTimeEvents()
將 aeProcessEvents 函數置于一個循環里面,加上初始化和清理函數,就構成了 Redis 服務器的主函數,偽代碼如下:
def?main(): ????#?初始化服務器 ????init_server() ????#?一直處理事件,直到服務器關閉為止 ????while?server_is_not_shutdown(): ????????aeProcessEvents() ????#?服務器關閉,執行清理操作 ????clean_server()
從事件處理的角度來看,服務器運行流程如下:
通過使用 slaveof host port 命令來讓一個服務器成為另一個服務器的從服務器。
一個從服務器只能有一個主服務器,并且不支持主主復制。
主服務器創建快照文件,發送給從服務器,并在發送期間使用緩沖區記錄執行的寫命令??煺瘴募l送完畢之后,開始向從服務器發送存儲在緩沖區中的寫命令;
從服務器丟棄所有舊數據,載入主服務器發來的快照文件,之后從服務器開始接受主服務器發來的寫命令;
主服務器每執行一次寫命令,就向從服務器發送相同的寫命令。
隨著負載不斷上升,主服務器可能無法很快地更新所有從服務器,或者重新連接和重新同步從服務器將導致系統超載。為了解決這個問題,可以創建一個中間層來分擔主服務器的復制工作。中間層的服務器是最上層服務器的從服務器,又是最下層服務器的主服務器。
Sentinel(哨兵)可以監聽集群中的服務器,并在主服務器進入下線狀態時,自動從從服務器中選舉出新的主服務器。
分片是將數據劃分為多個部分的方法,可以將數據存儲到多臺機器里面,這種方法在解決某些問題時可以獲得線性級別的性能提升。
假設有 4 個 Redis 實例 R0,R1,R2,R3,還有很多表示用戶的鍵 user:1,user:2,... ,有不同的方式來選擇一個指定的鍵存儲在哪個實例中。
最簡單的方式是范圍分片,例如用戶 id 從 0~1000 的存儲到實例 R0 中,用戶 id 從 1001~2000 的存儲到實例 R1 中,等等。但是這樣需要維護一張映射范圍表,維護操作代價很高。
還有一種方式是哈希分片,使用 CRC32 哈希函數將鍵轉換為一個數字,再對實例數量求模就能知道應該存儲的實例。
根據執行分片的位置,可以分為三種分片方式:
客戶端分片:客戶端使用一致性哈希等算法決定鍵應當分布到哪個節點。
代理分片:將客戶端請求發送到代理上,由代理轉發請求到正確的節點上。
服務器分片:Redis Cluster。
該論壇系統功能如下:
可以發布文章;
可以對文章進行點贊;
在首頁可以按文章的發布時間或者文章的點贊數進行排序顯示。
文章包括標題、作者、贊數等信息,在關系型數據庫中很容易構建一張表來存儲這些信息,在 Redis 中可以使用 HASH 來存儲每種信息以及其對應的值的映射。
Redis 沒有關系型數據庫中的表這一概念來將同種類型的數據存放在一起,而是使用命名空間的方式來實現這一功能。鍵名的前面部分存儲命名空間,后面部分的內容存儲 ID,通常使用 : 來進行分隔。例如下面的 HASH 的鍵名為 article:92617,其中 article 為命名空間,ID 為 92617。
當有用戶為一篇文章點贊時,除了要對該文章的 votes 字段進行加 1 操作,還必須記錄該用戶已經對該文章進行了點贊,防止用戶點贊次數超過 1??梢越⑽恼碌囊淹镀庇脩艏蟻磉M行記錄。
為了節約內存,規定一篇文章發布滿一周之后,就不能再對它進行投票,而文章的已投票集合也會被刪除,可以為文章的已投票集合設置一個一周的過期時間就能實現這個規定。
為了按發布時間和點贊數進行排序,可以建立一個文章發布時間的有序集合和一個文章點贊數的有序集合。(下圖中的 score 就是這里所說的點贊數;下面所示的有序集合分值并不直接是時間和點贊數,而是根據時間和點贊數間接計算出來的)
本人免費整理了Java高級資料,涵蓋了Java、Redis、MongoDB、MySQL、Zookeeper、Spring Cloud、Dubbo高并發分布式等教程,一共30G,需要自己領取。
傳送門:https://mp.weixin.qq.com/s/JzddfH-7yNudmkjT0IRL8Q
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。