百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

web技术分享|LRU 缓存淘汰算法(lru缓存机制)

cac55 2024-10-11 10:51 28 浏览 0 评论

了解 LRU 之前,我们应该了解一下缓存,大家都知道计算机具有缓存内存,可以临时存储最常用的数据,当缓存数据超过一定大小时,系统会进行回收,以便释放出空间来缓存新的数据,但从系统中检索数据的成本比较高。

缓存要求:

  • 固定大小:缓存需要有一些限制来限制内存使用。
  • 快速访问:缓存插入和查找操作应该很快,最好是 O(1) 时间。
  • 在达到内存限制的情况下替换条目:缓存应该具有有效的算法来在内存已满时驱逐条目

如果提供一个缓存替换算法来辅助管理,按照设定的内存大小,删除最少使用的数据,在系统回收之前主动释放出空间,会使得整个检索过程变得非常快,因此 LRU 缓存淘汰算法就出现了。

LRU 原理与实现

[LRU (Least Recently Used) 缓存淘汰算法](https://baike.baidu.com/item/LRU)提出最近被频繁访问的数据应具备更高的留存,淘汰那些不常被访问的数据,即最近使用的数据很大概率将会再次被使用,抛弃最长时间未被访问的数据,目的是为了方便以后获取数据变得更快,例如 Vuekeep-live 组件就是 LRU 的一种实现。

实现的中心思想拆分为以下几步:

  • 新的数据插入到链表头部。
  • 每当缓存命中(即缓存数据被访问),则将数据移到链表头部。
  • 当缓存内存已满时(链表数量已满时),将链表尾部的数据淘汰。

Example

这里使用一个例子来说明 LRU 实现的流程,详细请[参考这里](https://zhuanlan.zhihu.com/p/34989978)。

1. 最开始时,内存空间是空的,因此依次进入A、B、C是没有问题的

2. 当加入D时,就出现了问题,内存空间不够了,因此根据LRU算法,内存空间中A待的时间最为久远,选择A,将其淘汰

3. 当再次引用B时,内存空间中的B又处于活跃状态,而C则变成了内存空间中,近段时间最久未使用的

4. 当再次向内存空间加入E时,这时内存空间又不足了,选择在内存空间中待的最久的C将其淘汰出内存,这时的内存空间存放的对象就是E->B->D

基于双向链表和 HashMap 实现 LRU

常见的 LRU 算法是基于双向链表HashMap 实现的。

双向链表:用于管理缓存数据结点的顺序,新增数据和缓存命中(最近被访问)的数据被放置在 Header 结点,尾部的结点根据内存大小进行淘汰。

HashMap:存储所有结点的数据,当 LRU 缓存命中(进行数据访问)时,进行拦截进行数据置换和删除操作。

双向链表

[双向链表](https://baike.baidu.com/item/%E5%8F%8C%E5%90%91%E9%93%BE%E8%A1%A8/2968731?fr=aladdin)是众多链表中的一种,链表都是采用[链式存储结构](https://baike.baidu.com/item/%E9%93%BE%E5%BC%8F%E5%AD%98%E5%82%A8%E7%BB%93%E6%9E%84),链表中的每一个元素,我们称之为数据结点

每个数据结点都包含一个数据域指针域指针域可以确定结点与结点之间的顺序,通过更新数据结点的指针域的指向可以更新链表的顺序

双向链表的每个数据结点包含一个数据域和两个指针域

  • proir 指向上一个数据结点;
  • data 当前数据结点的数据;
  • next 指向下一个数据结点;

指针域确定链表的顺序,那么双向链表拥有双向指针域,数据结点的之间不在是单一指向,而是双向指向。即 proir 指针域指向上一个数据结点,next 指针域指向下一个数据结点。

同理:

- 单向链表只有一个指针域。

- 循环(环状)链表则是拥有双向指针域,且头部结点的指针域指向尾部结点,尾部结点的指针域指向头部结点。

特殊结点:Header 和 Tailer 结点

链表中还有两个特殊的结点,那就算 Header 结点和 Tailer 结点,分别表示头部结点尾部结点头部结点表示最新的数据或者缓存命中(最近访问过的数据),尾部结点表示长时间未被使用,即将被淘汰的数据节点。

作为算法大家都会关注其时间和空间复杂度 O(n),基于双向链表双向指针域的优势,为了降级时间复杂度,因此为了保证 LRU 新数据和缓存命中的数据都位于链表最前面(Header),缓存淘汰的时候删除最后的结点(Tailer),又要避免数据查找时从头到尾遍历,降低算法的时间复杂度,同时基于双向链表带来的优势,可以改变个别数据结点的指针域从而达到链表数据的更新,如果提供 Header 和 Tailer 结点作为标识的话,可以使用头插法快速增加结点,根据 Tailer 结点也可以在缓存淘汰时快速更新链表的顺序,避免遍历从头到尾遍历,降低算法的时间复杂度。

排序示例

LRU 链表中有 [6,5,4,3,2,1] 6个数据结点,其中 `6` 所在的数据结点为 Header(头部)结点,`1` 所在的数据结点为 Tailer(尾部)结点。如果此时数据 `3` 被访问(缓存命中),`3` 应该被更新至链表头,用数组的思维应该是删除 `3`,但是如果我们利用双向链表双向指针的优势,可以快速的实现链表顺便的更新:

  • `3` 被删除时,`4` 和 `2` 中间没有其他结点,即 `4` 的 `next` 指针域指向 `2` 所在的数据结点;同理,`2` 的 `proir` 指针域指向 `2` 所在的数据结点。

HashMap

至于为什么使用 HashMap,用一句话来概括主要是因为 HashMap 通过 Key 获取速度会快的多,降低算法的时间复杂度。

例如:


  • 我们在 get 缓存的时候从 HashMap 中获取的时候基本上时间复杂度控制在 O(1),如果从链表中一次遍历的话时间复杂度是 O(n)。
  • 我们访问一个已经存在的节点时候,需要将这个节点移动到 header 节点后,这个时候需要在链表中删除这个节点,并重新在 header 后面新增一个节点。这个时候先去 HashMap 中获取这个节点删除节点关系,避免了从链表中遍历,将时间复杂度从 O(N) 减少为 O(1)

由于前端没有 HashMap 的相关 API,我们可以使用 `Object` 或者 `Map` 来代替。

代码实现

现在让我们运用所掌握的数据结构,设计和实现一个,或者参考 [LeeCode 146 题](https://leetcode-cn.com/problems/lru-cache/)。

链表结点 Entry

```typescript

export class Entry<T> {

value: T

key: string | number

next: Entry<T>

prev: Entry<T>

constructor(val: T) {

this.value = val;

}

}

```

双向链表 Double Linked List

主要职责:

  • 管理头部结点和尾部结点
  • 插入新数据时,将新数据移到头部结点
  • 删除数据时,更新删除结点[前后两个结点的指向域](#排序示例)

```typescript

/**

* Simple double linked list. Compared with array, it has O(1) remove operation.

* @constructor

*/

export class LinkedList<T> {

head: Entry<T>

tail: Entry<T>

private _len = 0

/**

* Insert a new value at the tail

*/

insert(val: T): Entry<T> {

const entry = new Entry(val);

this.insertEntry(entry);

return entry;

}

/**

* Insert an entry at the tail

*/

insertEntry(entry: Entry<T>) {

if (!this.head) {

this.head = this.tail = entry;

}

else {

this.tail.next = entry;

entry.prev = this.tail;

entry.next = null;

this.tail = entry;

}

this._len++;

}

/**

* Remove entry.

*/

remove(entry: Entry<T>) {

const prev = entry.prev;

const next = entry.next;

if (prev) {

prev.next = next;

}

else {

// Is head

this.head = next;

}

if (next) {

next.prev = prev;

}

else {

// Is tail

this.tail = prev;

}

entry.next = entry.prev = null;

this._len--;

}

/**

* Get length

*/

len(): number {

return this._len;

}

/**

* Clear list

*/

clear() {

this.head = this.tail = null;

this._len = 0;

}

}

```

LRU 核心算法

主要职责:

  • 将数据添加到链表并更新链表顺序
  • 缓存命中时更新链表的顺序
  • 内存溢出抛弃过时的链表数据

```typescript

/**

* LRU Cache

*/

export default class LRU<T> {

private _list = new LinkedList<T>()

private _maxSize = 10

private _lastRemovedEntry: Entry<T>

private _map: Dictionary<Entry<T>> = {}

constructor(maxSize: number) {

this._maxSize = maxSize;

}

/**

* @return Removed value

*/

put(key: string | number, value: T): T {

const list = this._list;

const map = this._map;

let removed = null;

if (map[key] == null) {

const len = list.len();

// Reuse last removed entry

let entry = this._lastRemovedEntry;

if (len >= this._maxSize && len > 0) {

// Remove the least recently used

const leastUsedEntry = list.head;

list.remove(leastUsedEntry);

delete map[leastUsedEntry.key];

removed = leastUsedEntry.value;

this._lastRemovedEntry = leastUsedEntry;

}

if (entry) {

entry.value = value;

}

else {

entry = new Entry(value);

}

entry.key = key;

list.insertEntry(entry);

map[key] = entry;

}

return removed;

}

get(key: string | number): T {

const entry = this._map[key];

const list = this._list;

if (entry != null) {

// Put the latest used entry in the tail

if (entry !== list.tail) {

list.remove(entry);

list.insertEntry(entry);

}

return entry.value;

}

}

/**

* Clear the cache

*/

clear() {

this._list.clear();

this._map = {};

}

len() {

return this._list.len();

}

}

```

其他 LRU 算法

除了以上常见的 LRU 算法,随着需求的复杂多样,基于 LRU 的思想也衍生出了许多优化算法,例如:

  • LRU-K 算法
  • LRU-Two queues(2Q)算法
  • LRU-Multi queues(MQ)算法
  • [LFU 算法](https://leetcode-cn.com/problems/lfu-cache/)
  • [LRU变种算法](https://blog.csdn.net/u010223431/article/details/105498387)

参考链接

  • [Zrender - LRU](https://github.com/ecomfe/zrender/blob/master/src/core/LRU.ts)
  • [知乎 - 存淘汰算法--LRU算法](https://zhuanlan.zhihu.com/p/34989978)
  • [LRU算法](https://www.cnblogs.com/wyq178/p/9976815.html)
  • [LRU 策略详解和实现](https://leetcode-cn.com/problems/lru-cache/solution/lru-ce-lue-xiang-jie-he-shi-xian-by-labuladong/)

相关推荐

博科矩阵新IP网络推动发展OTT服务

近日消息,日本电信服务提供商软银集团正在部署博科VDX交换机,为集团公司通用服务基础架构网络提供以太网矩阵,从而简化数据中心运营。这个新的基础架构将大幅度降低软银数据中心网络运营的复杂度和成本,使该公...

博科SDN战略落地 首款控制器Vyatta面世

ZDNET网络频道10月10日评论消息(文/于泽):虽然软件定义网络(SDN)近两年被炒得很热,但一直属于雷声大雨点小。各网络厂商都声称自家的交换机能够支持OpenFlow协议、实现SDN,不过就...

博科网络矩阵助Skilled Group“时刻在线”

澳大利亚最大的劳动力解决方案提供商SkilledGroup采用博科以太网和光纤通道存储区域网络(SAN)矩阵部署了一个创新的网络,从而打造了一个“时刻在线”的IT基础架构。博科矩阵实现了零停机环境以...

博科基于OpenDaylight推出SDN控制器Vyatta

ZDNET网络频道09月23日编译:博科周一宣布推出Vyatta控制器。Vyatta是博科SDN产品系列中一个新的主打产品。博科表示,Vyatta控制器是一步一步的从OpenDaylight项目中...

浏览器https方式访问博科FC光交显示没有匹配的加密算法套件

浏览器https方式访问博科FC光交显示没有匹配的加密算法套件报错的解决办法。。------------------------------------------------------------...

博科携手VMware推动软件定义数据中心和网络虚拟化的普及

2014年10月14日--博科(NASDAQ:BRCD)今天宣布,公司携手VMware,推出支持新IP的解决方案,以期让企业能够更轻松地迁移到软件定义数据中心(SDDC)和使用网络虚拟化。博科公司...

博科公司为追求速度极致的闪存拥趸提供光纤通道交换机

博科公司已经发布了一款每秒32Gbit第六代光纤通道交换机,这意味着其能够将现有每秒16Gbit连接速度提升一倍。其G620交换机采用1U机箱,提供24到64个端口,据博科方面所言这已经达到当前业...

博科推出第6代交换机 扩大光纤存储地位

博科今天宣布推出业内第一台第6代光纤通道存储网络交换机——博科G620,进一步扩大了博科在光纤通道技术领域的地位。这一全新专用且高密度SAN交换机提供突破性的性能和高可扩展性,旨在支持来自核心应用的数...

微信官宣新功能上线,聊天记录备份、迁移更好用了!

说到手机里哪个App最占空间,很多用户的答案大概都是微信,动辄占用几十甚至上百GB。不仅App本身体积庞大,更主要的是日积月累的聊天记录导致了空间的迅速消耗。此前,释放微信空间的常用方法是将...

局域网沟通工具--BeeBEEP(局域网内部聊天工具)

原文链接:局域网沟通工具--BeeBEEPHello,大家好啊!今天给大家带来一篇关于在信创终端上使用BeeBEEP的文章。BeeBEEP是一款安全、便捷的局域网即时通讯工具,支持文字聊天、文...

企业 IM 即时通讯底座,支持局域网通讯

在数字化浪潮下,企业对即时通讯的需求日益增长,尤其是对通讯安全性、可控性的要求愈发严苛。BeeWorks作为专业的企业IM即时通讯底座,凭借对局域网通讯的支持,为企业打造了优质可控的即时通讯与实...

IM即时通讯软件,构建企业局域网内安全协作

安全与权限:协同办公的企业级保障在协同办公场景中,BeeWorks将安全机制贯穿全流程。文件在局域网内传输与存储时均采用加密处理,企业网盘支持水印预览、离线文档权限回收等功能,防止敏感资料外泄;多人...

当今信息化时代都离不开WLAN, 今天给大家普及一下WLAN知识

无线局域网(WirelessLocalAreaNetworks/WLAN)一.无线让网络使用更自由:1.凡是自由空间均可连接网络,不受限于线缆和端口位置。二.无线让网络建设更经济:1.终端...

软网推荐:寻找WebQQ替代者 在线可以继续聊

不少公司禁止上班聊天,常常采取封禁QQ、关闭端口等方法,导致很多聊天软件无法使用。以前我们可以通过WebQQ绕开限制,不过WebQQ在2019年1月1日开始停止服务,想要继续隐蔽聊天,就只能找其他一些...

搭建自己的聊天室平台、公司内部聊天平台,Rocket.Chat搭建使用

一,简介rocket.chat是一个开源的社交软件,即可以直接在web页面使用,也可以下载APP(Android,IOS,Windows,MacOS)主要功能:群组聊天,直接通信,私聊群,桌面通知...

取消回复欢迎 发表评论: