导读 | 我们在《大容量类 Redis 存储 — 有关 pika 的一切》里介绍过pika的诞生、pika的特点、pika的核心以及pika的使用。文章中非常详细的解析了pika同步逻辑中的重要文件:“write2file”的数据存储方式及实现原理,非常值得一看! |
pika 是 360 web 平台部 dba 与基础架构组合作开发的大容量类 redis 存储,pika 的出现并不是为了替代 redis,而是 redis 的场景补充。pika 力求在完全兼容 redis 协议、继承 redis 便捷运维设计的前提下通过持久化存储的方式解决 redis 在大容量场景下的问题,如恢复时间慢、主从同步代价高、单线程相对脆弱、承载数据较有限、内存成本高昂等。
pika主从复制原理之binlogbinlog相关的文件包含两部分: manifest和write2file,其中manifest记录了日志元信息,包括当前日志文件编号、当前日志文件偏移量,write2file+num记录了pika接收到的所有redis写命令、参数。
文件格式manifest文件格式:
日志偏移量(8字节)|con_offset(8字节,未使用)|元素个数(4字节,未使用)|日志文件编号(4字节)。
Binlog文件格式:
Binlog文件固定大小为100MB,每个Binlog文件由多个Block组成,每个Block大小固定为64KB,每一个写redis命令称为一个Record。一个Record可以分布在多个Block中,但只会分布在一个Binlog文件里,所以Binlog文件有可能大于100MB。
Record格式:Header|Cmd
Header: Record Length(3字节)|时间戳(4字节)|记录类型(1字节)。
Cmd: redis命令的一部分或者全部,取决于当前Block剩余空间是否可以存放该Record。
实现类基本类
Version: 元信息类,通过mmap与manifest文件映射。
Binlog: 日志类,通过mmap与write2file文件映射。
PikaBinlogSenderThread: 日志消费类,顺序读取日志文件内容,消费日志。
基本操作构造Binlog
//file_size可以在配置文件指定,默认为100MB
Binlog::Binlog(const std::string& binlog_path, const int file_size)
1.1创建binlog文件目录。
1.2检查log目录下manifest文件是否存在,不存在则新建。
1.3根据manifest文件初始化Version类。
1.4根据manifest中的filenum找到对应的日志文件,根据pro_offset定位到文件append的位置,初始化日志指针、记录日志内容长度、Block块数量。
更新当前日志生产状态
//pro_num: 日志文件编号
//pro_offset: 日志文件偏移量
//用在需要全量同步时更新slave实例对应的binlog信息
Status Binlog::SetProducerStatus(uint32_t pro_num, uint64_t pro_offset)
2.1 删除write2file0。
2.2 删除write2file+pro_num。
2.3 构造新的write2file+pro_num文件,填充pro_offset个空格,初始化version->pro_num为pro_num,version->pro_offset为pro_offset,并刷新到manifest文件中。
2.4 初始化当前filesize、block_offset。
更新当前日志生产状态
//filenum: 当前日志编号
//pro_offset: 当前日志偏移量
Status Binlog::GetProducerStatus(uint32_t* filenum, uint64_t* pro_offset)
3.1 读取version中的pro_num、pro_offset并返回。
生产日志
//Put->Produce->EmitPhysicalRecord
Status Binlog::Put(const std::string &item)
4.1检查当前日志文件是否满足切割条件,如果满足则进行切割。
4.1.1 pro_num自增加1,初始化新的日志文件,version->pro_num=pro_num,version->pro_offset = 0,binlog->filesize = 0,binlog->block_offset = 0。
4.1.2 如果当前block剩余大小
4.1.3 Produce是一个循环,保证在item大小超过kBlockSize时,可以进行多次EmitPhysicalRecord,完成item全部数据落入binlog文件,循环正常退出的条件是left==0。
4.1.3.1 如果left
4.1.3.2 如果left > avail,代表需要多个Block存放item,则第一次Type=kFirstType,调用EmitPhysicalRecord多次。
4.1.3.3 如果left > avail,且不是第一次EmitPhysicalRecord,则Type=kMiddleType,调用EmitPhysicalRecord多次。
4.1.4EmitPhysicalRecord。
4.1.4.1 拼接RecordHeader(3字节长度+4字节时间+1字节Type),写入数据,更新block_offset、pro_offset。
消费日志
//scratch: 消费结果返回一个完整的redis cmd
//Consume->ReadPhysicalRecord,ReadPhysicalRecord每次读取一个完整的Record,多个Record构成一个完整的redis cmd
Status PikaBinlogSenderThread::Consume(std::string &scratch)
5.1Consume是一个循环,可能多次调用ReadPhysicalRecord,循环退出的条件是读取到的record_type==kFullType或record_type==kLastType。
5.1.1如果读取到的kBlockSize-last_record_offset_
5.1.2读取数据,更新last_record_offset_,con_offset。
以上就是Pika: 补充大容量类 Redis 存储的适用场景的详细内容,更多请关注慧达安全导航其它相关文章!
免责 声明
1、本网站名称:慧达安全导航
2、本站永久网址:https//www.huida178.com/
3、本站所有资源来源于网友投稿和高价购买,所有资源仅对编程人员及源代码爱好者开放下载做参考和研究及学习,本站不提供任何技术服务!
4、本站所有资源的属示图片和信息不代表本站的立场!本站只是储蓄平台及搬运
5、下载者禁止在服务器和虚拟机下进行搭建运营,本站所有资源不支持联网运行!只允许调试,参考和研究!!!!
6、未经原版权作者许可禁止用于任何商业环境,任何人不得擅作它用,下载者不得用于违反国家法律,否则发生的一切法律后果自行承担!
7、为尊重作者版权,请在下载24小时内删除!请购买原版授权作品,支持你喜欢的作者,谢谢!
8.若资源侵犯了您的合法权益,请持 您的版权证书和相关原作品信息来信通知我们!QQ:1247526623我们会及时删除,给您带来的不便,我们深表歉意!
9、如下载链接失效、广告或者压缩包问题请联系站长处理
10、如果你也有好源码或者教程,可以发布到网站,分享有金币奖励和额外收入!
11、本站资源售价只是赞助,收取费用仅维持本站的日常运营所需
12、因源码具有可复制性,一经赞助,不得以任何形式退款。
13、本文内容由网友自发贡献和站长收集,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系1247526623@qq.com
转载请注明出处: 慧达安全导航 » Pika: 补充大容量类 Redis 存储的适用场景
发表评论 取消回复