请选择 进入手机版 | 继续访问电脑版

ITIL,DevOps,ITSS,ITSM,IT运维管理-ITIL先锋论坛

 找回密码
 微信、QQ、手机号一键注册

扫描二维码登录本站

QQ登录

只需一步,快速开始

搜索
查看: 128|回复: 0

好学生,SRE基础学习笔记实录

[复制链接]
发表于 2020-11-19 17:15:10 | 显示全部楼层 |阅读模式
            . H2 T  L2 f  T. {* g8 L
            
                    前言
这几天打算利用碎片时间读了一下"SRE Google运维解密"这本书,目前读了前几章,感觉收获颇多,结合自己的工作经历和书中的要点,写一些感悟和思考
SRE
有关SRE我就不多介绍了,中文名字叫站点可靠性工程师,它的由来是google想通过软件工程师来解决复杂运维问题。 它里面有很多有意思的点,比如:
  • 运维工作只能占比工作时间50%
  • 另外50%要开发工具解决问题
  • SRE和开发工程师会轮岗
    % ?; G/ V2 i$ O8 i5 L
这些相关概念网上很多都介绍了,我就不赘述了,我说下一些我感兴趣的点
谷歌神话
谷歌一直在技术领域处于世界领先位置,从bigtable的三篇论文,开源的k8s,分布式关系数据库,谷歌的技术在IT领域可以说是标杆。
有个传说是谷歌内部使用的系统一般2-3年以后才会出相关论文或者开源版本实现,出来了以后其它企业开始实践还需要2-3年,等到你把这些实现了,谷歌又不知道实现了什么黑科技。IT界如果是江湖的话,谷歌就像是少林派,有一种天下武功出少林的气派。
所以SRE这本书自带光环,很多人都觉得这是运维圣经,觉得这是拯救运维领域的不二法宝。
或许你也在读这本书,你也想在内部尝试SRE的一些方法和思想。
那么首先我劝你先冷静一下,它并不是一个万能的解药,要先考虑下你的公司现状,问题,结合实际国情,找到切实可行的方法。
我为什么这么说呢?请往下看
谷歌的肌肉
首先本书一开始简单说了下SRE的思想和方法论,然后介绍了谷歌的基础设施,就好像一个人一样,谷歌的基础设施就是这个人的肌肉,有了强劲的肌肉才能跑得快,跳得高。
网络设施
谷歌基于自研的交换机Clos,使用SDN技术,确保每个数据中心可提供海量带宽,并且可以动态带宽管理优化网络连接。
调度系统
使用Borg负责在集群层面管理任务编排工作
存储
在物理机设施(磁盘)上构建了一套简单可用,可靠的集群存储服务。
  • Colossus GFS文件系统的改进白本
  • Bigtable 松散存储的,分布式,有顺序,持久化的NoSQL数据库
  • Spanner 分布式的关系型数据库
    ! _6 u" h3 K  _$ q, d
分布式锁
Chubby 提供一个可以处理异地,跨机房级别锁请求的集群锁服务
监控和报警
Borgmon 从监控对象抓取监控指标,这些指标可以用来触发报警,也可以存储起来供观看。(开源实现是Prometheus)
RPC
所有谷歌服务之间使用RPC通信,称为Stubby(开源实现gRPC),传输格式是Protobuf。
GSLB和BNS
  • 利用地理位置进行负载均衡DNS请求
  • 用户服务层面负载均衡
  • RPC层面负载均衡
    2 |8 K9 j6 I6 [+ i
通过各个层面的负载均衡将用户流量导向健康的服务上面。
这些完善的基础设施,给SRE中的方法和思想做了强有力的支撑。
故障不是洪水猛兽
SRE中定义了一个概念叫SLO(服务质量目标),通过SLO合理评判一个服务要达成的服务质量。
首先我先说下”故障“这个词,这个词对运维人员来说,是非常不想听到和遇到的。运维人员有一个重要任务是确保服务的稳定,换句话说就是没有故障。
所以我们或多或少谈到“故障”就会色变,遇到故障马上第一时间解决,为了避免下次还出现,我们可能还会开“事故总结会”,优化流程和工具。
其实我们很多时候对于“故障”的理解是简单粗暴的,从一线员工到老板都认为“故障不能有”,“故障必须消除”,我们耗费很大精力“消除了一切故障”,系统平稳运行了,自己也会萌生成就感,感觉干的还不赖。可是并没有进一步去思考一下,故障存在的意义。
我们常见的所谓“99.9%”,“99.99%”的服务可用性,但是并没有使用科学方法来分析和规划业务到底应该3个9还是4个9。
SRE中说到一句话“100%稳定的系统是不存在的”,它把这个做为一个前提,那也意味着系统是肯定要出故障的。
SLO就是用来解决这个事情的,首先服务的故障不可避免,每个服务的级别不同,不可能所有服务都是99.999999,要针对业务的不通特性制定不同的SLO。
比如: 谷歌的企业服务,针对企业用户是有签署服务中断赔偿协议的,那么稳定性要求很高,所以它的SLO级别必须很高。 谷歌的youtube(当时),针对终端用户且版本迭代很快,业务在不断变化和创新,SLO级别可以放低。
SLO的制定通常是产品经理,开发团队,SRE一起协商完成,大家根据业务的规模,产品特性,产品处于的阶段制定。
SLO的制定,我觉得就是科学的面对“故障”这个问题,故障不可避免,不应该以消灭故障为目的,合理的接受它,确保它在SLO标准的范围内,高于这个标准会浪费人力和成本,低于这个标准就需要进行优化。
SLO的制定很大程度在于各个团队之间的协商,大家都有基于数据的科学评判方法,比如产品预估的用户数,产品发版周期,使用带宽等。
中国的国情更多的是拍脑袋,老板的态度,上面的一句话“不能有事故”,那就是99.999999999999999无限,没有科学的进行评估。
SLO解决的问题
通过这样一个SLO,之前很多令人头疼的问题就迎刃而解了。
成本和收益的矛盾
大家都知道维护服务可用性的成本不是线性增长的,到一定程度,增加一个9可能需要10倍100倍的成本,通过SLO让成本和收益取得很好的平衡,假设一个业务增加SLO等级,可以计算一下需要的成本和带来的收益,如果得不偿失就可以不用增加SLO等级。
科学的运维
有了SLO,对于运维工作有了可量化的标准,运维工程师不用每天提心吊胆,生怕出现故障,只要故障在SLO范围内就是可接受的,节省出很多精力用在更重要的事情上。
稳定和创新的矛盾
大家都知道运维工程师最不喜欢的就是“线上变更”,一个服务如果不做变更一般都是很稳定的,问题往往出现在变更上。7 T4 `" p1 k3 u2 B
可是一个新业务往往需要大量变更,不停的迭代创新。" [$ N' B% N$ D( U
这个时候运维会说:别做变更了,稳定是第一位的,出了故障,我们得背锅。0 N) V: |7 w% M7 {) D/ q  f
开发会说:我们得变更,这样才有新功能,才能获取更多用户啊。3 a* h/ T& z: |0 a" L; ~
矛盾因此产生了。4 Q+ D- p7 _2 q2 Z
通过SLO很好的解决了这个矛盾,我们先一起给这个业务制定好SLO的等级,如果是需要频繁的变更的,可能SLO等级就会低一些。: w  V7 a( z9 G( U: x( D
这样在满足业务创新的需求上,只要在SLO范围内,就认为业务是稳定的。0 m5 b$ b$ {& h
反之,如果变更太频繁,使故障率超出了SLO可接受的范围,可以要求开发调低变更频率,或者重新制定SLO等级。
# E' L: r* X8 |% I8 @* }3 K0 G这样就解决了业务既要“稳定”又要“创新“的矛盾。
结语
SRE Google运维解密是非常好的一本书,它是谷歌运维体系的结晶,但是它也是建立在谷歌”健壮的肌肉“之上,建立在科学评估(非人治)之上,我们可以从中学习,也要冷静思考。) L4 v& Q2 C/ i+ u
这是SRE读后感第一篇,后续再读几章,再写点。
! L$ U. u+ E2 c- t' E
/ v8 G- J, @3 j  d
5 s+ ?. M  P8 F+ C0 C




上一篇:SRE建设的组织和文化方面
下一篇:SRE与DevOps的结合运营案例分析

本版积分规则

本站关键字: ITIL| ITSM| ISO20000| ITIL培训| ITIL认证| ITIL考试| ITSS| ITSS培训| ITSS认证| IT运维管理| DevOps| DevOps培训| DevOps认证| itop| itil4| 开源ITSM软件

QQ|小黑屋|手机版|Archiver|艾拓先锋网 ( 粤ICP备11099876号-1 )|网站地图

Baidu

GMT+8, 2020-11-28 03:45 , Processed in 0.180508 second(s), 27 queries .

Powered by Discuz! X3.4 Licensed

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表