We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
枪炮一响,黄金万两。故障一出,一年白干。
海恩法则指出:每一起严重事故的背后,必然有 29 次轻微事故和 300 起未遂先兆以及 1000 起事故隐患。
在日常开发工作中,即使我们什么安全措施也不做,好像也基本不会碰到特别严重的线上故障。大部分都是一些小的线上问题,比如样式错乱、文本错误、次按钮不能点击等等。这些问题发现之后,修一下,好像也就过去了,毕竟影响面很小。
但殊不知严重的故障往往就隐藏在这一起一起小的隐患中。
如果我问你:「你负责的系统今年会出现严重事故吗?」
应该没有人敢 100% 保证吧?可能我们会说「有概率,但概率很小」
根据墨菲定律:凡事只要有可能会出错,那就一定会出错。
假如每个系统每年有千分之一的可能性出现严重线上故障,那 1000 个系统出现一次线上故障的概率就是 100% 了。
这个故障有多严重,资损多少,影响用户面有多广,谁也没法预测。
我们每个人都坐在炸弹上,什么时候爆炸,威力有多大,谁也不知道,有可能直接把我们崩回家,也可能直接把公司炸没了。
这不,2021 年 2 月,微盟公司的炸弹,直接炸掉了几十亿。
2020 年 2 月 23 日 18 时 56 分,微盟研发中心运维部运维人员贺某通过个人虚拟专用网登入公司内网跳板机,删除了微盟 SAAS 业务服务主备数据库(但没有做数据覆盖,否则数据不可能找回)。
此次事件修复时间长达 6 天,300 万商铺无法正常营业,微盟公司直接赔付 1.5 亿,股票下跌约 30 亿,当事人判刑 6 年。
万幸的是数据恢复回来了,如果数据恢复不回来,公司应该会直接倒闭。一个炸弹,直接炸掉了公司半条命。
员工数据库权限过大,有删库隐患的问题,肯定不止微盟一家。只是微盟成为天选之子,炸弹爆炸了。
类似的问题微盟不是第一个,也不是最后一个。其它有类似隐患的公司,都有可能成为下一个微盟。
作为前端开发,肯定碰到过依赖升级导致的各种问题。
每一次问题都是一次「未遂先兆」,大部分同学可能骂一下三方库维护者,然后回退下版本,修复了这个问题,就好了,并没有重视这些小问题背后的隐患。 这不,炸弹炸了。 2018 年圣诞节,使用 ant design 组件库的项目发现按钮上多了一个「雪花」,并带有「Ho Ho Ho!」的提示。
事情的根源是 ant design 开发者在 9 月 10 号提交了一次代码,增加了一个时间判断,圣诞节当天触发彩蛋。
此次事件在社区影响很大。
依赖引起的大大小小的故障,你有没有重视?如果没有,那下一个炸弹可能就在你那里爆炸,可能是这样的:
从以上两个案例中,我们可以看到「有可能出问题的地方,一定会出问题」,「大问题出现前会有很多次征兆」。
当然问题肯定是不能完全避免的,我们需要做的就是重视小问题和行业经验,减少事故隐患,降低出问题的概率,同时为所有可能出现的问题做好应急方案。
回到我们的主题,前端质量体系主要的目的就是:
接下来,我会分变更前、变更时、变更后三个部分,来罗列各种能帮助我们提升前端质量的措施。当然有很多方案我也没有实际使用过,所以今天更多的是「纸上谈兵」。
我认为现代项目都应该使用 TS,TS 的静态类型能力,可以极大提升编码质量,提高编码效率,提升代码的可维护性,减少代码隐患。
对比一下使用 JS 和 TS 写的代码
// JS 版本 function editUser(userInfo){ return request('/api/edit', { data: userInfo }) }
// TS 版本 interface UserInfo { id: string; name?: string; age?: number; gender?: 'male' | 'female' } function editUser(userInfo: UserInfo){ return request('/api/edit', { data: userInfo }) }
以上两份代码,你更乐意接手哪份代码呢?
再举个例子
function onChange(params1, params2){ // 一些复杂的代码 }
上面的函数,如果不阅读函数体代码,谁能知道入参格式呢 ~
TS 的更多好处这里就不赘述了,建议能用尽用。
代码静态扫描检查,可以帮助我们避免低级 Bug,统一代码习惯,提升代码质量。
我们最常见的静态代码扫描工具是 ESLint,使用注意事项有:
有些公司也会定期去扫描代码仓库,检查有风险代码,比如容易造成 XSS 攻击的 dangerouslySetInnerHTML 等等。
前端的依赖该不该锁死版本,是一个难题,锁与不锁都会带来严重的问题
之前蚂蚁针对锁与不锁,争论了好几年,最后在两者之间找到了一个相对平衡的解法:项目中依赖不锁,由中间商保证依赖版本。
整体看,蚂蚁的这些依赖管控措施,效果还是挺不错的,之前的几次大的 npm 包故障,对蚂蚁都没啥大的影响。
但对于大部分公司,基础设施没有这么完备,就要根据自己的业务发展阶段和规模自行决定锁与不锁了。我个人建议有一定规模的项目都应该把依赖锁起来,毕竟安全是底线。
感觉未来应该会有新的包管理方案出来,彻底解决类似问题。
将通用的解决方案标准化,比如图片怎么引入、国际化怎么写、CSS 解决方案、请求解决方案、API 格式 等等。
最好能有一份公司内公认的最佳实践,并且大部分项目能遵守这些约定。
我认为比较好的落地方案是:搞一个使用最佳实践的 demo 项目,所有新项目初始化的时候,都使用这一套代码,自然就会延续最佳实践的写法。
单元测试通常是指对代码中最小可测试单元进行检测,比如一个函数、一个组件、一个 React Hook 等等。
比如测试一个函数:
const add = (a, b) => { return a + b; } // 单元测试 test("add numbers", ()=>{ const result = add(1, 2); expect(result).toBe(2); })
比如测试一个组件:
// 测试 Button 组件 disabled 属性正常工作 test('renders with disabled', () => { const { getByRole } = render(<Button disabled>Disabled</Button>) const button = getByRole('button') expect(button).toBeDisabled() })
比如测试一个 React Hook:
it('should update document title', () => { const hook = renderHook((props) => useTitle(props), { initialProps: 'Current Page Title' }); expect(document.title).toBe('Current Page Title'); act(() => { hook.rerender('Other Page Title'); }); expect(document.title).toBe('Other Page Title'); });
单元测试的优点是:
单元测试的缺点是:
e2e 测试,英文全称 End To End Test,也可以翻译成端到端测试。它模拟真实用户,从某个入口开始,逐步执行操作,直到完成某项工作。
比如测试登录功能:
it('should register work', async () => { const BASE_URL = 'http://localhost:8000/login'; await page.goto(`${BASE_URL}`); await page.waitForSelector('button[class="ant-btn ant-btn-primary ant-btn-lg"]'); await page.fill('input[id="username"]', 'admin'); // 输入用户名 await page.fill('input[id="password"]', 'ant.design'); // 输入密码 await page.click('button[class="ant-btn ant-btn-primary ant-btn-lg"]'); // 点击按钮 await page.waitForNavigation(); // 页面跳转 const url = await page.url(); expect('go home after login', url).toBe(homeUrl); });
如果我们把项目中主要的功能都编写好测试用例,在每次代码变更后,自动全量执行一遍,就能知道本次变更是否影响到了主流程。这个又叫自动化测试。
如果我们把上述用例在各种浏览器跑一遍,就知道是否存在阻塞主流程的兼容性问题,这个又叫前端兼容性测试。
如果我们能在关键步骤上,增加截图对比断言,就可以知道页面样式是否错乱。 类似下面这样
最后如果你觉得编写测试用例很复杂,那你可以使用录制工具,将你在浏览器的真实操作录制成测试用例。
用例的录制对非开发同学非常友好,比如测试同学就可以录制各种用例,做自动化测试。
如果能把 e2e 测试融合到公司的软件研发流程中,对项目质量的提升一定是大有裨益的。但难点也在如何很好的融合到公司的整个研发流程中。
e2e 测试看起来很美好,但也有很多缺点:
e2e 测试一般是核心功能测试,前后端集成测试,依赖后端接口,很多边界情况没办法测试到。
比如一个上拉加载的列表页,在前端层面看,会有以下几种情况:
以上五种情况,需要 5 种不同的接口数据,怎么做?这我提一个思路:
理论上,同一个页面,同一份 Mock 数据,在不同迭代之间渲染出来的前端页面是一样的。如果我们能把每一个页面的每一种 Mock 数据渲染的页面做对比,就能知道当前迭代前端层面实际引起的所有变更。
该方案的难点在如何工程化,即如何管理 Mock 数据,怎么跟着迭代走,总得来说就是怎么很好的融合到公司的研发流程中。
对于本地提交的代码,默认都是不可信的,因为 ESLint 检查是可以绕过的,TS 类型可能有报错,测试用例也可能没有执行通过。
所以在非本地环境,我们一定要加上检查卡点,检查内容包括不限于 ESLint 等静态代码检查、测试用例是否通过、测试覆盖率、构建产物的大小等等。
卡点阶段可以是在代码合并之前,部署之前,迭代阶段推进之前,发布之前等,需要根据不同的卡点内容选择合适的阶段。
CR 是代码准入的一个人工卡点环节,能比较有效的提升代码质量。但如何建设好的 CR 文化是一个比较难的命题,很多人都是「点点工程师(不看光点)」? 有些公司会在待 CR 的代码中注入一些恶意代码,看评审人有没有认真审核代码。
灰度发布是指我们可以将新版本逐步放量,让部分用户先来使用新版本。
假如我们的用户量有一百万,如果没有灰度,我们每次发布的时候都是「牙一咬,眼睛一闭,心一横」,点击发布按钮,全量生效。如果出问题,影响面就非常广。
具备灰度能力的话,我们就可以根据特定条件筛选出来一部分用户,比如 1% 的用户,当这 1% 的用户使用没有问题的话,我们再逐步扩大用户范围,直到全量发布完成。
灰度发布可以极大降低发布风险,在前端安全中是非常重要的一环。
部分公司也会引入智能灰度,比如灰度过程中程序发现监控故障增加,自动回滚。或者在没有故障的情况下,自动推进灰度进程。
对于任何变更,我们都需要提前设计好应急措施。
新的变更最好可以添加开关控制。比如本次变更新增了一块功能,我们可以在数据库新增一个 isShow 的标识,如果这个功能出问题,我们可以立即修改数据库,下线该功能。
另外就是迭代之间的「回滚」能力一定要具备,对于开关控制满足不了的,要能立即回滚到上一个迭代。
如果系统没有监控,那我们就是两眼抹黑,对系统当前的运行状态完全不了解。出问题全靠用户反馈,迟早要出大问题。
标准的前端监控应该包括以下数据:
一个优秀的监控系统,需要考虑以下几个方面:
有些前端异常,仅凭借前端自身是监控不到的。比如用户完全打不开前端页面,html 都加载失败了。这种情况下我们需要和容器端配合做监控了。
拥有了监控数据后,我们就能实时看到项目的健康度了,比如接口成功率、JS 异常数量、实时用户数等等。
如果我们在灰度 1% 的时候,突然发现新增了以前没有出现过的 JS 异常,那大概率是这次发布引起的。或者灰度用户核心接口的调用量下跌了 30%,那也要仔细排查了。
拥有监控数据后,我们就可以根据数据的变化,来配置报警,以便及时发现线上故障。
我认为通用的前端应该具备以下报警能力:
关于报警配置,我自己有两点看法:
报警配置一定要做好降噪,如果经常都是无效报警,那就是狼来了,等出现真正线上问题的时候就没人关心了。所以报警的配置需要根据业务的情况不断调整到合适的数值。
手中有粮,心中不慌~
巡检是指通过脚本,定时去检查线上应用是否正常工作。 比如:
质量建设不是一次性的,需要持续不断的提升开发者的质量意识,检查质量建设进度,复盘线上故障。
前端质量解决方案有很多,至于哪些适合自己,需要根据自己的项目阶段和规模来筛选。
在接入各种质量手段的时候,需要考虑手段采用的越多,越影响我们的开发效率。作为质量负责人,一定不能顾头不顾尾,逼着大家接入 ABCDEFG~。最好的解决方案是在质量和效率之间找到一个平衡点,如果能做到润物细无声就最好了。
如何把前端质量体系很好的融入到 devops 的整个环节中,做到自然而然,是一件非常有挑战性的事情。
生产稳定性一定是产品的生命线,只有重视每一个小问题,才能在最大程度上减少线上故障,希望大家的系统都不出故障~~
最后欢迎大家关注我的公众号《前端技术砖家》,一起学习前端~
The text was updated successfully, but these errors were encountered:
今天在稀土看到这篇文章,没法不登录点赞,专程找来这里就为了点个赞 👍
Sorry, something went wrong.
No branches or pull requests
1. 背景
海恩法则指出:每一起严重事故的背后,必然有 29 次轻微事故和 300 起未遂先兆以及 1000 起事故隐患。
在日常开发工作中,即使我们什么安全措施也不做,好像也基本不会碰到特别严重的线上故障。大部分都是一些小的线上问题,比如样式错乱、文本错误、次按钮不能点击等等。这些问题发现之后,修一下,好像也就过去了,毕竟影响面很小。
但殊不知严重的故障往往就隐藏在这一起一起小的隐患中。
如果我问你:「你负责的系统今年会出现严重事故吗?」
应该没有人敢 100% 保证吧?可能我们会说「有概率,但概率很小」
根据墨菲定律:凡事只要有可能会出错,那就一定会出错。
假如每个系统每年有千分之一的可能性出现严重线上故障,那 1000 个系统出现一次线上故障的概率就是 100% 了。
这个故障有多严重,资损多少,影响用户面有多广,谁也没法预测。
我们每个人都坐在炸弹上,什么时候爆炸,威力有多大,谁也不知道,有可能直接把我们崩回家,也可能直接把公司炸没了。
这不,2021 年 2 月,微盟公司的炸弹,直接炸掉了几十亿。
1.1 微盟事件
2020 年 2 月 23 日 18 时 56 分,微盟研发中心运维部运维人员贺某通过个人虚拟专用网登入公司内网跳板机,删除了微盟 SAAS 业务服务主备数据库(但没有做数据覆盖,否则数据不可能找回)。
此次事件修复时间长达 6 天,300 万商铺无法正常营业,微盟公司直接赔付 1.5 亿,股票下跌约 30 亿,当事人判刑 6 年。
万幸的是数据恢复回来了,如果数据恢复不回来,公司应该会直接倒闭。一个炸弹,直接炸掉了公司半条命。
员工数据库权限过大,有删库隐患的问题,肯定不止微盟一家。只是微盟成为天选之子,炸弹爆炸了。
类似的问题微盟不是第一个,也不是最后一个。其它有类似隐患的公司,都有可能成为下一个微盟。
1.2 前端三方依赖隐患
作为前端开发,肯定碰到过依赖升级导致的各种问题。
每一次问题都是一次「未遂先兆」,大部分同学可能骂一下三方库维护者,然后回退下版本,修复了这个问题,就好了,并没有重视这些小问题背后的隐患。
这不,炸弹炸了。 2018 年圣诞节,使用 ant design 组件库的项目发现按钮上多了一个「雪花」,并带有「Ho Ho Ho!」的提示。
事情的根源是 ant design 开发者在 9 月 10 号提交了一次代码,增加了一个时间判断,圣诞节当天触发彩蛋。
此次事件在社区影响很大。
依赖引起的大大小小的故障,你有没有重视?如果没有,那下一个炸弹可能就在你那里爆炸,可能是这样的:
从以上两个案例中,我们可以看到「有可能出问题的地方,一定会出问题」,「大问题出现前会有很多次征兆」。
当然问题肯定是不能完全避免的,我们需要做的就是重视小问题和行业经验,减少事故隐患,降低出问题的概率,同时为所有可能出现的问题做好应急方案。
回到我们的主题,前端质量体系主要的目的就是:
接下来,我会分变更前、变更时、变更后三个部分,来罗列各种能帮助我们提升前端质量的措施。当然有很多方案我也没有实际使用过,所以今天更多的是「纸上谈兵」。
2. 变更前
2.1 使用 TypeScript
我认为现代项目都应该使用 TS,TS 的静态类型能力,可以极大提升编码质量,提高编码效率,提升代码的可维护性,减少代码隐患。
对比一下使用 JS 和 TS 写的代码
以上两份代码,你更乐意接手哪份代码呢?
再举个例子
上面的函数,如果不阅读函数体代码,谁能知道入参格式呢 ~
TS 的更多好处这里就不赘述了,建议能用尽用。
2.2 静态扫描
代码静态扫描检查,可以帮助我们避免低级 Bug,统一代码习惯,提升代码质量。
我们最常见的静态代码扫描工具是 ESLint,使用注意事项有:
有些公司也会定期去扫描代码仓库,检查有风险代码,比如容易造成 XSS 攻击的 dangerouslySetInnerHTML 等等。
2.3 三方依赖
前端的依赖该不该锁死版本,是一个难题,锁与不锁都会带来严重的问题
之前蚂蚁针对锁与不锁,争论了好几年,最后在两者之间找到了一个相对平衡的解法:项目中依赖不锁,由中间商保证依赖版本。
整体看,蚂蚁的这些依赖管控措施,效果还是挺不错的,之前的几次大的 npm 包故障,对蚂蚁都没啥大的影响。
但对于大部分公司,基础设施没有这么完备,就要根据自己的业务发展阶段和规模自行决定锁与不锁了。我个人建议有一定规模的项目都应该把依赖锁起来,毕竟安全是底线。
感觉未来应该会有新的包管理方案出来,彻底解决类似问题。
2.4 标准化
将通用的解决方案标准化,比如图片怎么引入、国际化怎么写、CSS 解决方案、请求解决方案、API 格式 等等。
最好能有一份公司内公认的最佳实践,并且大部分项目能遵守这些约定。
我认为比较好的落地方案是:搞一个使用最佳实践的 demo 项目,所有新项目初始化的时候,都使用这一套代码,自然就会延续最佳实践的写法。
2.5 单元测试
单元测试通常是指对代码中最小可测试单元进行检测,比如一个函数、一个组件、一个 React Hook 等等。
比如测试一个函数:
比如测试一个组件:
比如测试一个 React Hook:
单元测试的优点是:
单元测试的缺点是:
2.6 E2E 测试
e2e 测试,英文全称 End To End Test,也可以翻译成端到端测试。它模拟真实用户,从某个入口开始,逐步执行操作,直到完成某项工作。
比如测试登录功能:
如果我们把项目中主要的功能都编写好测试用例,在每次代码变更后,自动全量执行一遍,就能知道本次变更是否影响到了主流程。这个又叫自动化测试。
如果我们把上述用例在各种浏览器跑一遍,就知道是否存在阻塞主流程的兼容性问题,这个又叫前端兼容性测试。
如果我们能在关键步骤上,增加截图对比断言,就可以知道页面样式是否错乱。
类似下面这样
最后如果你觉得编写测试用例很复杂,那你可以使用录制工具,将你在浏览器的真实操作录制成测试用例。
用例的录制对非开发同学非常友好,比如测试同学就可以录制各种用例,做自动化测试。
如果能把 e2e 测试融合到公司的软件研发流程中,对项目质量的提升一定是大有裨益的。但难点也在如何很好的融合到公司的整个研发流程中。
e2e 测试看起来很美好,但也有很多缺点:
2.7 纯前端全覆盖测试
e2e 测试一般是核心功能测试,前后端集成测试,依赖后端接口,很多边界情况没办法测试到。
比如一个上拉加载的列表页,在前端层面看,会有以下几种情况:
以上五种情况,需要 5 种不同的接口数据,怎么做?这我提一个思路:
理论上,同一个页面,同一份 Mock 数据,在不同迭代之间渲染出来的前端页面是一样的。如果我们能把每一个页面的每一种 Mock 数据渲染的页面做对比,就能知道当前迭代前端层面实际引起的所有变更。
该方案的难点在如何工程化,即如何管理 Mock 数据,怎么跟着迭代走,总得来说就是怎么很好的融合到公司的研发流程中。
2.8 变更卡点
对于本地提交的代码,默认都是不可信的,因为 ESLint 检查是可以绕过的,TS 类型可能有报错,测试用例也可能没有执行通过。
所以在非本地环境,我们一定要加上检查卡点,检查内容包括不限于 ESLint 等静态代码检查、测试用例是否通过、测试覆盖率、构建产物的大小等等。
卡点阶段可以是在代码合并之前,部署之前,迭代阶段推进之前,发布之前等,需要根据不同的卡点内容选择合适的阶段。
2.9 Code Review
CR 是代码准入的一个人工卡点环节,能比较有效的提升代码质量。但如何建设好的 CR 文化是一个比较难的命题,很多人都是「点点工程师(不看光点)」?
有些公司会在待 CR 的代码中注入一些恶意代码,看评审人有没有认真审核代码。
3. 变更中
3.1 灰度
灰度发布是指我们可以将新版本逐步放量,让部分用户先来使用新版本。
假如我们的用户量有一百万,如果没有灰度,我们每次发布的时候都是「牙一咬,眼睛一闭,心一横」,点击发布按钮,全量生效。如果出问题,影响面就非常广。
具备灰度能力的话,我们就可以根据特定条件筛选出来一部分用户,比如 1% 的用户,当这 1% 的用户使用没有问题的话,我们再逐步扩大用户范围,直到全量发布完成。
灰度发布可以极大降低发布风险,在前端安全中是非常重要的一环。
部分公司也会引入智能灰度,比如灰度过程中程序发现监控故障增加,自动回滚。或者在没有故障的情况下,自动推进灰度进程。
3.2 应急
对于任何变更,我们都需要提前设计好应急措施。
新的变更最好可以添加开关控制。比如本次变更新增了一块功能,我们可以在数据库新增一个 isShow 的标识,如果这个功能出问题,我们可以立即修改数据库,下线该功能。
另外就是迭代之间的「回滚」能力一定要具备,对于开关控制满足不了的,要能立即回滚到上一个迭代。
3.3 监控
如果系统没有监控,那我们就是两眼抹黑,对系统当前的运行状态完全不了解。出问题全靠用户反馈,迟早要出大问题。
标准的前端监控应该包括以下数据:
一个优秀的监控系统,需要考虑以下几个方面:
有些前端异常,仅凭借前端自身是监控不到的。比如用户完全打不开前端页面,html 都加载失败了。这种情况下我们需要和容器端配合做监控了。
拥有了监控数据后,我们就能实时看到项目的健康度了,比如接口成功率、JS 异常数量、实时用户数等等。
如果我们在灰度 1% 的时候,突然发现新增了以前没有出现过的 JS 异常,那大概率是这次发布引起的。或者灰度用户核心接口的调用量下跌了 30%,那也要仔细排查了。
3.4 报警
拥有监控数据后,我们就可以根据数据的变化,来配置报警,以便及时发现线上故障。
我认为通用的前端应该具备以下报警能力:
关于报警配置,我自己有两点看法:
报警配置一定要做好降噪,如果经常都是无效报警,那就是狼来了,等出现真正线上问题的时候就没人关心了。所以报警的配置需要根据业务的情况不断调整到合适的数值。
手中有粮,心中不慌~
4. 变更后
4.1 巡检
巡检是指通过脚本,定时去检查线上应用是否正常工作。
比如:
4.2 质量运营
质量建设不是一次性的,需要持续不断的提升开发者的质量意识,检查质量建设进度,复盘线上故障。
要能对质量进行有效的度量,比如以故障次数、严重程度等进行评分。对于单个项目在一个绩效周期内,需要看到质量评分的提升。对多个项目要整体排名,以提升整体水位。
对线上故障进行复盘,持续完善质量方案。
5. 总结
前端质量解决方案有很多,至于哪些适合自己,需要根据自己的项目阶段和规模来筛选。
在接入各种质量手段的时候,需要考虑手段采用的越多,越影响我们的开发效率。作为质量负责人,一定不能顾头不顾尾,逼着大家接入 ABCDEFG~。最好的解决方案是在质量和效率之间找到一个平衡点,如果能做到润物细无声就最好了。
如何把前端质量体系很好的融入到 devops 的整个环节中,做到自然而然,是一件非常有挑战性的事情。
生产稳定性一定是产品的生命线,只有重视每一个小问题,才能在最大程度上减少线上故障,希望大家的系统都不出故障~~
最后欢迎大家关注我的公众号《前端技术砖家》,一起学习前端~
The text was updated successfully, but these errors were encountered: