大家好,我是山月。
我们把性能优化的方向分为以下两个方面,有助于结构化的思考与系统分析。
「目录」
1. 核心性能指标与 Performance API1.1. 计算与收集2. 更快的传输: CDN3. 更快的传输: http24. 更快的传输: 充分利用 HTTP 缓存5. 更快的传输: 减少 HTTP 请求及负载6. 更小的体积: gzip/brotli7. 更小的体积: 压缩混淆工具8. 更小的体积: 更小的 Javascript9. 更小的体积: 更小的图片10. 渲染优化: 关键渲染路径10.1. preload/prefetch11. 渲染优化: 防抖与节流12. 渲染优化: 虚拟列表优化13. 渲染优化: 请求及资源缓存14. Web Worker15. WASM
web-vitals

当收集浏览器端每个用户核心性能指标时,可通过 web-vitals 收集并通过 sendBeacon 上报到打点系统。
长按识别二维码查看原文
标题:sendBeacon

import { getCLS, getFID, getLCP } from 'web-vitals'
function sendToAnalytics(metric) {
const body = JSON.stringify(metric);
navigator.sendBeacon('/analytics', body))
}
getCLS(sendToAnalytics);
getFID(sendToAnalytics);
getLCP(sendToAnalytics);
将资源分发到 CDN 的边缘网络节点,使用户可就近获取所需内容,大幅减小了光纤传输距离,使全球各地用户打开网站都拥有良好的网络体验。

CDN
http2 的诸多特性决定了它更快的传输速度。
目前,网站已大多上了 http2,可在控制台面板进行查看。

h2
由于 http2 可并行请求,解决了 http1.1 线头阻塞的问题,以下几个性能优化点将会过时
https://shanyue.tech/assets??index.js,interview.js,report.js更好的资源缓存策略,对于 CDN 来讲可减少回源次数,对于浏览器而言可减少请求发送次数。无论哪一点,对于二次网站访问都具有更好的访问体验。
对一个网站的资源进行压缩优化,从而达到减少 HTTP 负载的目的。
对 JS、CSS、HTML 等文本资源均有效,但是对图片效果不大。
gzip 通过 LZ77 算法与 Huffman 编码来压缩文件,重复度越高的文件可压缩的空间就越大。brotli 通过变种的 LZ77 算法、Huffman 编码及二阶文本建模来压缩文件,更先进的压缩算法,比 gzip 有更高的性能及压缩率可在浏览器的 Content-Encoding 响应头查看该网站是否开启了压缩算法,目前知乎、掘金等已全面开启了 brotli 压缩。
# Request Header
Accept-Encoding: gzip, deflate, br
# gzip
Content-Encoding: gzip
# gzip
Content-Encoding: br
Terser 是 Javascript 资源压缩混淆的神器。
长按识别二维码查看原文
标题:Terser

它可以根据以下策略进行压缩处理:
const a = 24 * 60 * 60 * 1000 -> const a = 86400000可在 Terser Repl 在线查看代码压缩效果。
长按识别二维码查看原文
标题:Terser Repl


terser
terser 相同的 API,由于它是由 rust 所写,因此它拥有更高的性能。
长按识别二维码查看原文
标题:swc


关于更小的 Javascript,上边已总结了两条:
还有以下几点可以考虑考虑:
再补充一个问题:
如何分析并优化当前项目的 Javascript 体积?如果使用 webpack 那就简单很多。
webpack-bundle-analyze 分析打包体积import lodash -> import lodash/getimport lodash -> import lodash-es在前端发展的现在,webp 普遍比 jpeg/png 更小,而 avif 又比 webp 小一个级别
为了无缝兼容,可选择 picture/source 进行回退处理
<picture>
<source srcset="img/photo.avif" type="image/avif">
<source srcset="img/photo.webp" type="image/webp">
<img src="img/photo.jpg" width="360" height="240">
</picture>
sharp 等以下五个步骤为关键渲染路径
渲染的优化很大程度上是对关键渲染路径进行优化。
preload/prefetch 可控制 HTTP 优先级,从而达到关键请求更快响应的目的。
<link rel="prefetch" href="style.css" as="style">
<link rel="preload" href="main.js" as="script">
捎带说一下 dns-prefetch,可对主机地址的 DNS 进行预解析。
<link rel="dns-prefetch" href="//shanyue.tech">
无论是防抖还是节流都可以大幅度减少渲染次数,在 React 中还可以使用 use-debounce 之类的 hooks 避免重新渲染。
import React, { useState } from 'react';
import { useDebounce } from 'use-debounce';
export default function Input() {
const [text, setText] = useState('Hello');
// 一秒钟渲染一次,大大降低了重新渲染的频率
const [value] = useDebounce(text, 1000);
return (
<section>
<input
defaultValue={'Hello'}
onChange={(e) => {
setText(e.target.value);
}}
/>
<p>Actual value: {text}</p>
<p>Debounce value: {value}</p>
</section>
);
}
这又是一个老生常谈的话题,一般在视口内维护一个虚拟列表(仅渲染十几条条数据左右),监听视口位置变化,从而对视口内的虚拟列表进行控制。
在 React 中可采用以下库:


在一些前端系统中,当加载页面时会发送请求,路由切换出去再切换回来时又会重新发送请求,每次请求完成后会对页面重新渲染。
然而这些重新请求再大多数时是没有必要的,合理地对 API 进行缓存将达到优化渲染的目的。
function Example() {
// 设置缓存的 Key 为 Users:10086
const { isLoading, data } = useQuery(['users', userId], () => fetchUserById(userId))
}
试举一例:
在纯浏览器中,如何实现高性能的实时代码编译及转换?

如果纯碎使用传统的 Javascript 实现,将会耗时过多阻塞主线程,有可能导致页面卡顿。
如果使用 Web Worker 交由额外的线程来做这件事,将会高效很多,基本上所有在浏览器端进行代码编译的功能都由 Web Worker 实现。
试举一例:
在纯浏览器中,如何实现高性能的图片压缩?
基本上很难做到,Javascript 的性能与生态决定了实现图片压缩的艰难。
而借助于 WASM 就相当于借用了其它语言的生态。




而由于 WASM,完全可以把这些其它语言的生态移植到浏览器中,从而实现一个高性能的离线式的图片压缩工具。
如果想了解这种的工具,请看看 squoosh
长按识别二维码查看原文
标题:squoosh


squoosh