開發與維運

乾貨收藏 | 如何優化前端性能?

image.png

一 引發性能問題原因?

引發性能問題的原因通常不是單方面緣由,特別是大型系統迭代多年後,長期積勞成疾造成,所以我們要必要分析找到癥結所在,並按瓶頸優先級逐個擊破,拿我們項目為例,大概分幾個方面:

1 資源包過大

通過Chrome DevTools的Network標籤,我們可以拿到頁面實際拉取的資源大小(如下圖):

image.png

經過前端高速發展,近幾年項目更新迭代,前端構建產物也在急劇增大,因為要業務先行,很多同學引入庫和編碼過程並沒有考慮性能問題,導致構建的包增至幾十MB,這樣帶來兩個顯著的問題:

  • 弱(普通)網絡下,首屏資源下載耗時長
  • 資源解壓解析執行慢

對於第一個問題,基本上會影響所有移動端用戶,並且會耗費大量不必要的用戶帶寬,對客戶是一個經濟上的隱式損失和體驗損失。

對於第二個問題,會影響所有用戶,用戶可能因為等待時間過長而放棄使用。

下圖展示了延遲與用戶反應:

image.png

2 代碼耗時長

在代碼執行層面,項目迭代中引發的性能問題普遍是因為開發人員編碼質量導致,大概以下幾個緣由:

不必要的數據流監聽

此場景在hooks+redux的場景下會更容易出現,如下代碼:

const FooComponent = () => {
  const data = useSelector(state => state.fullData);
  return <Bar baz={data.bar.baz} />;
};

假設fullData是頻繁變更的大對象,雖然FooComponent僅依賴其.bar.baz屬性,fullData每次變更也會導致Foo重新渲染。

雙刃劍cloneDeep

相信很多同學在項目中都有cloneDeep的經歷,或多或少,特別是迭代多年的項目,其中難免有mutable型數據處理邏輯或業務層面依賴,需要用到cloneDeep,但此方法本身存在很大性能陷阱,如下:

// a.tsx
export const a = {
    name: 'a',
};
// b.tsx
import { a } = b;
saveData(_.cloneDeep(a)); // 假設需要克隆後落庫到後端數據庫

上方代碼正常迭代中是沒有問題的,但假設哪天 a 需要擴展一個屬性,保存一個ReactNode的引用,那麼執行到b.tsx時,瀏覽器可能直接崩潰!

Hooks之Memo

hooks的發佈,給react開發帶來了更高的自由度,同時也帶來了容易忽略的質量問題,由於不再有類中明碼標價的生命週期概念,組件狀態需要開發人員自由控制,所以開發過程中務必懂得react對hooks組件的渲染機制,如下代碼可優化的地方:

const Foo = () => { // 1. Foo可用React.memo,避免無props變更時渲染
    const result = calc(); // 2. 組件內不可使用直接執行的邏輯,需要用useEffect等封裝
    return <Bar result={result} />; // 3.render處可用React.useMemo,僅對必要的數據依賴作渲染
};

Immutable Deep Set

在使用數據流的過程中,很大程度我們會依賴lodash/fp的函數來實現immutable變更,但fp.defaultsDeep系列函數有個弊端,其實現邏輯相當於對原對象作深度克隆後執行fp.set,可能帶來一些性能問題,並且導致原對象所有層級屬性都被變更,如下:

const a = { b: { c: { d: 123 }, c2: { d2: 321 } } };
const merged = fp.defaultsDeep({ b: { c3: 3 } }, a);
console.log(merged.b.c === a.b.c); // 打印 false

3 排查路徑

對於這些問題來源,通過Chrome DevTools的Performance火焰圖,我們可以很清晰地瞭解整個頁面加載和渲染流程各個環節的耗時和卡頓點(如下圖):

image.png

當我們鎖定一個耗時較長的環節,就可以再通過矩陣樹圖往下深入(下圖),找到具體耗時較長的函數。

image.png

誠然,通常我們不會直接找到某個單點函數佔用耗時非常長,而基本是每個N毫秒函數疊加執行成百上千次導致卡頓。所以這塊結合react調試插件的Profile可以很好地幫助定位渲染問題所在:

image.png

如圖react組件被渲染的次數以及其渲染時長一目瞭然。

二 如何解決性能問題?

1 資源包分析

作為一名有性能sense的開發者,有必要對自己構建的產物內容保持敏感,這裡我們使用到webpack提供的stats來作產物分析。

首先執行 webpack --profile --json > ./build/stats.json 得到 webpack的包依賴分析數據,接著使用 webpack-bundle-analyzer ./build/stats.json 即可在瀏覽器看到一張構建大圖(不同項目產物不同,下圖僅作舉例):

image.png

當然,還有一種直觀的方式,可以採用Chrome的Coverage功能來輔助判定哪些代碼被使用(如下圖):

image.png

最佳構建方式

通常來講,我們組織構建包的基本思路是:

  • 按entry入口構建。
  • 一個或多個共享包供多entry使用。

而基於複雜業務場景的思路是:

  • entry入口輕量化。
  • 共享代碼以chunk方式自動生成,並建立依賴關係。
  • 大資源包動態導入(異步import)。

webpack 4中提供了新的插件 splitChunks 來解決代碼分離優化的問題,它的默認配置如下:

module.exports = {
    //...
    optimization: {
        splitChunks: {
            chunks: 'async',
            minSize: 20000,
            minRemainingSize: 0,
            maxSize: 0,
            minChunks: 1,
            maxAsyncRequests: 30,
            maxInitialRequests: 30,
            automaticNameDelimiter: '~',
            enforceSizeThreshold: 50000,
            cacheGroups: {
                defaultVendors: {
                    test: /[\\/]node_modules[\\/]/,
                    priority: -10
                },
                default: {
                    minChunks: 2,
                    priority: -20,
                    reuseExistingChunk: true
                }
            }
        }
    }
};

根據上述配置,其分離chunk的依據有以下幾點:

  • 模塊被共享或模塊來自於node_modules。
  • chunk必須大於20kb。
  • 同一時間並行加載的chunk或初始包不得超過30。

理論上webpack默認的代碼分離配置已經是最佳方式,但如果項目複雜或耦合程度較深,仍然需要我們根據實際構建產物大圖情況,調整我們的chunk split配置。

解決TreeShaking失效

“你項目中有60%以上的代碼並沒有被使用到!”

treeshaking的初衷便是解決上面一句話中的問題,將未使用的代碼移除。

webpack默認生產模式下會開啟treeshaking,通過上述的構建配置,理論上應該達到一種效果“沒有被使用到的代碼不應該被打入包中”,而現實是“你認為沒有被使用的代碼,全部被打入Initial包中”,這個問題通常會在複雜項目中出現,其緣由就是代碼副作用(code effects)。由於webpack無法判定某些代碼是否“需要產生副作用”,所以會將此類代碼打入包中(如下圖):

image.png

所以,你需要明確知道你的代碼是否有副作用,通過這句話判定:“關於‘副作用’的定義是,在導入時會執行特殊行為的代碼(修改全局對象、立即執行的代碼等),而不是僅僅暴露一個 export 或多個 export。舉例說明,例如 polyfill,它影響全局作用域,並且通常不提供 export。”

對此,解決方法就是告訴webpack我的代碼沒有副作用,沒有被引入的情況下可以直接移除,告知的方式即:

在package.json中標記sideEffects為false。

或 在webpack配置中 module.rules 添加sideEffects過濾。

模塊規範

由此,要使得構建產物達到最佳效果,我們在編碼過程中約定了以下幾點模塊規範:

  • [必須] 模塊務必es6 module化(即export 和 import)。
  • [必須] 三方包或數據文件(如地圖數據、demo數據)超過 400KB 必須動態按需加載(異步import)。
  • [禁止] 禁止使用export * as方式輸出(可能導致tree-shaking失效並且難以追溯)。
  • [推薦] 儘可能引入包中具體文件,避免直接引入整個包(如:import { Toolbar } from '@alife/foo/bar')。
  • [必須] 依賴的三方包必須在package.json中標記為sideEffects: false(或在webpack配置中標記)。

2 Mutable數據

基本上通過Performance和React插件提供的調試能力,我們基本可以定位問題所在。但對於mutable型的數據變更,我這裡也結合實踐給出一些非標準調試方式:

凍結定位法

眾所周知,數據流思想的產生緣由之一就是避免mutable數據無法追溯的問題(因為你無法知道是哪段代碼改了數據),而很多項目中避免不了mutable數據更改,此方法就是為了解決一個棘手的mutable數據變更問題而想出的方法,這裡我暫時命名為“凍結定位法”,因為原理就是使用凍結方式定位mutable變更問題,使用相當tricky:

constob j= {
    prop: 42
};

Object.freeze(obj);

obj.prop=33; // Throws an error in strict mode

Mutable追溯

此方法也是為了解決mutable變更引發數據不確定性變更問題,用於實現排查的幾個目的:

  • 屬性在什麼地方被讀取。
  • 屬性在什麼地方被變更。
  • 屬性對應的訪問鏈路是什麼。

如下示例,對於一個對象的深度變更或訪問,使用 watchObject 之後,不管在哪裡設置其屬性的任何層級,都可以輸出變更相關的信息(stack內容、變更內容等):

const a = { b: { c: { d: 123 } } };
watchObject(a);
const c =a.b.c;
c.d =0; // Print: Modify: "a.b.c.d"

watchObject 的原理即對一個對象進行深度 Proxy 封裝,從而攔截get/set權限,詳細可參考:
https://gist.github.com/wilsoncook/68d0b540a0fea24495d83fc284da9f4b

避免Mutable

通常像react這種技術棧,都會配套使用相應的數據流方案,其與mutable是天然對立的,所以在編碼過程中應該儘可能避免mutable數據,或者將兩者從設計上分離(不同store),否則出現不可預料問題且難以調試

3 計算&渲染

最小化數據依賴

在項目組件爆炸式增長的情況下,數據流store內容層級也逐漸變深,很多組件依賴某個屬性觸發渲染,這個依賴項需要儘可能在設計時遵循最小化原則,避免像上方所述,依賴一個大的屬性導致頻繁渲染。

合理利用緩存

(1)計算結果

在一些必要的cpu密集型計算邏輯中,務必採用 WeakMap 等緩存機制,存儲當前計算終態結果或中間狀態。

(2)組件狀態

對於像hooks型組件,有必要遵循以下兩個原則:

  • 儘可能memo耗時邏輯。
  • 無多餘memo依賴項。

避免cpu密集型函數

某些工具類函數,其複雜度跟隨入參的量級上升,而另外一些本身就會耗費大量cpu時間。針對這類型的工具,要儘量避免使用,若無法避免,也可通過 “控制入參內容(白名單)” 及 “異步線程(webworker等)”方式做到嚴控。

比如針對 _.cloneDeep ,若無法避免,則要控制其入參屬性中不得有引用之類的大型數據。

另外像最上面描述的immutable數據深度merge的問題,也應該儘可能控制入參,或者也可參考使用自研的immutable實現:
https://gist.github.com/wilsoncook/fcc830e5fa87afbf876696bf7a7f6bb1

const a = { b: { c: { d: 123 }, c2: { d2: 321 } } };
const merged = immutableDefaultsDeep(a, { b: { c3: 3 } });
console.log(merged === a); // 打印 false
console.log(merged.b.c === a.b.c); // 打印 true

三 寫在最後

以上,總結了Quick BI性能優化過程中的部分心得和經驗,性能是每個開發者不可繞過的話題,我們的每段代碼,都對標著產品的健康度。

Leave a Reply

Your email address will not be published. Required fields are marked *