量子機器學習 (四) - 古典前處理/後處理

作者:
劉宸銉
閱讀時間:
5
分鐘
# 量子機器學習 (四) - 古典前處理/後處理
圖片內容

在之前的文章中,我們提過以上架構,一個混合古典量子機器學習模型,從[encoding](https://www.entangletech.tw/lesson/qml-01) 開始,將古典資料編碼進量子電路的旋轉閘角度中,而後才是利用 PQC 架構的量子模型運算。量子模型運算後,這種架構的輸出往往是取每個 qubits 的 Pauli-Z operator 的期望值,也就是 \begin{split} \langle \psi (\theta) | \sigma_z^{(i)} | \psi (\theta) \rangle \end{split} 詳請可見[這篇文章](https://arxiv.org/abs/1912.08278)的 Eq. 14。那在許多情況下,我們想要的模型輸出不一定跟 qubits 數量 $N$ 是一樣的,這個時候就可以在後面接上一個古典的神經網路模型,以上面所提的期望值作為輸入,做所謂的"後處理"。這個時候可以把後面這塊古典模型當作處理量子輸出作用的物件,設計想要的輸出形狀。 以另外一個觀點來看,如果這塊古典的模型是一些已經預訓練好的熱門模型,這樣的架構其實也可以看做所謂的 [Quantum Transfer Learning](https://arxiv.org/abs/1912.08278) (量子遷移學習)。在這種情況下,在應用到新的資料集的時候,可以選擇只更新量子的部分,做特殊資料集的特殊調整。 當然,量子模型跟古典模型的位置也可以互換,讓古典模型處理資料輸入的部分,用量子模型處理新資料及所需調整的權重。
圖片內容

以上例子使用 ResNet 作為預訓練好的模型。眼尖的讀者可能會發現,假設這樣的模型表現得非常好,那我們會需要去設計一些方法來分析這樣的表現是來自於古典的模型,還是量子的模型。畢竟,如果你一個模型,99% 的參數是來自於古典模型,1%的參數是來自於量子模型,那除非有一些顯而易見的量子架構設計優勢,不然會有些難以說服大眾,這模型厲害的原因是來自那 1% 的參數。 這也是現在混合古典量子計算的研究中很需要被注重的一點。
課程目錄