這邊就是一般機器學習裡會出現的式子:$\theta_{t+1}=\theta_t-\eta \frac{}{d Loss_t \theta_t}$
這條更新法則確保量子參數在訓練過程中進行優化,以提升目標 NN 的表現。
透過梯度計算與參數更新法則,**Quantum-Train** 已經成功應用於:
1. 影像分類(Image Classification):結合卷積神經網絡(CNNs)。
2. 洪水預測(時間序列建模):基於長短期記憶網絡(LSTM)的應用 。
3. 強化學習(Reinforcement Learning):應用於 CartPole 和 MiniGrid 環境的策略梯度(Policy Gradient)學習。
4. 大型語言模型微調:透過量子輔助參數壓縮技術,減少微調 LLMs(如 Gemma-2B)時所需的可訓練參數,提升訓練效率,同時維持推論效能。
這些應用顯示,在減少訓練參數的同時,仍能保持與傳統方法相近的效能,突顯了 Quantum-Train 方法的實用性與潛力。這種方法不僅降低了對大規模量子硬體的依賴(因為不再需要大量量子位元做資料輸入編碼),使量子機器學習在現有技術條件下更具可行性,還在計算資源受限的環境(如邊緣運算、行動設備、聯邦學習)中展現了極高的適用性。此外,由於 Quantum-Train 只在訓練階段利用量子計算,而推論時可在 **古典硬體 (CPU/GPU)** 上執行,這使得量子機器學習(QML)首次突破了傳統方法在推論階段仍需量子計算的限制。 更重要的是,Quantum-Train 透過量子輔助訓練參數壓縮,使得神經網絡在更小的訓練參數規模下達到與大模型相當的準確度。這不僅有助於提升模型的泛化能力(Generalization Ability),減少過擬合問題,還能在相同的訓練數據下獲得更穩定且高效的學習效果。
從理論層面來看,Quantum-Train 展示了參數化量子電路與古典機器學習的深度融合,不僅提升了訓練效率,也為未來的量子強化學習(Quantum Reinforcement Learning, QRL)、量子生成模型(Quantum Generative Models)及更大規模的 AI 應用提供了全新的設計思路。這項技術的發展標誌著量子計算正在逐步從理論研究邁向實際應用,為量子機器學習的落地應用開啟了新的可能性。在接下來的單元,我們將介紹一些Quantum-Train 的應用成果。
## 參考文獻
[1] [QTRL: Toward Practical Quantum Reinforcement Learning via Quantum-Train
](https://ieeexplore.ieee.org/document/10821103)
量子機器學習 (七) - 更新量子訓練參數
作者:
劉宸銉
閱讀時間:
5
分鐘
課程目錄