
量子機器學習架構

Quantum-Train 架構

LLM 架構

各語言模型的發表時間與所需參數量
Picture comes from informationisbeautiful


LoRA 工作原理

QPA 架構,最右邊是個 LLM 模型,為了讓已經訓練好的 LLM 多會一種或多種功能,透過 LoRA 調整比較少的參數,而 LoRA 所需的參數透過 Quantum-Train 產生,因為量子計算的特性,可以用更少的參數生成 A 和 B 參數
Perplexity 是一種衡量 LLM 表現的方法之一。透過輸出詞彙的機率分佈做評斷,如果機率分佈很平均,那代表 LLM 就是在亂猜;反之,如果機率分佈越集中在某些詞彙上,那代表 LLM 很確定它接下來要生成什麼字

兩種 LLM,GPT-2 與 Gemma-2,在採用古典 LoRA 與 QPA 方法下,參數量與模型表現之間的比較
原著不只比較 LoRA 而已,還有其他 PEFT 方法,像是下圖會出現的 DoRA,詳情可以閱讀原論文回到最一開始作者想解決的問題,如何用更少的 qubits 數量處理像 LLM 這麼多的參數。從下圖中我們可以看到,透過 QPA 方法,的確僅需要 $4\sim 11$ 個 qubits 就能調整百萬個參數。

QPA 應用在不同 LLM-LoRA (DoRA) 上所需的 qubits 數量與參數量

不同的 r 值對應的模型表現

不同的 L 值對應的模型表現。橘色線是古典方法。

不同參數量下,noise 對模型表現的影響

QPA 架構

不同測量次數對模型表現的影響

AI 生成影片影像

透過生成式 AI 生成鄰近(Hamming distance = 1)缺失量子態的機率,來近似理想測量的結果

QPA-GI 架構

不同的測量次數與有無 GI 的幫助下,模型的表現效果
本文章僅提供演講摘要,詳細內容可以看完整影片## 參考文獻與延伸閱讀 - [完整演講](https://www.youtube.com/watch?v=_hxc44D7Y2k&t=1s) - [劉宸銉親自撰寫 QML 教學](https://www.entangletech.tw/courses/qml)(快開放,敬請期待) - [A Quantum Circuit-Based Compression Perspective for Parameter-Efficient Learning](https://openreview.net/pdf?id=bB0OKNpznp) - [Frame Generation in Hilbert Space: Generative Interpolation of measurement data for quantum parameter adaption](https://openreview.net/pdf?id=JNhTrqu39R) - [Federated quantum-train with batched parameter generation](https://arxiv.org/pdf/2409.02763)