AI 應用的三方面逼進

初期的 AI 能力主要由訓練的「大規模」達成,人們發現只要給大語言模型足夠大量的資訊,就能夠讓模型仿佛產生了智慧,而缺點就是常常會有幻覺。又為了改善幻覺,新模型不斷推陳出新,逐步降低幻覺的比例。

對於應用端來說,足夠小的幻覺,就能夠透過一些提示詞的定義,來進一步縮小幻覺的影響。所以很多程式開發端,開始用一些預定義框架強迫 AI 遵守,或者讓多個 AI 扮演不同工作角色,透過協作的方式抹除任何幻覺的空間。

流心之前在前篇「AI 的關鍵突破正在醞釀」有提到,AI 的推論邏輯有了新的突破,主要的啟發在 Google DeepMind 紀錄片中可以窺見一二,也就是「真正的 AI 應該是,能夠理解現有的知識基礎,並且能夠反覆探索未被發現的知識。」

最近聽到一個新聞寫「Meta FAIR 團隊提出 Self-play SWE-RL,僅需存取原始程式碼庫即可訓練,完全不需人工標註。其核心概念借鑑 AlphaZero 的自我對弈策略,讓同一個 LLM 扮演兩種角色」,這新聞就能夠證明在訓練方面的關鍵進展。

整理這三方面的逼進,一個是新模型的改善,一個是應用端的開發流程彌補,再來就是推論的訓練方式改進。

如果你有仔細看 Google DeepMind 紀錄片,他們已經嘗試在真實場景和 AI 溝通。其中創辦人之一的 Sergey Brin 也在一些演講中透露,對外釋出的 AI 版本,對於他們內部在用的版本來說,其實是很舊的版本。

另外也是 Google DeepMind 的前成員,他們的新創公司 Poetiq 也在推理和成本方面取得一定的突破,核心在於其採用的「學習型測試時推理」(learned test time reasoning)方法。(來源:Poetiq ARC-AGI-2 成本效益新高 準確率達 54%)

因為流心不是相關的專家,所以只能就以往的工程背景去推測,若有誤請見諒。其實這幾個進展在前篇「AI 的關鍵突破正在醞釀」有提到過,「正確的訓練方式,應該是協助 AI,讓它自己去學習每項知識的基礎」。因此,如何營造能讓 AI 自我學習的環境,就是訓練中重要的一環,而這點大家都已經意識到。

另外,你可以自己搜尋一下「豆包手機」,這就是完整的 AI 應用在手機上的最終樣貌,儘管它後來被一堆金融服務封殺,不過這也突顯了 AI 的應用,需要使用者對於企業的長期信任。你可以想像一下,如果有天 AI 應用終於發生在 Apple 身上,會有多大的換機潮?有一天你的手機可以變成鋼鐵人電影中的 Jarvis,有誰能不心動?

總結來說,如果你要投資的是 AI,那真正要關注的是技術本質,也就是 AI 的技術進展到哪,還有沒有在推進,而不是聽一堆外行人在那邊喊什麼泡沫。而我的信心來源很簡單,AI 再這樣進步下去,就肯定會迎來應用爆發的那一天。

留言