在Gemini 3新上線的功能中,有一個沒被大眾注意到的細節:Thought Signature(思考特徵)。
「職場上還是需要人類來背黑鍋,所以不用擔心AI會取代全人類。」這句玩笑話自AI起飛以來流傳已久。不過,現在看來,就連「甩鍋」這件事,AI也可以做得比人類更有條理。
從黑箱走向透明:Gemini 3解決AI信任危機?
AI一直存在「黑箱問題」。我們知道AI有用,卻不確定它為什麼有用,也不懂它為何會胡說八道或給出奇怪的回應。這點跟人腦很像,我們常說不清自己為何做出某個決定,或解釋不出是如何學會開車的。AI同樣難以反省自己的判斷,即使被指示要解釋思考過程,有時也只是在「編造故事」,被研究人員視為一種撒謊行為。
於是,我們發展出各種提示詞工程(Prompt Engineering)和思維鏈(Chainof Thought)技巧。這些像「下咒語」般的方式,目的只是為了讓AI不要歪樓,吐出符合我們需求的結果。這過程很像我們要求對方進行角色扮演,但結果往往看運氣,回應品質參差不齊。
最大的問題卡在:雖然AI現在會揭露思考步驟,但背後的「為什麼」依然模糊。
AI的思維進化!從系統一進化到系統二
以前的大型語言模型運作像「靠直覺」,也就是諾貝爾獎得主Daniel Kahneman說的「系統一」快思考。它們像條件反射般急著預測下一個字,完全不過腦子。所以我們才需要用複雜的提示詞去「哄」它,強迫它按部就班。
但Gemini 3的出現,代表AI正式進化到了「系統二」的慢思考時代。透過Google特別提到的Deep Think機制,模型在回答前會先在內心進行一場自我辯論:提出假設、攻擊假設、修正邏輯,最後才端出深思熟慮的答案。這表示思維鏈技巧已內化成模型的本能。你不需要再教AI怎麼思考,它現在比你還會思考。
企業導入AI的最後一哩路
這對一般使用者來說只是AI變聰明了,但這件事真正的價值,在於企業導入AI應用。
銀行、律所和醫院之所以不敢全面導入生成式AI,原因只有一個:信任。對於這些機構,AI是個黑盒子。當AI給出建議卻無法解釋來源,這種無法被審查或稽核的決策,在講究合規與責任的商業世界裡毫無價值,且風險巨大。
Gemini 3的「思考特徵」解決了這個痛點。它能將思考過程加密打包,讓開發者更能追蹤AI的決策路徑
未來的金融合規系統,或許不再需要人類去抽查AI對話,因為每次建議都附帶加密的推理路徑,證明AI是依據最新法規與數據,經過嚴謹邏輯驗證後才做出的判斷。讓AI從「黑箱輔助工具」,變成可以承擔法律責任的決策系統。
當我們可以追溯AI的思考過程,就不再需要絞盡腦汁設計提示詞來規避幻覺,因為模型已自帶找錯與修正機制。
其他AI大廠還在教大家怎麼寫Prompt,Google卻已把競爭拉高到了「AI信任」。企業願意為聰明買單,但要全面導入決策核心,AI必須更可靠、更可稽核,甚至更能……背鍋。
*本文獲「程世嘉」授權轉載,原文
責任編輯:倪旻勤
核稿編輯:陳芊吟