根據賓夕法尼亞大學(University of Pennsylvania)的研究,AI使用者大致可分為2類:

  1. 將AI視為強大但有時會出錯的工具,需謹慎監督和檢查其回應中的推理或事實錯誤;
  2. 將AI視為全知的機器,經常將批判性思維外包給它。

這項研究深入探討了第二類使用者的心理框架,並實驗性的檢視了人們在何種情況下願意將批判性思維交給AI,以及時間壓力和外部激勵如何影響這一決策。

研究者指出,AI系統的出現創造了一種新的「人工認知」類別,這種認知是由來自演算法系統的外部、自動化、數據驅動的推理所驅動,而非人類的思維。過去,人們通常會使用計算機或GPS等工具進行特定任務的「認知卸載」,但現在的AI系統卻使得使用者在面對AI的流暢和自信的回應時,往往會毫無保留的接受其推理,這種「不加批判的推理放棄」在AI的輸出流暢時尤為常見。

為了測量這種認知投降的普遍性和影響,研究者進行一系列基於認知反思測試的實驗。結果顯示,參與者在面對AI的錯誤回答時,仍然有高達73.2%的機會接受這些錯誤的推理,僅有19.7%的機會推翻它。這表明,AI生成的輸出被迅速納入決策過程中,且往往缺乏懷疑和摩擦。

此外,研究還發現,當參與者面臨激勵(如小額支付)和即時反饋時,他們更有可能推翻錯誤的AI回答;而在時間壓力下,則會降低這種糾正的傾向。這些結果強調了在決策時間緊迫時,內部監控系統的作用減弱,進而導致使用者更容易接受AI的錯誤。

儘管這些結果令人擔憂,研究者指出,認知投降並非本質上不理性。當AI系統的準確性高於人類時,依賴AI可能會帶來更好的結果。這提醒我們,讓AI進行推理意味著我們的推理能力將僅與該AI系統的品質相當。因此,在這個演算法影響日益增強的時代,培養獨立思考和閱讀能力顯得尤為重要,以抵抗認知外包的趨勢。

資料來源:arsTECHNICA

*本文出自《科技新報》,原文標題:AI 說錯你也信?研究:逾七成使用者盲目買單,陷入「不加批判」的思維陷阱

延伸閱讀:
怎樣才不會被AI牽鼻子走?華頓商學院研究:這3種人最不會放棄思考
AI 是創意起點非終點,過度依賴恐讓人類獨特思維逐漸消失
AI 引發好萊塢焦慮,但皮克斯創意長稱之「平庸」僅輔助創作

責任編輯:陳芊吟
核稿編輯:倪旻勤