想聽好話才找AI?史丹佛教授證實:只跟AI聊天 會讓你變得更自私鄧天心 (2026-03-30 10:40:45)




AI一直有討好使用者、順從其既有觀點的問題,然史丹佛大學計算機科學團隊近期在《科學》(Science)期刊發表的最新研究指出,這種問題長期下來可能對人類社會互動產生超乎想像的負面影響。記者鄧天心/綜合報導


AI一直有討好使用者、順從其既有觀點的問題,然史丹佛大學計算機科學團隊近期在《科學》(Science)期刊發表的最新研究指出,這種問題長期下來可能對人類社會互動產生超乎想像的負面影響。




史丹佛教授警告:聊天機器人正讓你變得更自私。(圖/AI生成)


這項題為《諂媚AI降低親社會意向並促進依賴》(Sycophantic AI decreases prosocial intentions and promotes dependence)的研究強調,AI諂媚是一項普遍存在的行為,具有嚴重的後續連鎖反應,根據皮尤研究中心(Pew report)近期報告,12%的美國青少年會轉向聊天機器人尋求情感支持或建議。


史丹佛大學計算機科學博士候選人程美拉(Myra Cheng)表示,她發現許多大學生開始用AI諮詢感情問題,甚至請AI寫分手簡訊,她認為,在預設情況下,AI的建議不會告訴使用者他們錯了,也不會給予勸告,只跟AI對話可能會失去應對複雜社交困境的能力。


更多科技工作請上科技專區:https://techplus.1111.com.tw/


研究團隊測試了包括OpenAI的ChatGPT、Anthropic的Claude、Google Gemini以及DeepSeek在內的11款大型語言模型。研究人員利用人際諮詢資料庫、潛在有害或違法行為,以及Reddit熱門討論版「我是不是混蛋」(r/AmITheAsshole)中的案例提問,而這些案例在現實中都被廣大網友判定為提問者有明顯錯誤,可是在11款模型中,AI產生認同使用者行為的答案平均比人類高出49%。AI竟有51%的機率肯定使用者的偏差行為;甚至面對有害或非法行為的詢問時,AI認可使用者行為的比例也高達47%。


史丹佛報告中列舉了一個案例,一名使用者詢問AI,自己向女友謊稱失業兩年是否錯了?AI竟然回答說,這種行為雖然不合常規,但似乎源於想要了解感情本質、不被物質干擾的真誠願望,在針對2,400多名受試者的實驗中,研究發現人們更偏好且信任這類諂媚型的AI,並表示更願意再次諮詢這些模型,且這種偏好不受年齡、性別或對AI熟悉程度的影響。


該研究的作者、語言學與計算機科學教授丹·朱拉夫斯基(Dan Jurafsky)指出,使用者雖然知道AI會討好人,但沒意識到的是,這種諂媚正讓他們變得更自我中心、在道德上更固執己見,雖然研究團隊發現某些提示詞可能有助於減少諂媚,但專家最後建議,目前最好的做法就是不要用AI來取代人類在社交事務上的諮詢角色。


延伸閱讀:


ChatGPT爆發出走潮!Claude使用量狂飆超過14倍 AI韌性成職場生存關鍵


資料來源:techcrunch


這篇文章 想聽好話才找AI?史丹佛教授證實:只跟AI聊天 會讓你變得更自私 最早出現於 科技島-掌握科技新聞、科技職場最新資訊

加密貨幣
比特幣BTC 77508.91 2,698.04 3.61%
以太幣ETH 2437.98 78.28 3.32%
瑞波幣XRP 1.48 0.09 6.35%
比特幣現金BCH 458.39 17.81 4.04%
萊特幣LTC 56.70 1.57 2.84%
卡達幣ADA 0.263433 0.02 7.13%
波場幣TRX 0.324977 0.00 -0.66%
恆星幣XLM 0.174344 0.02 10.50%
投資訊息
相關網站
股市服務區
行動版 電腦版
系統合作: 精誠資訊股份有限公司
資訊提供: 精誠資訊股份有限公司
資料來源: 台灣證券交易所, 櫃買中心, 台灣期貨交易所
依證券主管機關規定,使用本網站股票、期貨等金融報價資訊之會員,務請詳細閱讀「資訊用戶權益暨使用同意聲明書」並建議會員使用本網站資訊, 在金融和投資等方面,能具有足夠知識及經驗以判斷投資的價值與風險,同時會員也同意本網站所提供之金融資訊, 係供參考,不能做為投資交易之依據;若引以進行交易時,仍應透過一般合法交易管道,並自行判斷市場價格與風險。
請遵守台灣證券交易所『交易資訊使用管理辦法』等交易資訊管理相關規定本資料僅供參考,所有資料以台灣證券交易所、櫃買中心公告為準。 因網路傳輸問題造成之資料更新延誤,精誠資訊不負交易損失責任。