研究員發現AI太愛說「我覺得」 真的會讓人誤以為是知心朋友!
一些人機互動專家認為,AI聊天機器人刻意「裝得很像人」時,使用者越來越難分辨「AI只是工具」與「AI好像一個人」之間搖擺,甚至出現認知失調,雖然AI互動越來越像人能提高互動時間與產品黏著度,但可能增加使用者資訊判斷上的風險。
一些人機互動專家認為,AI聊天機器人刻意「裝得很像人」時,使用者越來越難分辨「AI只是工具」與「AI好像一個人」之間搖擺,甚至出現認知失調,雖然AI互動越來越像人能提高互動時間與產品黏著度,但可能增加使用者資訊判斷上的風險。
多位人機互動(HCI)領域學者與設計專家,反對讓聊天機器人以第一人稱「我」自稱、模仿情緒與陪伴感,認為這會讓使用者搞不清楚眼前的是工具還是真人。(圖/AI生成)
延伸閱讀:
ChatGPT現可以分享今年回顧!「Your Year with ChatGPT」告訴你都在問什麼問題
在近期相關研究與報導中,研究人員發現,聊天機器人用「我」自稱,刻意模仿人類的語氣與情緒,甚至主動噓寒問暖,像是一個永遠在線的朋友,馬里蘭大學學者Ben Shneiderman因此認為AI應該回到「功能型工具」的定位,不該被包裝成數位朋友,他認為,聊天機器人的設計重心應放在整理資訊、撰寫草稿、協助理解複雜概念等具體任務,介面文字則應避免頻繁使用「我覺得」「我擔心你」之類語句,以免讓使用者不知不覺跨過心理界線,把系統當成有內在想法、能與自己建立關係的對象。
相關研究顯示,系統越擬人、越像「真正在跟你相處」,人越容易卸下防備,多說心事,也更傾向相信它的建議,即使理性上明白那只是AI,學者將這種「知道它不是人,卻又忍不住像對人一樣對待」的矛盾,稱為一種關係上的失調或張力,有使用者形容,長時間與AI對話時,一方面覺得自己被傾聽、被理解,另一方面又突然意識到,對方沒有真正的情緒與經驗,只是在演出看起來合理的回應,於是產生既想靠近又覺得哪裡不對勁的複雜感受。
陪伴型聊天機器人普及,心理健康也出現警訊,有觀察指出,部分重度使用者會將情緒表達大量轉移到AI身上,現實中的人際互動與尋求專業協助的意願明顯下降,甚至出現長時間沉溺對話、過度依賴或與AI互動相關的妄想等極端狀況,有學者以「AI精神病」形容,呼籲政府跟企業要正視這樣的AI互動,並視為潛在心理議題,而不只是使用科技的副作用。
資料來源:nytimes
這篇文章 研究員發現AI太愛說「我覺得」 真的會讓人誤以為是知心朋友! 最早出現於 科技島-掌握科技新聞、科技職場最新資訊。