AI再惹議!專家使用ChatGPT生成法庭文件 可信度受質疑
史丹佛社群媒體實驗室創辦人Jeff Hancock承認,他在撰寫一份支持明尼蘇達州《禁止使用深偽技術影響選舉》(Use of Deep Fake Technology to Influence an Election)的法律聲明時,曾使用ChatGPT協助整理引用資料。然而,該聲明被發現包含不存在的引用,批評者認為,這使整份文件的可信度受到質疑,使人工智慧(AI)在法律應用上受到質疑。
編譯/夏洛特
史丹佛社群媒體實驗室創辦人Jeff Hancock承認,他在撰寫一份支持明尼蘇達州《禁止使用深偽技術影響選舉》(Use of Deep Fake Technology to Influence an Election)的法律聲明時,曾使用ChatGPT協助整理引用資料。然而,該聲明被發現包含不存在的引用,批評者認為,這使整份文件的可信度受到質疑,使人工智慧(AI)在法律應用上受到質疑。
批評者要求排除考量
據報導,這份聲明支持明尼蘇達州法律,該法律目前正受到保守派YouTuber Christopher Khols(MrReagan)和州議員MaryFranson的聯合挑戰,在發現引用錯誤後,兩人的律師認為該聲明「不可靠」,並要求法院排除其作為參考依據。
專家辯稱實質內容無誤
而Hancock則在提交的最新聲明中承認,他使用ChatGPT協助製作引用清單,但強調文件的撰寫和審核完全由他本人完成。Hancock表示,「我完全支持聲明中的每一項主張,這些主張均基於該領域最新的學術研究,並反映了我作為專家的意見。」
GPT-4o引用錯誤來源
針對引用問題,Hancock也解釋說,他使用Google Scholar和GPT-4o(ChatGPT的進階版本)來搜尋與聲明相關的文章,以整合其現有知識與新研究,然而,他沒有意識到GPT-4o生成了兩個引用錯誤,並在另一個引用中添加了錯誤的作者。
Hancock在最新聲明中表達了歉意指出:「我並無意誤導法院或相關律師,對於可能造成的任何困惑深表遺憾。」但他也強調,聲明的實質內容完全正確,並符合其專業見解。
AI在法律領域引發信任危機
這起事件突顯了AI工具在專業領域應用時的風險,即便技術可提高效率,但因生成錯誤內容(即「幻覺」)可能導致嚴重後果。如何在使用AI時平衡效率與準確性,已經成為法律應用的一大挑戰。
參考資料:The Verge
※探索職場,透視薪資行情,請參考【科技類-職缺百科】幫助你找到最適合的舞台!
※更多ChatGPT相關訊息,請參考【生成式AI創新學院】。
這篇文章 AI再惹議!專家使用ChatGPT生成法庭文件 可信度受質疑 最早出現於 科技島-掌握科技新聞、科技職場最新資訊。