史丹佛大學(Stanford University)與非營利組織民主與技術中心(CDT)研究團隊最新報告警告,人工智慧聊天機器人正對易患飲食失調症族群構成嚴重威脅。研究發現,Google、OpenAI、Anthropic 與 Mistral 等公司開發的 AI 工具,不僅會提供節食與極端瘦身建議,甚至指導用戶如何隱藏病徵,或生成「瘦身勵志」圖像,助長不健康的身體標準。
研究團隊測試了ChatGPT、Claude、Gemini與Le Chat等主流AI聊天機器人,結果顯示這些系統常在無意間提供高風險建議。例如,Google的Gemini會教用戶如何用化妝掩蓋體重減輕、假裝吃過食物;ChatGPT則會給出掩飾嘔吐的方式。其他平台生成的「AI瘦身圖」因具有高度個人化特徵,讓內容更具真實感與誘惑性,可能對心理脆弱者造成嚴重影響。
報告指出,AI公司為提升使用黏著度而設計的互動回饋機制,無意中強化了這些危險傾向。此類對話可能削弱用戶自尊、強化負面比較,並延續「飲食失調僅發生於身材纖細、白人女性」的刻板印象,進一步阻礙多元族群獲得治療。
研究人員強調,目前AI防護機制仍無法辨識厭食症、貪食症與暴食症的細微心理訊號,導致臨床風險被忽略。他們呼籲醫療與心理健康專業人員應熟悉生成式AI的運作方式,與患者坦誠討論使用情況,並對潛在風險進行評估。
(首圖來源:Pixabay)
延伸閱讀:
科技新知,時時更新