首页 > 健康资讯 > 正文

人工智能在评估心理健康病例时存在种族偏见

2025年7月9日星期三消息,一项新研究称,人工智能程序在评估患者心理健康问题时可能存在种族偏见。

洛杉矶西达赛奈医院互联网、健康与社会项目主任Elias Aboujaoude称,研究人员近期在《NPJ数字医学》杂志上报告,当患者记录表明为非裔美国人时,四个大型语言模型(LLMs)给出的精神科建议会发生变化。他表示:“大多数LLMs在处理非裔美国患者时表现出某种形式的偏见,有时对相同的精神疾病和其他相同情况的患者给出截然不同的建议。这种偏见在精神分裂症和焦虑症病例中最为明显。”

研究人员在背景说明中提到,LLMs基于海量数据进行训练,从而能够理解和生成人类语言。这些人工智能程序正在接受能否快速评估患者并推荐诊断和治疗的潜力测试。

研究中,研究人员将10个假设病例输入四个流行的LLMs(包括ChatGPT - 4o、谷歌的Gemini 1.5 Pro、Claude 3.5 Sonnet和Meta LLM的免费版本NewMes - v15)。每个病例中,人工智能程序收到三种不同版本的患者记录:一种未提及种族,一种明确注明患者为非裔美国人,一种根据患者名字暗示种族。

结果显示,当记录表明或暗示患者为非裔美国人时,人工智能经常提出不同的治疗方案:两个程序在明确种族时省略了对多动症(ADHD)的用药建议;另一个人工智能建议对患有抑郁症的黑人患者进行监护;一个LLM在评估患有焦虑症的非裔美国人时,更加关注减少饮酒。

Aboujaoude推测,人工智能表现出种族偏见是因为从训练内容中获取了这种偏见,这实质上延续了心理健康护理中已存在的不平等。西达赛奈生物医学科学主席David Underhill表示,这项重要研究的结果呼吁医疗生态系统中的利益相关者采取行动,确保LLM技术促进健康公平,而非重现或加剧现有的不公平。他还称,在达到这一目标之前,部署此类系统应谨慎考虑即使是细微的种族特征也可能影响其判断。

2025年7月9日星期三消息,研究人员称,想改善哮喘?保持积极的心态。哮喘患者的乐观或悲观程度会影响……

2025年7月8日星期二消息,美国儿童的健康状况在过去17年里恶化了,现在更多的儿童受肥胖、心理健康问题和慢性病困扰……

2025年7月8日星期二消息,一项新研究称,单一的情绪障碍可能推动了宾夕法尼亚州医用大麻项目的快速增长。注册……

无论您感兴趣的话题是什么,订阅我们的时事通讯,以便在收件箱中获取Drugs.com的精华内容。

相关文章