世界卫生组织(世卫组织)发布了关于多模态大模型(LMMs)伦理和管理问题的新指导文件。多模态大模型是可应用于卫生保健领域的飞速发展的生成式人工智能技术。
指导文件列出了供政府、技术公司和卫生保健机构考虑的40多项建议,以确保适当使用多模态大模型增进和维护人民健康。
多模态大模型可以接受一种或多种输入数据(如文本、视频和图像)并生成多种产出。产出不限于所输入的数据类型。多模态大模型的独特之处在于它们能够模仿人类交流方式,并能够执行未予明确编程的任务。多模态大模型的应用速度超过历史上供消费者使用的任何应用软件。2023年,ChatGPT、Bard和Bert等一些平台进入公共视野。
世卫组织首席科学家Jeremy Farrar博士说,“生成式人工智能技术可以改善卫生保健服务,但前提是开发、监管和使用这些技术者必须能够识别并充分顾及相关风险。我们需要有透明的信息和政策来管理多模态大模型的设计、开发和使用,以实现更好的健康结果,并克服持续存在的健康不公平现象。”
潜在收益和风险
世卫组织新指导文件概述了多模态大模型在卫生领域的五种广泛应用方式:
- 诊断和临床保健,例如回答患者书面询问;
- 指导患者使用,例如咨询症状和治疗方法;
- 文书和行政任务,如在电子健康档案中记录和概述病历;
- 医疗和护理教育,包括为学员提供模拟诊疗患者练习;
- 科学研究和药物开发,包括发现新化合物。
已开始为特定健康相关目的使用多模态大模型,但存在产生虚假、不准确、有偏见或不完整信息的风险,这可能会对使用此类信息做出健康问题决定的人造成伤害。此外,多模态大模型可能会使用质量差或者在种族、民族、血统、性别、性别认同以及在年龄方面存在偏见的数据进行培训。
指南文件还详细说明了卫生系统面临的较广泛风险,例如性能最佳的多模态大模型的可及性和可负担性问题。多模态大模型还可能会助长医疗保健专业人员和患者的“自动化系统误差”,忽略本可识别的错误,或不适当交由多模态大模型作出困难的抉择。与其他形式的人工智能一样,多模态大模型也容易受到网络安全风险的影响,这可能会影响患者信息或算法的可信度以及广泛的卫生保健服务。
世卫组织强调指出,为创建安全有效的多模态大模型,各国政府、技术公司、医疗机构和人员、患者以及民间社团等各利益攸关方需要参与此类技术的开发和部署各阶段工作,包括参与监督和监管工作。
世卫组织科学部门数字卫生保健与创新司司长Alain Labrique博士指出,“各国政府必须努力合作,指导如何有效监管多模态大模型等人工智能技术的开发和使用”。
主要建议
世卫组织新指导文件提出了对各国政府的建议。各国政府负有主要责任,它们需为开发和部署多模态大模型制定标准,规定如何整合和将其用于公共卫生和医疗目的。例如,各国政府应:
- 投资于或提供非营利或公共基础设施,包括提供公共、私营和非营利部门的开发人员可以使用的计算能力和公共数据集,并要求用户在获得使用权后遵守道德原则和符合价值观。
- 落实有关法律、政策和法规,确保卫生保健服务和医学中使用的多模态大模型和应用程序,无论与人工智能技术相关的风险或收益如何,均应符合道德义务和人权标准,尊重个人尊严、自主权或隐私。
- 在资源允许的情况下,指定现有的或新的监管机构评估和批准用于卫生保健或医学的多模态大模型和应用程序。
- 在大规模部署多模态大模型时,由独立第三方进行发布后强制性审计和影响评估,以保护数据和人权。应公布审计和影响评估结果,其中应列明按用户类型(例如按年龄、种族或残疾)分列的结果和影响。
指南文件还包括以下针对多模态大模型开发人员的主要建议,确保:
- 不应仅由科学家和工程师设计多模态大模型。潜在用户以及所有直接和间接的利益攸关方,包括医务人员、科学研究人员、卫生保健专业人员和患者在内,均应从人工智能开发的早期阶段就参与有系统的、包容性和透明的设计工作,并应有机会提出伦理问题,表达担忧,并针对所考虑采用的人工智能应用程序发表意见。
- 必须适当设计多模态大模型,使其能以必要的准确性和可靠性执行明确的任务,以提高卫生系统的能力,并增进患者权益。开发人员还应该能够预测和理解潜在的次生结果。
编者按
关于多模态大模型的人工智能健康指南的伦理和管理问题新文件基于世卫组织2021年6月发布的指导文件。在这里查阅新文件。