世界衛(wèi)生組織近日發(fā)布的多模態(tài)大模型治理相關新指南指出,人工智能在醫(yī)療衛(wèi)生領域應用前景廣闊,但同時要防范其中可能出現的諸如“自動化偏見”導致的過度依賴等風險。
作為一項快速發(fā)展的生成式人工智能技術,多模態(tài)大模型是指能夠處理圖像、文本、聲音等多種類型數據的深度學習模型,廣泛應用于醫(yī)療衛(wèi)生領域。
世衛(wèi)組織這份新指南概述了多模態(tài)大模型在醫(yī)療衛(wèi)生領域的五大應用場景:診斷和臨床護理、患者自主使用、文書和行政工作、醫(yī)療和護理教育、科學研究和藥物研發(fā)。
新指南還指出了醫(yī)療系統面臨的相關風險:表現最佳的多模態(tài)大模型的可及性和可負擔性;多模態(tài)大模型可能助長“自動化偏見”,使醫(yī)療專業(yè)人員和患者過于依賴人工智能,忽略原本可以由人發(fā)現的差錯;多模態(tài)大模型與其他形式的人工智能一樣,也容易受到網絡安全風險的影響,從而危及患者信息安全、有損算法的可信度等。
世衛(wèi)組織首席科學家杰里米·法勒說,生成式人工智能技術具有改善醫(yī)療保健水平的潛力,但前提是研發(fā)、監(jiān)管和使用這些技術的人必須識別并充分考慮相關風險。人們需要透明的信息和政策來管理多模態(tài)大模型的設計、開發(fā)和使用,以取得更好的衛(wèi)生成果,克服持續(xù)存在的衛(wèi)生不平等。
世衛(wèi)組織強調,為了創(chuàng)造安全有效的多模態(tài)大模型,政府、科技公司、醫(yī)療服務提供者、患者等利益攸關方需要參與相關技術研發(fā)和部署的各個階段,對多模態(tài)大模型進行監(jiān)管并制定相關規(guī)范。
(責任編輯:華康)