1月18日,世界衛(wèi)生組織(WHO)發(fā)布了關于多模態(tài)大模型倫理標準和治理指南一文,指出人工智能(AI)在整個醫(yī)療衛(wèi)生領域應用前景廣闊,但同時也要防范其中可能出現(xiàn)的諸如“自動化偏見”導致的過度依賴等風險。
上述指南概述了40多項建議,供各國政府、技術公司和醫(yī)療服務提供者予以參考,以確保適當使用人工智能技術,促進和保護人口健康。
作為一項快速發(fā)展的生成式人工智能技術,多模態(tài)大模型是指能夠處理圖像、文本、聲音等多種類型數(shù)據(jù)的深度學習模型,廣泛應用于醫(yī)療衛(wèi)生領域。其普及速度比歷史上任何消費應用都要快,如ChatGPT、Bard等多個平臺于2023年在人群中快速流行。
世衛(wèi)組織首席科學家Jeremy?。疲幔颍颍幔虿┦恐赋?,生成式人工智能技術具有改善衛(wèi)生保健的潛力,但前提是這些技術的開發(fā)、管理和使用人員能夠識別并充分考慮到相關風險,并對其進行監(jiān)管并制定相關規(guī)范。
Farrar表示,我們需要透明的信息和政策來管理多模態(tài)大模型的設計、開發(fā)和使用,以實現(xiàn)更好的醫(yī)療成果,并克服持續(xù)存在的不公平現(xiàn)象。
風險和建議
世衛(wèi)組織在最新的指南中概述了多模態(tài)大模型在醫(yī)療衛(wèi)生領域的五種廣泛應用:
診斷和臨床護理,例如回復患者的書面詢問;
患者指導使用,例如用于調(diào)查癥狀和治療;
文書和行政工作例如在電子健康記錄中記錄和匯總患者就診情況;
醫(yī)療和護理教育,包括為受訓人員提供模擬病人接觸的機會;
科學研究和藥物開發(fā),包括識別新的化合物。
世衛(wèi)組織也提到了多模態(tài)大模型使用時可能的風險,如產(chǎn)生虛假、不準確、有偏見或不完整陳述的信息,這可能會損害使用此類信息做出健康決定的人。
此外,多模態(tài)大模型可能在質(zhì)量較差或有偏見的數(shù)據(jù)上進行訓練,無論是種族、民族、血統(tǒng)、性別、性別認同還是年齡等方面。
該指南還詳細說明了衛(wèi)生系統(tǒng)面臨的更廣泛風險,例如表現(xiàn)最佳的多模態(tài)大模型的可及性和可負擔性;多模態(tài)大模型可能助長“自動化偏見”,使醫(yī)療專業(yè)人員和患者過于依賴人工智能,忽略原本可以由人發(fā)現(xiàn)的差錯,或把困難的選擇不恰當?shù)亟唤o多模態(tài)大模型;多模態(tài)大模型與其他形式的人工智能一樣,也容易受到網(wǎng)絡安全風險的影響,從而危及患者信息安全、有損算法的可信度等。
基于上述風險,世衛(wèi)組織認為各國政府負有制定多模態(tài)大模型使用規(guī)范的主要責任,以便將其整合和用于公共衛(wèi)生和醫(yī)療目的。
世衛(wèi)組織建議稱,政府應該投資或提供非營利的公共基礎設施,包括算力和公共數(shù)據(jù)集,供公共、私人和非營利部門的開發(fā)人員訪問,這要求用戶遵守道德原則和價值觀,以換取訪問權限。在大規(guī)模部署大模型時,應該由獨立第三方實施強制性的審計和影響評估,包括數(shù)據(jù)保護和人權方面的評估。
注:文章來源于大健康派,如有侵權,請聯(lián)系刪除