據(jù)外媒The Verge報道,世界衛(wèi)生組織日前發(fā)布了一份指導文件,概述了人工智能在健康領(lǐng)域的道德使用的六個關(guān)鍵原則。20位專家花了兩年時間制定該指南,這標志著關(guān)于醫(yī)療環(huán)境中人工智能倫理的第一個共識報告。
該報告強調(diào)了健康人工智能的前景,以及其幫助醫(yī)生治療病人的潛力--特別是在資源不足的地區(qū)。但它也強調(diào),技術(shù)不是解決健康挑戰(zhàn)的快速方法,特別是在中低收入國家,政府和監(jiān)管機構(gòu)應仔細審查人工智能在醫(yī)療領(lǐng)域的使用地點和方式。
世衛(wèi)組織表示,它希望這六項原則能夠成為政府、開發(fā)商和監(jiān)管機構(gòu)處理該技術(shù)的基礎。專家們提出的六項原則是:保護自主權(quán);促進人類安全和福祉;確保透明度;促進問責制;確保公平;以及促進具有響應性和可持續(xù)性的工具。
有幾十種潛在的方式可以將人工智能應用于醫(yī)療保健。有一些正在開發(fā)的應用,使用人工智能來篩選醫(yī)療圖像,如乳房X光檢查;掃描病人健康記錄以預測他們是否可能生病的工具;幫助人們監(jiān)測自己的健康的設備;以及幫助跟蹤疾病爆發(fā)的系統(tǒng)。在人們無法接觸到專業(yè)醫(yī)生的地區(qū),工具可以幫助評估癥狀。但是,當它們沒有被仔細開發(fā)和實施時,它們可能--在最好的情況下--沒有實現(xiàn)其承諾。在最壞的情況下,它們可能會造成傷害。
在過去的一年中,一些隱患是顯而易見的。在對抗COVID-19大流行病的爭奪中,醫(yī)療機構(gòu)和政府轉(zhuǎn)向人工智能工具尋求解決方案。然而,這些工具中的許多都具有世衛(wèi)組織報告所警告的一些特征。例如,新加坡政府承認,一個聯(lián)系人追蹤應用程序收集的數(shù)據(jù)也可用于刑事調(diào)查--這是一個 "功能蠕變 "的例子,即健康數(shù)據(jù)被重新利用,超出了原來的目標。大多數(shù)旨在根據(jù)胸部掃描檢測COVID-19的人工智能程序都是基于糟糕的數(shù)據(jù),最終并沒有用。美國的醫(yī)院在測試該程序之前使用了一種旨在預測哪些COVID-19患者可能需要重癥監(jiān)護的算法。
"緊急情況并不證明部署未經(jīng)證實的技術(shù)是合理的,"該報告說。
報告還承認,許多人工智能工具是由大型私人技術(shù)公司(如Google)或公共和私營部門之間的伙伴關(guān)系開發(fā)的。這些公司擁有建立這些工具的資源和數(shù)據(jù),但可能沒有動力為自己的產(chǎn)品采用擬議的道德框架。他們的重點可能是利潤,而不是公共利益?!半m然這些公司可能會提供創(chuàng)新的方法,但人們擔心他們最終可能會在政府、供應商和病人面前行使過多的權(quán)力,”報告寫道。
醫(yī)療領(lǐng)域的人工智能技術(shù)仍然是新的,許多政府、監(jiān)管機構(gòu)和衛(wèi)生系統(tǒng)仍在摸索如何評估和管理它們。世衛(wèi)組織的報告說,在方法上深思熟慮和有分寸,將有助于避免潛在的傷害?!凹夹g(shù)解決方案的吸引力和技術(shù)的承諾可能會導致高估利益,否定人工智能等新技術(shù)可能帶來的挑戰(zhàn)和問題?!?/p>
以下是世衛(wèi)組織指南中六項道德原則的細目,以及它們?yōu)楹沃匾脑颉?/p>
保護自主權(quán):人類應該對所有健康決定進行監(jiān)督并擁有最終決定權(quán)--這些決定不應該完全由機器做出,醫(yī)生應該能夠在任何時候推翻它們。未經(jīng)同意,人工智能不應該被用來指導某人的醫(yī)療護理,而且他們的數(shù)據(jù)應該受到保護。
促進人類安全。開發(fā)人員應持續(xù)監(jiān)測任何人工智能工具,以確保它們按規(guī)定工作,不會造成傷害。
確保透明度。開發(fā)者應該公布有關(guān)人工智能工具設計的信息。對這些系統(tǒng)的一個經(jīng)常性批評是,它們是 "黑盒子",研究人員和醫(yī)生很難知道它們是如何做出決定的。世衛(wèi)組織希望看到足夠的透明度,以便用戶和監(jiān)管機構(gòu)能夠充分審計和理解它們。
培養(yǎng)問責制。當人工智能技術(shù)出現(xiàn)問題時--比如工具做出的決定導致病人受到傷害--應該有機制來確定誰應該負責(比如制造商和臨床用戶)。
確保公平。這意味著要確保工具有多種語言版本,并在不同的數(shù)據(jù)集上進行訓練。在過去的幾年里,對普通健康算法的仔細審查發(fā)現(xiàn),一些算法中存在種族偏見。
推廣可持續(xù)發(fā)展的人工智能。開發(fā)者應該能夠定期更新他們的工具,如果一個工具看起來沒有效果,機構(gòu)應該有辦法進行調(diào)整。機構(gòu)或公司也應該只引進可以修復的工具,即使是在資源不足的衛(wèi)生系統(tǒng)。
(舉報)