压在透明的玻璃上c-国产精品国产一级A片精品免费-国产精品视频网-成人黄网站18秘 免费看|www.tcsft.com

隱私計算在英國醫療中的應用現狀和挑戰

醫學成像、音頻和人工智能的最新進展為醫療保健和研究帶來了前所未有的可能性。以英國為例,其公共衛生系統充斥著人口規模級別的電子患者記錄。

借助豐富的數據資源,加上強有力的學術和研究計劃,英國正在推進及時和有影響力的健康研究,以提供更有效的治療,用于跟蹤和預防公共衛生風險,甚至拯救生命。

在國際上,醫院每年產生的數據估計有50 PB,利用這一數據資源能夠產生的巨大的公共利益,特別是人工智能輔助分析對于實現大健康數據的價值至關重要。

但站在患者角度,健康數據本質上屬于個人,如果健康數據被濫用導致用戶隱私受到損害,可能會導致公眾對于醫療機構的不信任。

針對上述問題,隱私計算技術發揮了至關重要的作用,特別是在歐盟嚴苛數據保護條例下,它的作用更加明顯,下面從聯邦學習在醫學影像領域的應用出發,梳理一下隱私計算技術在醫學領域的現狀和挑戰。

01?聯邦學習在醫學成像領域中的應用

主要隱私風險

磁共振成像(MRI)是一種利用強磁場和無線電波產生身體內部和內臟詳細圖像的掃描。MRI掃描產生的圖像為疾病進展的診斷和分期提供了關鍵信息。

MRI圖像集可用于訓練機器學習算法,以檢測圖像中的某些特征或異常。這項技術可以用于篩選大量圖像,進而識別將患者行為、遺傳或環境因素等變量與大腦功能聯系起來的模式。

MRI成像和元數據可以揭示患者的敏感信息。事實上,即使是個人在數據集中的存在也可能是敏感的。雖然可以通過刪除姓名、地址和掃描日期來識別圖像本身,但有時可以重新識別神經圖像。

聯邦學習技術

聯邦學習是一種遠程執行模式,其中模型在本地訓練好之后“發送”到服務器進行聚合。這可以讓研究人員在不訪問這些數據集的情況下使用其他站點的數據來優化模型。

例如,如果不同大學的研究人員持有神經成像數據,聯邦學習方法將允許他們根據所有參與者的成像數據訓練模型,即使這些數據對分析師來說仍然“不可見”。

在這種情況下,有兩種方法可以實現聯邦學習:

(1)每個站點分析自己的數據并建立模型;然后將該模型共享到所有相關研究人員共同的遠程服務器(集中節點)。然后,該節點將所有模型合并為一個“全局”模型,并將其共享回每個站點,研究人員可以在那里使用新的模型

(2)模型是迭代構建的,其中遠程節點和本地節點輪流發送和返回信息。

無論哪種方法,所有用戶的模型都是通過從遠程數據集“學習”來改進,而這些數據集本身從未被揭示。通過使用聯邦學習,原始數據不共享,從而排除了與數據保護相關的最常見問題。

同時,聯邦學習并不能提供完美的隱私,模型仍然容易受到一些高級攻擊。這些襲擊的風險可能足夠低,各方都可以接受,這樣他們就可以繼續進行。

當然也可以采取其他保障措施。這些可能包括檢測何時對MRI數據集進行重復查詢,該數據集可以與公共數據交叉引用以重新識別受試者

現有開源平臺

COINSTAC是一個開源的跨平臺應用程序,由佐治亞州亞特蘭大的神經成像和數據科學轉化研究中心(TReNDS)創建,它說明了如何通過聯邦學習和隱私保護算法克服神經成像中的數據訪問障礙。

COINSTAC允許無法直接共享數據的用戶使用可以在任何環境(如個人設備、私人數據中心或公共云)中運行的軟件包,協同運行開放、可復制的聯邦學習和協調預處理。

它使用容器化軟件(在一個環境中運行所有必要代碼的軟件,無論主機操作系統如何都是可執行的,因此在各個平臺上是一致的),此軟件可在GitHub上獲得MIT許可。

COINSTAC開發人員已經記錄了幾個案例。在一項研究中,使用歐洲和印度數據集的聯邦分析發現,青少年大腦灰質的結構變化與年齡、吸煙和體重指數(BMI)有關。

另一個案例研究使用聯邦神經網絡分類器在靜息狀態功能MRI(fMRI)數據中區分吸煙者和非吸煙者。聯邦模型通常會獲得與使用合并數據的模型類似的結果,并且比僅從孤立站點提取數據的模型更好。

此外,TReNDS研究人員正在開發用于深度學習的優化算法,以在不犧牲準確性的情況下減少傳輸帶寬。

在第三個例子中,大腦年齡估計算法被訓練來使用神經成像預測實際受試者年齡;然后將其應用于估計新受試者的生物大腦年齡。這是有用的,因為生物大腦年齡的估計和實際年齡之間的巨大差距是阿爾茨海默病等大腦疾病的潛在生物標志物。該模型獲得的結果在統計學上與集中式模型相當。

TReNDS目前還正在開發一個COINSTAC Vault網絡,這將使研究人員能夠對多個大型、精心策劃的數據集進行聯邦分析。這一開放科學基礎設施將實現快速的數據重用,在不同的數據集上創建更通用的模型,并通過消除小型或資源不足群體的進入障礙來實現研究民主化。

02?未來:醫療數據分析的新興隱私挑戰

放射學在臨床和研究環境中使用醫學成像來診斷、治療疾病和監測。基于機器學習的高質量模型可以提供圖像的二次讀取,充當醫學研究人員和臨床醫生的“數字同行”。

一旦該模型能夠識別疾病模式,就可以導出供其他臨床醫生和研究人員使用(如果該模型可以轉移的話)。

導出模型后,原始創建者將放棄控制權。雖然模型不是“原始數據”,但也存在潛在的漏洞。過度訓練的模型可能仍然忠實于訓練數據集,以至于它們有可能泄露有關訓練數據的細節。鏈接攻擊可以獲取來自模型的信息,當與第三方數據鏈接時,會導致個人數據暴露。

最后,模型反演或重建攻擊可以允許攻擊者對來自模型的訓練數據集進行逆向工程。作為一種相對較新的可能性,模型反演中的風險收益評估相對不成熟。

數據保護法規(如英國GDPR)可能缺乏對敏感數據訓練模型的明確性。傳統上,模型被視為知識產權或商業秘密,而不是個人數據。

然而,“經過訓練的模型可以將步態或社交媒體使用等看似不敏感的數據轉化為敏感數據,如個人健康或醫療狀況的信息?!?/p>

03?總結

訓練機器學習模型需要大型、穩健的國際神經成像數據集。這些數據集存在于世界各地的各種機構中。安全地使用遠程數據集來訓練機器學習模型可以改變該領域的研究。此外,保護成像受試者的隱私可以增加對研究的參與度,增強未來神經科學進步所需的多樣性和大規模數據。

本文由“開放隱私計算”翻譯整理自《From privacy to partnership》節選,轉載請注明來源。

來源:開放隱私計算

上一篇:泛微E-Cology SQL注入漏洞安全風險通告

下一篇:云中諜影:Group123組織近期攻擊活動分析