近期,LinkedIn因涉嫌將私人信息(私信)和用戶數據共享給第三方用于人工智能訓練,正面臨一起集體訴訟。此次訴訟揭示了平臺在用戶數據隱私方面存在的爭議和潛在的法律風險。
訴訟文件指出,LinkedIn在2024年8月悄悄引入一項新的隱私設置,將用戶數據默認共享給第三方用于AI訓練。同時,LinkedIn在其常見問題解答(FAQ)部分加入相關條款,表示用戶可以選擇退出數據共享,但這一選擇不會影響已經用于AI訓練的數據。
LinkedIn違反了與用戶之間的隱私協議,且未提前告知用戶這一重大變化。訴訟文件進一步指控稱,LinkedIn的行為表明其試圖減少公眾對隱私政策調整的監督,以規避潛在的法律責任,違反了美國《存儲通信法》,需要向每一位受影響的用戶賠償1000美元。
此外,由于涉嫌違反加州不正當競爭法和合同違約,LinkedIn還可能面臨未明確具體金額的賠償要求。值得一提的是,LinkedIn發言人已經否認了上述指控,稱其為“毫無依據的錯誤指控”。
從訴訟文件來看,LinkedIn的隱私政策更新是本次訴訟的最大爭議點。雖然該平臺提供了選擇退出數據共享的選項,但用戶群體指出,LinkedIn在收集數據之前并未充分告知用戶相關變更,尤其是對于使用InMail服務的Premium用戶來說,其私人消息和個人數據可能在未經過用戶授權的情況下被共享給第三方用于AI訓練。
隨著人工智能技術的迅猛發展,如何在創新與數據隱私之間找到平衡點,成為行業迫切需要解決的問題。LinkedIn因默認將用戶數據用于AI訓練遭到起訴一事凸顯出社交媒體平臺在處理用戶隱私和數據時面臨的法律和道德挑戰。未來,類似案件的裁決可能會對社交媒體行業的數據隱私政策和法律框架產生重大影響。
在訓練人工智能大模型過程中,必須全面考慮眾多關鍵性問題。首要關注的是用戶隱私與數據保護的合規性問題。人工智能大模型訓練中,用戶隱私保護至關重要,企業有責任確保其依賴用戶數據構建的大模型遵守相關法律法規。
全球各地一直強調用戶明確同意和數據最小化的重要性。盡管不同國家的法律存在差別,但都明確提出要加強對用戶隱私保護。然而,實際操作中,人工智能企業經常無法完全遵循合規性原則收集和使用用戶數據,導致其面臨法律和倫理上的安全風險。
其次,必須將跨境數據傳輸及其合規性挑戰納入考慮范圍。人工智能技術的全球性應用引發了跨境數據流動合規性的問題。鑒于不同國家間數據監管政策的差異性,企業必須遵循多樣化的法規體系。
目前,全球范圍內主要的隱私保護法規包括通用數據保護條例(GDPR)、加州消費者隱私法案(CCPA)以及《中華人民共和國個人信息保護法》等。企業需構建跨境數據管理架構,組建合規性專業團隊,并對數據流動的合規性進行持續監控。
繼而需要考慮數據來源的合法性及授權問題。人工智能大模型訓練合規性面臨的挑戰之一,即數據來源的合法性問題。公開數據集、第三方供應商提供的數據,以及用戶生成的內容均可能成為數據來源。然而,授權問題常被忽視,從而引發法律風險。因此,企業必須強化與數據供應商之間的合同關系,確保數據來源的合法授權。
人工智能大模型訓練過程中,隱私保護、跨境數據流動以及數據來源的合法性等合規性挑戰至關重要,不容忽視。企業必須加強在法律框架、技術手段和管理流程方面的投入,以確保數據的合法性與合規性。只有在滿足合規要求的基礎上,人工智能技術及其大模型訓練才能實現可持續發展。