人工智能(AI)助手正在迅速全面地介入到人類日常生活的各個層面,從個體的日常起居、學習到企業(yè)職場的辦公決策,甚至深入到健康管理、金融決策和個人關系維護等敏感領域。伴隨著這一趨勢的快速演進,我們面臨的并非僅僅是技術本身的便利性提升,更是與隱私、安全、倫理和個人自決權相關的諸多深層次問題。
顯然,2018版和2020版《個人信息安全規(guī)范》在編制過程中并未考慮這樣的業(yè)務形態(tài)。最近一段時間在收集修訂需求的期間,無論是App廠商還是硬件廠商,多數(shù)想法和意見都聚焦于AI助手,尤其是對啟用AI助手的告知同意機制問題。
在公號君看來,告知同意機制的顆粒度,直接與AI助手的性質、用途成相關關系。簡言之,如果AI助手猶如手機上的記事本那樣,完全忠誠于用戶,沒有其自主的目的,那么告知同意就可以顆粒度粗一些。反之,那可能告知同意就得細粒度一些。目前,各種AI助手層出不窮,作為全面嵌入個人生活的技術工具,其在忠實性保障、精細化權限控制的可行性、持續(xù)性隱私暴露以及對第三方隱私的潛在侵害這四個維度的問題,都層次不齊。這個問題繼續(xù)系統(tǒng)研究,公號君在此拋出這個議題,供大家討論。公號君本身也非常歡迎與大家交流。
從理論上看,AI助手作為用戶的工具理應以用戶利益最大化為最終導向,忠實地執(zhí)行和支持用戶的各項需求。但實際層面上,“忠實性”的問題卻是一個復雜的技術、經(jīng)濟與倫理交織的議題。
首先,從技術邏輯上看,AI助手在實現(xiàn)功能時往往嚴重依賴于數(shù)據(jù)驅動的算法決策。這種決策機制的核心是以用戶歷史數(shù)據(jù)及行為模式為基礎的統(tǒng)計分析與預測。然而,無論數(shù)據(jù)集如何完善,都不可能完全擺脫數(shù)據(jù)選擇偏差與算法訓練的局限性。具體來說,數(shù)據(jù)的有限性與非均衡性使得算法生成的決策與建議不可避免地帶有一定的偏差。例如,經(jīng)常被用戶吐槽的信息內容推薦機制,可能更傾向于推送高互動率或高商業(yè)價值的內容,而非用戶實際意義上所需要的內容。這種偏差在金融、醫(yī)療領域甚至可能帶來實質性的負面影響。
其次,人工智能的“黑箱”特性進一步加劇了AI助手忠實性的挑戰(zhàn)。由于深度學習模型等算法架構的復雜性,用戶無法明確地了解算法如何根據(jù)特定數(shù)據(jù)得出特定建議或決策。這種不透明性造成了信息不對稱,使得用戶對助手行為的信任成為一種“被動的信任”。即使助手表現(xiàn)出表面上的忠實,也無法確保這種忠實在深層決策邏輯上真正代表用戶的最佳利益。
更為關鍵的是,AI助手的忠實性還受到商業(yè)驅動力的影響,企業(yè)通過AI助手服務追求商業(yè)利潤最大化,在商業(yè)邏輯與用戶利益之間往往存在潛在沖突嚴重挑戰(zhàn)了AI助手的獨立性與中立性,從根本上動搖了其作為用戶“忠實助手”的可信度。
二、對AI助手精細顆粒度權限控制的現(xiàn)實困境
在理想情況下,用戶應能精準掌控AI助手對個人數(shù)據(jù)的訪問范圍與權限,以有效地實現(xiàn)隱私保護與數(shù)據(jù)主權的自主管控。然而,現(xiàn)實中的精細顆粒度控制卻面臨多個維度的阻礙與困難。
首先,技術實現(xiàn)層面的難題。當前主流的AI助手設計與移動操作系統(tǒng)往往采取較為粗放的“一攬子”授權方式。用戶在初次安裝或使用時,僅能被動接受系統(tǒng)默認的權限需求,比如對位置、相冊、通訊錄、麥克風和攝像頭的統(tǒng)一授權。絕大部分手機系統(tǒng)的權限管理模型天生偏重于“要么全部同意、要么全部拒絕”。智能助手跨應用調用場景多,往往在初次啟動時一次性索取麥克風、相機、定位、通知讀取等組合權限。要把權限切分到“僅對A應用讀取文本、對B應用只讀標題”這一級別,需要底層操作系統(tǒng)、API規(guī)范乃至隱私沙箱并行升級,開發(fā)與測試成本隨之指數(shù)上升。盡管部分系統(tǒng)已經(jīng)嘗試逐步優(yōu)化權限管理,但要實現(xiàn)真正意義上的精細化權限控制,如對特定數(shù)據(jù)或特定場景的訪問單獨授權,目前技術層面仍缺乏統(tǒng)一、通用的解決方案。此外,細顆粒度權限控制還需要系統(tǒng)開發(fā)者與AI算法開發(fā)者進行跨平臺協(xié)作,在當前產業(yè)生態(tài)中存在較大難度。
其次,用戶認知與操作能力層面的障礙也不容忽視。一般用戶對于AI助手數(shù)據(jù)訪問權限的技術細節(jié)和背后的隱私風險缺乏清晰的理解,而過于復雜的權限設置界面與專業(yè)術語往往導致用戶決策成本過高,最終使得多數(shù)用戶選擇默認放棄細顆粒度控制。也就是說,精細化權限控制的落實不僅僅是技術問題,更涉及用戶界面設計與交互模式的重大改進,這對于產業(yè)鏈上的企業(yè)構成了不小的挑戰(zhàn)。
最后,企業(yè)的商業(yè)激勵在本質上與精細顆粒度權限控制存在沖突。AI企業(yè)天然希望盡可能多地獲取用戶數(shù)據(jù),以改善算法性能并提升商業(yè)化潛力,而細顆粒度的權限控制會嚴重削弱企業(yè)數(shù)據(jù)獲取的便捷性和規(guī)模優(yōu)勢。因此,除非受到強有力的外部監(jiān)管驅動,企業(yè)往往缺乏主動推動細化權限控制的內在動力。
AI助手服務的技術邏輯決定了其在實際運營中必然需要持續(xù)性地獲取并處理大量用戶數(shù)據(jù)。這種“嵌入式”的數(shù)據(jù)獲取模式與保護隱私的天然矛盾幾乎不可避免。
具體而言,AI助手的“智能性”高度依賴對用戶實時情境的全面感知,包括位置信息、行為軌跡、通訊內容甚至生理數(shù)據(jù)。這些數(shù)據(jù)的持續(xù)收集是AI算法提供精準化、個性化服務的前提條件。然而,持續(xù)收集本身即意味著用戶隱私暴露的風險是持續(xù)且無法根本性地切斷的。在算法運作的不透明背景下,用戶很難真正理解自己的數(shù)據(jù)何時、以何種方式、在何種范圍內被AI所采集、處理和存儲。
此外,盡管新興的隱私保護技術(如聯(lián)邦學習、差分隱私和可信執(zhí)行環(huán)境)已經(jīng)開始應用于部分AI系統(tǒng),但其應用成本高、技術復雜性強,且并不能徹底阻止持續(xù)性的數(shù)據(jù)暴露風險。因為任何技術性防護措施,都無法完全消除由于數(shù)據(jù)采集過程本身帶來的系統(tǒng)性隱私風險。
當AI助手廣泛應用于人際互動場景時,第三方主體(也就是他人)隱私侵害問題便難以避免。比如,當用戶利用AI助手通過實時錄屏分析通話錄音、分析商務洽談內容、上傳用戶聊天記錄、生成會議紀要時,第三方參與者的個人信息與隱私數(shù)據(jù)勢必被一并記錄和處理。
從法律層面而言,這種“代位授權”可能并不具備嚴格意義上的合法性。即便主用戶本人同意AI收集和處理自己的數(shù)據(jù),但第三方的個人信息或隱私數(shù)據(jù)收集行為顯然未經(jīng)明確同意,因此在法律上屬于灰色甚至違法地帶。更加復雜的是,一旦發(fā)生數(shù)據(jù)泄露或濫用,第三方的隱私侵害責任如何分配至今尚不明晰。究竟是AI助手的提供商、數(shù)據(jù)存儲平臺,還是主用戶本身應該承擔法律責任,均存在較大的解釋空間與爭議。這種責任劃分的模糊性嚴重阻礙了對第三方隱私的有效保護。
綜上所述,盡管人工智能助手為人們的日常生活帶來了前所未有的便利和效率,但其在忠實性保障、權限控制細化、隱私持續(xù)暴露及第三方隱私侵害等方面所帶來的復雜挑戰(zhàn),必須通過技術創(chuàng)新、產業(yè)自律、法律規(guī)制和用戶教育的多維治理路徑予以應對,也就是說對AI助手的告知同意機制的設計需要有系統(tǒng)性思維和路徑。這也將是《個人信息安全規(guī)范》需要認真處理的問題之一。