生成性AI的快速發展在隱私和安全方面帶來了前所未有的挑战,引發了對監管幹預的緊迫呼籲。
上周,我有機會在華盛頓特區與一些國會議員及其工作人員討論AI與安全相關的影響。
今天的生成性AI讓我想起了80年代末的互聯網,基礎研究、潛在潛力和學術用途,但它還沒有爲公衆做好准備。這一次,不受約束的供應商野心,受到小聯盟風險資本的推動和Twitter回聲室的激勵,正在快速推進AI的“美麗新世界”。
所謂的“公共”基礎模型是有缺陷的,不適用於消費者和商業用途;隱私抽象,即使存在,也像篩子一樣泄漏;安全結構非常是進行中的工作,因爲攻擊面和威脅向量仍在被理解中;至於虛幻的護欄,說得越少越好。
那么我們是怎么到這裏的?安全和隱私怎么了?
“妥協”的基礎模型
所謂的“开放”模型一點也不开放。不同的供應商通過开放模型權重、文檔或測試的訪問來宣傳他們的开放程度。盡管如此,沒有一全主要供應商提供接近訓練數據集或其清單或血統的信息,以便能夠復制和重現他們的模型。
對於訓練數據集的這種不透明性意味着,如果你希望使用一個或多個這些模型,那么你作爲消費者或組織,沒有任何能力來驗證或確認數據污染的程度,無論是關於知識產權、版權等,還是潛在的非法內容。
關鍵的是,沒有訓練數據集的清單,就無法驗證或確認不存在的惡意內容。惡意行爲者,包括國家資助的行爲者,在網絡上植入特洛伊木馬內容,這些內容如果在模型訓練期間被攝取,導致在推理時產生不可預測和潛在的惡意副作用。
記住,一旦模型被妥協,就沒有方法讓它忘記,唯一的選擇是銷毀它。
“無孔不入”的安全問題
生成式AI模型是終極安全蜜罐,因爲“所有”數據都被攝取到一個容器中。在AI時代出現了出現了新的攻擊向量類別;該行業尚未理解這些模型如何從網絡威脅中得到保護,以及這些模型如何被網絡威脅行爲者用作工具的影響。
惡意提示注入技術可能被用來污染索引;數據投毒可能被用來破壞權重;嵌入攻擊,包括反轉技術,可能被用來從嵌入中提取豐富的數據;成員推斷可能被用來確定某些數據是否在訓練集中,等等,這只是冰山一角。
威脅行爲者可能通過模型反轉和程序化查詢,來獲得機密數據的訪問權限;他們可能破壞或以其他方式影響模型的潛在行爲;而且,正如前面提到的,大規模失控的數據攝取會導致通過特洛伊木馬等方式嵌入國家支持的網絡活動威脅。
“泄漏”的隱私
AI模型之所以有用,是因爲它們所訓練的數據集;不加區別地大規模數據攝取,爲個人和公衆帶來了前所未有的隱私風險。在AI時代,隱私已成爲社會關注的問題;主要解決個人數據權利的法規是不夠充分的。
除了靜態數據之外,動態對話的提示也必須被視爲知識產權來保護和維護。如果你是一名消費者,參與與模型共同創造一個工件,你希望你引導這個創造活動的提示,不會被用來訓練模型或與其他模型消費者共享。
如果你是一名員工,使用模型來實現業務成果,你的僱主期望你的提示保密;此外,提示和響應需要一個安全的審計跟蹤,以防任何一方出現責任問題。這主要是由於這些模型的隨機性以及其響應隨時間的變化。
接下來會發生什么?
我們正在處理一種前所未有的技術,這種技術在我們的計算機歷史中是獨一無二的,它展現出了規模化的湧現性和潛在行爲;過去用於安全、隱私和保密的方法已經不再適用。
行業領導者將謹慎拋在了腦後,監管者和政策制定者別無選擇,只能選擇介入。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。