達沃斯筆記:關於人工智能你應該了解的10件事
作者:John deVadoss,CryptoSlate;編譯:鄧通,金色財經
2024 年 1 月的達沃斯論壇主題是人工智能。
人工智能正在被兜售; 主權國家正在宣傳他們的人工智能基礎設施; 政府間組織正在審議人工智能的監管影響; 企業高管大肆宣揚人工智能的前景; 政治巨頭們正在爭論人工智能的國家安全內涵; 幾乎你在主大道上遇到的每個人都對人工智能滔滔不絕。
然而,內心卻隱藏着一絲猶豫:這是真的嗎? 以下是您應該了解的關於人工智能的 10 件事——好的、壞的和醜陋的——整理自我上個月在達沃斯的一些演講。
准確的術語是“生成式”人工智能。 何爲“生成”? 雖然之前的人工智能創新浪潮都是基於從數據集中學習模式並能夠在對新輸入數據進行分類時識別這些模式,但這一波創新是基於大型模型(又名“模式集合”)的學習,並能夠使用這些模型創造性地生成文本、視頻、音頻和其他內容。
不,生成式人工智能並不是幻覺。 當之前訓練過的大型模型被要求創建內容時,它們並不總是包含完全完整的模式來指導生成; 在那些學習模式僅部分形成的情況下,模型別無選擇,只能“填空”,從而導致我們觀察到的所謂幻覺。
正如你們中的一些人可能已經觀察到的,生成的輸出不一定是可重復的。 爲什么? 因爲從部分學習的模式中生成新內容涉及一定的隨機性,本質上是一種隨機活動,這是一種奇特的說法,即生成式人工智能輸出不是確定性的。
內容的非確定性生成實際上爲生成式人工智能應用的核心價值主張奠定了基礎。 使用的最佳點在於涉及創造力的用例; 如果不需要或不需要創造力,那么該場景很可能不適合生成式人工智能。 以此作爲試金石。
微小的創造力提供了非常高的精確度; 在軟件开發領域使用生成式人工智能來生成供开發人員使用的代碼就是一個很好的例子。 大規模的創造力迫使生成式人工智能模型填補非常大的空白; 這就是爲什么當你要求它寫一篇研究論文時你往往會看到錯誤的引用。
一般來說,生成式人工智能的比喻是德爾福的甲骨文。 神諭的表述含糊不清; 同樣,生成式人工智能的輸出也不一定是可驗證的。 詢問有關生成式人工智能的問題; 不要將事務性操作委托給生成式人工智能。 事實上,這個比喻遠遠超出了生成式人工智能,延伸到了所有人工智能。
矛盾的是,生成式人工智能模型可以在科學和工程領域發揮非常重要的作用,盡管這些通常與藝術創造力無關。 這裏的關鍵是將生成式人工智能模型與一個或多個用於過濾模型輸出的外部驗證器配對,並讓模型使用這些經過驗證的輸出作爲後續創造力周期的新提示輸入,直到組合系統產生期望的結果。
生成式人工智能在工作場所的廣泛使用將導致現代的大鴻溝; 那些使用生成式人工智能以指數方式提高創造力和產出的人,以及那些將思維過程放棄給生成式人工智能並逐漸被邊緣化並不可避免地休假的人。
所謂的公共模型大多是有污點的。 任何在公共互聯網上接受過訓練的模型都經過了網絡末端內容的訓練,包括暗網等。 這具有嚴重的影響:一是模型可能接受過非法內容的訓練,二是模型可能被特洛伊木馬內容滲透。
生成人工智能的護欄概念存在致命缺陷。 正如上一點所述,當模型受到污染時,幾乎總有辦法創造性地促使模型繞過所謂的護欄。 我們需要更好的方法; 更安全的方法; 一種導致公衆對生成人工智能的信任的方法。
當我們目睹生成式人工智能的使用和濫用時,我們必須向內審視,並提醒自己人工智能是一種工具。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。