在激烈的人工智能領域,Meta發布了Code Llama,一個用於生成和解釋代碼的機器學習系統,旨在引起轟動。該公司以开源的方式共享這一創新,進一步推動人工智能領域的發展。
Meta,以其創新和开放的方法,早前發布了一系列用於生成文本、翻譯語言和創建音頻的人工智能模型。如今,他們將這一努力延伸至代碼領域,通過开源Code Llama來生成各種編程語言的代碼,包括Python、C++、Java、PHP、TypeScript、C#和Bash等。
Code Llama類似於一些著名的开源人工智能代碼生成器,如GitHub Copilot和Amazon CodeWhisperer等。它基於Llama 2文本生成模型,針對特定的自然語言(尤其是英語),可以生成並解釋代碼。
在Meta與TechCrunch分享的博客文章中,他們表示:“在Meta,我們堅信人工智能模型,尤其是用於編碼的大型語言模型,從开放的方法中受益最多。公开的、針對代碼的模型可以推動新技術的發展,從而改善人們的生活。通過發布Code Llama等代碼模型,整個社區可以評估其能力、識別問題並修復漏洞。”
Code Llama有多個版本,包括專爲Python優化的版本和經過微調以理解指令的版本。這些模型使用了來自網絡公开資源的數據集進行訓練,着重於包含代碼的數據子集。模型的大小從70億個參數到340億個參數不等,使用5000億個代碼標記進行訓練。其中,Python特定的版本在1000億個Python代碼標記上進行了微調,指令理解版本使用人類注釋者的反饋進行微調,以生成“有用”且“安全”的問題答案。
代碼生成工具在程序員和非程序員中都可能產生巨大的吸引力。例如,GitHub聲稱有超過400個組織正在使用Copilot,這使得开發人員的編碼速度比以前提高了55%。Stack Overflow的調查也顯示,70%的人已經在使用或計劃使用人工智能編碼工具,以提高生產力和學習速度。
然而,與所有形式的生成人工智能一樣,編碼工具可能會帶來新的風險。研究表明,使用人工智能工具的工程師更有可能在其應用程序中引入安全漏洞。此外,一些代碼生成模型可能會在受版權保護或受限制的許可下進行訓練,可能引發知識產權問題。還有黑客試圖將开源代碼生成器用於編寫惡意代碼的風險。
Code Llama已經在Meta內部進行了紅隊部署,但盡管如此,它仍然可能會在一些情況下產生不准確或令人反感的響應。Meta坦承,Code Llama在某些情況下可能會出錯,因此在將其部署到應用程序中之前,开發人員需要對其進行安全測試和調整。
雖然存在風險,但Meta對於Code Llama的部署設置了相對寬松的限制。开發人員只需同意不將模型用於惡意目的,並且在將其部署在超過7億月活躍用戶的平台上時,需要申請許可證。
Code Llama的开源發布旨在爲各領域的軟件工程師提供支持,包括研究、工業、开源項目、非政府組織和企業。Meta希望這一舉措能夠激發其他人利用Llama 2創建新的創新工具,爲研究和商業產品开發提供更多的支持。
總的來說,Meta的Code Llama代表了人工智能領域的一項重要進展,將代碼生成的能力推向了一個新的高度。盡管存在一些潛在的風險和挑战,但隨着技術的不斷發展,我們可以期待看到更多創新和解決方案的出現,以更好地滿足开發人員和用戶的需求。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。