許多 AI 創新內容都是建立在開放模型之上,Meta 的 Llama 模型下載數量也突破 1 億次!在這波創新中,為了建立對開發者的信任,Meta 宣布推出 Purple Llama,該項保護傘計畫將匯集各類評測方式與工具,幫助開發者負責任地運用開放的生成式 AI 模型建構。
為什麼選擇紫色?
引用資安領域的概念,為了應對生成式 AI 帶來的挑戰,需要同時模擬攻擊(紅隊)與防禦(藍隊)的模式,紫隊便是由紅隊及藍隊協作組成,同時考量評估風險與減輕潛在威脅的作法。
網路安全
Meta 推出業界第一套針對大型語言模型的網路安全評測工具,這些標準是基於產業指南及規範,並與 Meta 的安全專家合作建構而成。透過 Purple Llama 的初始版本,期待提供工具應對向白宮做出的安全承諾中概述的風險,包括:
- 量化大型語言模型網路安全風險的指標
- 評估不安全程式碼建議發生頻率的工具
- 評估使大型語言模型難以產生惡意程式碼或協助網路攻擊的工具
相信透過這些工具,可從本質上減少由大型語言模型建議出不安全生成式 AI 程式碼的頻率,並減少對網路上攻擊者的幫助。
輸入與輸出
如 Llama 2 負責任使用指南中所述,Meta 建議開發者根據適合的內容規範,檢查及過濾大型語言模型的所有輸入及輸出內容。為了支持開發者執行此流程,Meta 發布 Llama Guard,此項公開可用的基礎模型幫助開發者避免產出具潛在風險的輸出。為持續實現公開、透明的科學研究精神,Meta 將在論文中公開研究方法及對結果的延伸討論。此模型已經過一系列公開可用的資料集訓練,能夠檢測常見的潛在風險或違規內容,最終期待開發者能根據各自需求自行調整合適的內容,支援相關使用狀況,並更輕鬆地採用最佳作法,進而改善整個開放生態系。
開放的生態系
Meta 已非首次採用開放的 AI 策略,探索性研究、開放科學研究精神及相互合作,是 Meta 在 AI 工作的基礎,Meta 相信這是創建開放生態系的重要契機。今年 7 月,Meta 與 100 多個合作夥伴共同推出 Llama 2,這種合作精神位居業界領先地位,其中許多合作夥伴亦與 Meta 於開放式信任與安全方面合作,包含 AI 聯盟(AI Alliance)、AMD、Anyscale、AWS、Bain、CloudFlare、Databricks、Dell Technologies、Dropbox、Google Cloud、Hugging Face、IBM、Intel、Microsoft、MLCommons、Nvidia、Oracle、Orange、Scale AI、Together.AI 等,Meta 很期待與擁有共同願景的合作夥伴們,一同為負責任地開發生成式 AI 開放生態系而努力。