過去幾天,DeepSeek的持續火爆也引發了包含敏感數據泄露在內的諸多安全風險。作為一種有內容生成能力的新型數字系統,以DeepSeek為代表的AI大模型在實現其科技、生產和社會價值的同時,要如何保障其“原生安全”?
基于AI技術構建的新型數字系統與傳統系統相比,由于數字資產類型的復雜性、用戶交互方式以及業務處理流程的變化,使其面臨網絡與數據安全、模型安全、內容安全和供應鏈安全等風險挑戰。此外,不同于傳統軟件“需求-開發-測試-發布”的線性生命周期,AI大模型形成了“數據采集-訓練-推理-再訓練”的動態生命周期,它自身的持續進化和迭代也會不斷引入新的風險。
那么有沒有一種全新的模式,來讓AI驅動的智能原生數字系統,建立更高效穩健的安全能力呢?對此,“原生安全”理念應運而生。“原生安全”強調從AI大模型的內在架構、數據處理、算法訓練、工作流量等方面進行安全管理,確保安全從模型的源頭就被構建起來。
基于這一理念,永信至誠(688244)依托「數字風洞」產品體系構建了針對AI大模型整個生命周期的風險管理機制。該機制以實現AI大模型的原生安全為目的,圍繞AI大模型構建、部署到運營的各個階段,開展多維風險測評與驗證,幫助開發、使用AI智能數字系統的企業讓AI大模型及其構建的數字系統具備原生的安全能力。
對此,永信至誠提出通過建立AI大模型資產臺賬、AI大模型全生命周期測試評估、風洞時光機全生命周期管理、威脅情報監控與“家庭醫生”服務、實時防護的AI智能體內容合規和數據隱私的“安全圍欄”等一系列針對不同階段的防護目標與風險特點的「數字風洞」健康管理方案。
同時,隨著大模型逐步應用于各行各業,確保其合規性,并具備有效的輸入輸出信息過濾能力,尤其是防止泄露商業信息、國家機密、個人隱私及敏感社會價值觀等內容,已成為關鍵任務。以智能體來管理智能體,在每一個AI大模型誕生時,配備原生、獨立的安全“智能體”,能夠協助迅速識別、過濾并有效阻斷潛在的安全風險,幫助企業提高AI大模型風險管理準確性和效率,讓AI大模型更高效地賦能業務發展。(燕云)
校對:廖勝超