
New Relic 已將其可觀測性平台擴展至 DeepSeek,幫助企業簡化使用開源大語言模型開發、部署和監控生成式 AI 應用的流程。
隨著 Gartner 預測到 2026 年將有超過 80% 的企業會使用或部署生成式 AI 應用,此舉正是為了滿足企業在日益複雜的 AI 領域中的迫切需求。
New Relic 首席執行官 Ashan Willy 表示:"在當今競爭激烈的環境中,組織面臨著做出明智 AI 實施決策的壓力。可觀測性通過提供 AI 技術棧的全面可視化來解決這一問題。我們正在擴展平台以支持使用 DeepSeek 構建的 AI 應用,使企業能夠自信地決定部署哪些 AI 模型以及如何最有效地使用它們。"
Willy 補充說,DeepSeek 的成本效益模型與 New Relic 在可觀測性和應用性能監控 (APM) 方面的專業知識相結合,可以為企業在快速發展的 AI 市場中提供顯著優勢。
New Relic 與 DeepSeek 的集成擴充了其擁有超過 60 個 AI 集成的生態系統,包括最近新增的 Nvidia Inference Microservices (NIM) 和 Amazon Bedrock。該平台還支持與 OpenAI、Claude、Langchain 和 Pinecone 等主要 AI 參與者的集成。
AI 應用帶來了技術棧複雜性、安全性問題和潛在成本超支等挑戰。New Relic 的 AI 監控提供了 AI 技術棧的全面概覽,在遵守數據隱私要求的同時跟蹤吞吐量、延遲和成本等指標。它還跟蹤服務和模型之間的請求流,以提供對 AI 應用運作機制的深入洞察。
在開源模型如 DeepSeek 帶來新的安全風險的同時,對可觀測性能力的需求也在不斷增長。
Sophos 全球首席技術官 Chester Wisniewski 表示:"DeepSeek 的可訪問性使得善意用戶和惡意行為者都能夠進行探索。與 Llama 類似,其防護機制可以被很大程度地移除。這可能被網路犯罪分子濫用,儘管需要承認運行 DeepSeek 需要大量資源。"
Wisniewski 還強調了由於 DeepSeek 的成本優勢而預期的廣泛採用可能帶來的隱私風險:"對於公司來說,進行全面的風險評估至關重要,包括可能整合 DeepSeek 或任何未來大語言模型的產品和供應商。他們還必須確保擁有做出明智決策所需的專業知識。"
Keeper Security 的首席執行官兼聯合創始人 Darren Guccione 呼應了這些擔憂,敦促企業仔細評估風險,特別是當這些平台在監管環境較不透明的情況下運營時。
Guccione 說:"保持對供應商合規性的可見性同樣重要。確保供應商遵守認可的安全認證,如 SOC 2 (系統和組織控制 2) 和 ISO 27001,表明他們致力於健全的安全實踐和監管合規。這些認證可以確保供應商維持高標準的安全性,包括遵守國際法規。"
他補充道:"培養一個知情和警惕的工作場所可以顯著降低風險。教育員工了解外部平台的潛在風險並強調網路安全最佳實踐,使組織能夠安全地在不斷發展的 AI 領域中前進。"