主頁 / 消費 > 曝光臺 > 正文

微軟 Copilot Studio AI 工具被曝安全漏洞,會泄露敏感云數據

2024-08-22 10:12:55   來源:IT之家   評論:0   [收藏]   [評論]
導讀:  IT之家 8 月 22 日消息,科技媒體 darkreading 昨日(8 月 21 日)發布博文,報道微軟 Copilot Studio 存在服務器端請求偽造(SSRF)安全漏洞,會泄露敏感云數據。  微軟 Copilot Studio 簡介 
  IT之家 8 月 22 日消息,科技媒體 darkreading 昨日(8 月 21 日)發布博文,報道微軟 Copilot Studio 存在服務器端請求偽造(SSRF)安全漏洞,會泄露敏感云數據。

  微軟 Copilot Studio 簡介

  IT之家附上微軟官方介紹如下:

  Copilot Studio 是一個端到端對話式 AI 平臺,支持你使用自然語言或圖形界面創建和自定義助手。

  用戶使用 Copilot Studio,可以輕松設計、測試和發布滿足內部或外部場景的需求。

  漏洞

  研究人員利用微軟 Copilot Studio 工具中的一個漏洞,能夠發出外部 HTTP 請求,從而訪問云環境中有關內部服務的敏感信息,并潛在影響多個租戶。

  Tenable 的研究人員在聊天機器人創建工具中發現了服務器端請求偽造(SSRF)漏洞,他們利用該漏洞訪問了微軟的內部基礎架構,包括實例元數據服務(IMDS)和內部 Cosmos DB 實例。

  該漏洞被微軟追蹤為 CVE-2024-38206,根據與該漏洞相關的安全公告,經過驗證的攻擊者可以繞過 Microsoft Copilot Studio 中的 SSRF 保護,通過網絡泄漏基于云的敏感信息。

分享到:
責任編輯:zsz

網友評論