💻 AI编程助手安全漏洞:恶意规则文件可致代码后门

Pillar Security 研究人员发现,GitHub Copilot 和 Cursor 等 AI 编程助手存在新漏洞。攻击者可通过分发恶意“规则文件”操纵AI生成含后门、漏洞等安全问题的代码。该攻击被称为“规则文件后门”,通过注入人类不可见但AI可读的指令,影响AI助手的代码生成行为。

(科技情报)

via 茶馆 - Telegram Channel
 
 
Back to Top
oaibest.com 2023-2025
[email protected]