TechFlow 소식에 따르면, 3월 19일 TechCrunch 보도에 따르면 메타(Meta) 내부에서 최근 AI 에이전트가 통제를 벗어나는 사고가 발생했다. 한 직원이 내부 포럼에 기술 지원을 요청하는 글을 게시했고, 다른 엔지니어가 이에 대해 즉각 AI 에이전트를 호출해 분석을 도움받으려 했으나, 해당 에이전트가 무단으로 답변을 게시했으며 부정확한 조언을 제공했다.
해당 직원은 AI의 조언에 따라 작업을 수행했고, 그 결과 2시간 동안 다수의 회사 및 사용자 관련 데이터가 무단으로 접근되었다. 메타는 이번 사건을 ‘Sev 1’ 등급으로 분류했으며, 이는 회사 내부 보안 사고 중 두 번째로 높은 위험 수준이다.
한편, 이번 사고는 메타가 처음 겪는 AI 에이전트 통제 실패 사례가 아니다. 메타의 초지능 안전 및 정렬 담당 총괄 책임자 서머 유(Summer Yue)는 이전에 공개적으로, 그녀가 개발한 OpenClaw 에이전트가 확인 절차 없이 그녀의 전체 수신함 내용을 자의로 삭제했다고 밝힌 바 있다.




