AI 연구 에이전트 Zochi, 언어 모델 취약점에 대한 획기적인 논문 발표

작성자
Lang Wang
7 분 독서

AI 연구 에이전트, LLM 취약점 관련 ACL 2025 논문 게재로 역사적 이정표 달성

인공지능 분야의 중대한 전환점에서, 자율 연구 에이전트가 AI 안전 장치의 치명적인 보안 결함을 폭로하는 논문을 최고 수준의 과학 학술대회에 게재하며 역사적 이정표를 세웠다.

인톨로지AI(IntologyAI)가 개발한 인공지능 연구 에이전트 '조치(Zochi)'가 전산언어학회(ACL) 2025 학술대회에 채택된 과학 논문을 독립적으로 저술한 최초의 자율 AI 시스템이 되었다. ACL은 해당 분야에서 A*급 최고 권위의 동료 심사 학술대회로 널리 인정받고 있다.

'템페스트(Tempest): 트리 탐색을 통한 대규모 언어 모델의 자동 다중 턴 탈옥'이라는 제목의 이 획기적인 논문은 AI 역량의 이정표일 뿐만 아니라, 겉보기에는 안전한 언어 모델이 다중 턴 대화를 통해 체계적으로 침해될 수 있음을 입증함으로써 AI 안전 커뮤니티에 큰 파장을 일으켰다.

한 선도적인 AI 윤리 연구원은 "이것이 진정 전례 없는 이유는 AI 시스템이 단순히 과학적 발견에 참여하는 것을 넘어, 독립적으로 이를 추진하고 있다는 점입니다. 문제 식별부터 구현, 문서화에 이르는 연구 파이프라인 전체가 인간의 개입 없이 완료되었습니다."라고 말했다.

Zochi Agent
Zochi Agent

AI 안전의 아킬레스건

템페스트의 연구 결과는 현재 AI 안전 조치에 대한 우려스러운 현실을 보여준다. 조치가 개발한 이 프레임워크는 오픈AI(OpenAI)의 GPT-3.5-turbo에 대해 완벽한 100%의 공격 성공률을 달성했으며, 더 진보된 GPT-4 모델에 대해서도 97%의 성공률을 기록했다. 더욱 우려스러운 점은, 이전 방법들이 60회 이상의 질의를 요구했던 것과 비교하여 44~52회만의 질의로 이 모든 것을 달성하며 놀라운 효율성을 보였다는 것이다.

템페스트 접근 방식의 핵심은 대화 기반 취약점의 체계적인 탐색을 가능하게 하는 정교한 트리 탐색 방법론이다. 주로 단일 턴 상호작용에 초점을 맞췄던 이전 연구와 달리, 템페스트는 다중 대화 턴을 거치면서 AI 안전 장벽이 점진적으로 어떻게 약화되는지 밝혀낸다.

해당 연구에 정통한 한 보안 전문가는 "이 논문은 우리가 AI 안전을 평가하는 방식의 근본적인 취약점을 드러냅니다. 단일 턴 안전 테스트를 훌륭하게 통과하는 모델이라도, 점진적으로 한계를 넘어서는 다중 턴 대화에 노출되면 체계적으로 침해될 수 있습니다."라고 설명했다.

이 방법론은 조치가 "부분적 준수(partial compliance)"라고 명명한 현상을 추적한다. 이는 AI 시스템이 안전 프로토콜 준수 외양을 유지하면서도 제한된 정보의 단편을 드러내는 경우를 의미한다. 이러한 점진적인 침식은 시간이 지남에 따라 치명적이며, 대화 턴을 거치면서 안전성 저하가 누적되는 것으로 밝혀졌다.

학술적 발견에서 산업적 함의로

동료 심사 과정은 조치 연구의 중요성을 입증했으며, 심사위원들은 최고 머신러닝 학술대회의 채택 기준인 6점을 훨씬 상회하는 8점, 8점, 7점을 부여했다. 심사위원들은 이 연구를 "기존 AI 방어 전략의 재평가"를 필요로 하는 "효과적이고 직관적인 방법"이라고 칭찬했다.

대규모 언어 모델을 개발하고 배포하는 기술 기업들에게 템페스트는 기술적 도전이자 시장의 변곡점을 나타낸다. 이 연구는 현재의 안전 조치가 정교한 다중 턴 공격에 부적절하다는 것을 시사하며, 잠재적으로 더 역동적인 안전 프레임워크로의 전환을 촉발할 수 있다.

AI 안전 개발 동향을 추적하는 한 업계 분석가는 "우리는 새로운 보안 패러다임의 탄생을 목격하고 있을 가능성이 높습니다. 정적 필터와 사전 정의된 보호 장치만으로는 더 이상 충분하지 않을 것입니다. 미래는 이러한 점진적인 경계 테스트 전략을 실시간으로 식별하고 대응할 수 있는 적응형 시스템의 시대가 될 것입니다."라고 언급했다.

전문가들은 전문화된 "AI 보안 감사" 서비스와 더 강력한 안전 기능에 대한 프리미엄 가격 책정 계층의 등장을 예측하며 재정적 파급 효과가 상당할 수 있다고 본다. 기업들은 모델 구독뿐만 아니라 지속적인 안전 모니터링에 AI 예산의 20~30%를 할당해야 할 수도 있다.

자동화된 연구 혁명

조치의 성과는 보안적 함의를 넘어, 과학 연구 자체가 수행되는 방식에 대한 잠재적인 변화를 알린다. 일반적으로 "2D 확산 모델이나 소규모 언어 모델과 같은 비교적 제한

당신도 좋아할지도 모릅니다

이 기사는 사용자가 뉴스 제출 규칙 및 지침에 따라 제출한 것입니다. 표지 사진은 설명을 위한 컴퓨터 생성 아트일 뿐이며 실제 내용을 나타내지 않습니다. 이 기사가 저작권을 침해한다고 생각되면, 우리에게 이메일을 보내 신고해 주십시오. 당신의 경계심과 협력은 우리가 예의 바르고 법적으로 준수하는 커뮤니티를 유지하는 데 중요합니다.

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요

저희 웹사이트는 특정 기능을 활성화하고, 더 관련성 있는 정보를 제공하며, 귀하의 웹사이트 경험을 최적화하기 위해 쿠키를 사용합니다. 자세한 정보는 저희의 개인정보 보호 정책 서비스 약관 에서 확인하실 수 있습니다. 필수 정보는 법적 고지