PROV-AGENT: Unified Provenance for Tracking AI Agent Interactions in Agentic Workflows

Introduction AI 에이전트가 과학적 워크플로우의 핵심 구성 요소로 자리 잡으면서, 새로운 종류의 신뢰성 문제가 부상하고 있습니다. 하나의 에이전트가 hallucination(환각)을 일으키면, 그 잘못된 출력이 다음 에이전트의 입력이 되어 오류가 전파될 수...

Before the Tool Call: Deterministic Pre-Action Authorization for Autonomous AI Agents

여러분, 오늘은 AI 에이전트 보안의 핵심 공백을 짚어낸 논문을 살펴보겠습니다. 제목은 “Before the Tool Call: Deterministic Pre-Action Authorization for Autonomous AI Agents”로, APort Technologies의 Uchi Uchibeke가 작성한 arXiv 프리프린트입니다. 이...

MINJA: Memory Injection Attacks on LLM Agents via Query-Only Interaction

여러분, 오늘은 LLM 기반 에이전트의 메모리 시스템에 대한 새로운 보안 위협을 다룬 논문 MINJA를 살펴보겠습니다. 이 논문은 공격자가 에이전트의 메모리 뱅크에 직접 접근하지 않고, 오직 일반 사용자처럼 쿼리를 입력하는 것만으로...

Memory Poisoning Attack and Defense on Memory-Based LLM Agents: An Empirical Study

여러분, 오늘은 MINJA 공격의 실제 배포 환경에서의 견고성을 체계적으로 평가하고, 두 가지 새로운 방어 메커니즘을 제안하는 경험적 연구를 살펴보겠습니다. 이 논문은 UMass COMPSCI 690F 과목의 연구 프로젝트 결과물로, MINJA가 이상적...

A-MemGuard: A Proactive Defense Framework for LLM-Based Agent Memory

여러분, 오늘은 LLM 에이전트 메모리 방어 프레임워크인 A-MemGuard를 살펴보겠습니다. 앞서 살펴본 MINJA와 같은 메모리 주입 공격이 에이전트 메모리에 심각한 위협이 된다는 사실이 밝혀진 가운데, A-MemGuard는 에이전트의 핵심 아키텍처를 수정하지 않고도...