A
에이전트 샌드박스 감사 로그
4.20
파생 체인
단계 1
AI 에이전트 샌드박스 격리 기술 확산
→
단계 2
에이전트 샌드박스 인프라 구축 서비스
→
단계 3
샌드박스 내 에이전트 행위 감사 로그 SaaS
문제
AI 에이전트를 샌드박스에서 실행하는 기업(IT 에이전시, AI 스타트업)이 늘고 있지만, 샌드박스 내부에서 에이전트가 어떤 파일을 읽고, 어떤 API를 호출하고, 어떤 명령을 실행했는지 구조화된 감사 로그를 남기지 못해 보안 사고 발생 시 원인 추적에 평균 4-8시간을 소비한다. 특히 멀티 에이전트 환경에서는 에이전트 간 상호작용 추적이 불가능하여 장애 재현 자체가 어렵다.
솔루션
샌드박스 런타임(Docker/VM/WASM)에 경량 사이드카 에이전트를 삽입하여 파일시스템 접근, 네트워크 호출, 프로세스 실행을 실시간 캡처하고, 에이전트별 타임라인 뷰와 이상행위 알림을 제공한다. 핵심 기능: (1) 시스콜 레벨 행위 로그 자동 수집, (2) 에이전트별 행위 타임라인 시각화, (3) 정책 위반(허용 범위 외 파일접근, 외부 API 호출) 실시간 알림.
NUMR-V Scores
NUMR-V Scoring System
| N Novelty | 1-5 | 시장 내 유사 서비스 부재 정도. 경쟁사 0개 = 5, 10+개 = 1 |
| U Urgency | 1-5 | 사용자가 지금 당장 필요로 하는 긴급성. 트렌드 부합 + 시급성 |
| M Market | 1-5 | 타겟 시장의 크기와 성장 가능성. 프록시 지표 기반 (LLM 추정 X) |
| R Realizability | 1-5 | 1-2인이 실현 가능한 정도. 기술 난이도 + 데이터 확보 용이성 |
| V Validation | 1-5 | 시장 검증 통과 여부. 경쟁사 분석 + 수요 프록시 + 타이밍 |
SaaS N=.15 U=.20 M=.15 R=.30 V=.20
Senior N=.25 U=.25 M=.05 R=.30 V=.15
실현성 (74%)
실현성 분석
| 기술 복잡도 | / 40 | 핵심 기술 스택의 난이도. low=40, medium=24, high=10 |
| 데이터 접근성 | / 25 | 필요 데이터의 확보 용이성. user_generated=25 → proprietary=4 |
| MVP 일정 | / 20 | 최소 기능 제품 구축 소요 기간. 2주=20, 1개월=12, 3개월=8 |
| API 보너스 | / 15 | 공공 API 활용 가능 시 보너스. 매칭 API가 있으면 가산 |
시장 검증 (60/100)
검증 분석
| 경쟁 분석 | / 20 | 경쟁사 검색 결과 기반. 적절한 경쟁 존재 = 시장 검증 |
| 시장 수요 | / 20 | 검색량, 뉴스 언급 등 프록시 지표. 실제 수요의 간접 증거 |
| 타이밍 | / 20 | 현재 트렌드와의 부합도. 규제/기술 변화 시점 적합성 |
| 수익 참조 | / 15 | 유사 비즈니스 모델의 수익 사례. 실제 과금 레퍼런스 존재 여부 |
| 곡괭이 적합 | / 15 | 곡괭이 전략 부합도. 도구/인프라 제공 관점 적합성 |
| 1인 구축 | / 10 | 혼자서 MVP 구축 가능 여부. 외부 의존성 최소화 정도 |
기술 요구사항
백엔드 [medium]
프론트엔드 [medium]
인프라 [low]