B
AI경진대회 제출물 검증기
2.65
파생 체인
단계 1
대학 AI 경진대회 확산
→
단계 2
AI 경진대회 운영 플랫폼
→
단계 3
제출물 자동 검증·표절탐지 서비스
문제
대학·공공기관이 AI 경진대회를 개최할 때, 참가팀 제출물(코드+모델+발표자료)의 표절 여부·실행 가능성·성능 재현성을 심사위원이 수작업으로 검토해야 한다. 50팀 기준 1차 스크리닝에 심사위원 3인이 각 8시간씩, 총 24인·시(약 360만원 인건비)를 소비하며, 재현 실패 제출물이 평균 30%에 달해 시간 낭비가 크다.
솔루션
제출된 코드를 샌드박스 환경에서 자동 실행하여 성능 지표를 재현 검증하고, 코드 유사도 분석(AST 기반)으로 표절을 탐지하며, 결과를 심사위원용 대시보드로 제공한다. 차별점은 한국 대학 경진대회 특화 템플릿(구글 클라우드·네이버 클라우드 환경 사전 설정)과 한글 발표자료 AI 요약 기능.
NUMR-V Scores
NUMR-V Scoring System
| N Novelty | 1-5 | 시장 내 유사 서비스 부재 정도. 경쟁사 0개 = 5, 10+개 = 1 |
| U Urgency | 1-5 | 사용자가 지금 당장 필요로 하는 긴급성. 트렌드 부합 + 시급성 |
| M Market | 1-5 | 타겟 시장의 크기와 성장 가능성. 프록시 지표 기반 (LLM 추정 X) |
| R Realizability | 1-5 | 1-2인이 실현 가능한 정도. 기술 난이도 + 데이터 확보 용이성 |
| V Validation | 1-5 | 시장 검증 통과 여부. 경쟁사 분석 + 수요 프록시 + 타이밍 |
SaaS N=.15 U=.20 M=.15 R=.30 V=.20
Senior N=.25 U=.25 M=.05 R=.30 V=.15
실현성 (69%)
실현성 분석
| 기술 복잡도 | / 40 | 핵심 기술 스택의 난이도. low=40, medium=24, high=10 |
| 데이터 접근성 | / 25 | 필요 데이터의 확보 용이성. user_generated=25 → proprietary=4 |
| MVP 일정 | / 20 | 최소 기능 제품 구축 소요 기간. 2주=20, 1개월=12, 3개월=8 |
| API 보너스 | / 15 | 공공 API 활용 가능 시 보너스. 매칭 API가 있으면 가산 |
시장 검증 (51/100)
검증 분석
| 경쟁 분석 | / 20 | 경쟁사 검색 결과 기반. 적절한 경쟁 존재 = 시장 검증 |
| 시장 수요 | / 20 | 검색량, 뉴스 언급 등 프록시 지표. 실제 수요의 간접 증거 |
| 타이밍 | / 20 | 현재 트렌드와의 부합도. 규제/기술 변화 시점 적합성 |
| 수익 참조 | / 15 | 유사 비즈니스 모델의 수익 사례. 실제 과금 레퍼런스 존재 여부 |
| 곡괭이 적합 | / 15 | 곡괭이 전략 부합도. 도구/인프라 제공 관점 적합성 |
| 1인 구축 | / 10 | 혼자서 MVP 구축 가능 여부. 외부 의존성 최소화 정도 |
기술 요구사항
백엔드 [medium]
프론트엔드 [low]
AI/ML [medium]