B

AI경진대회 제출물 검증기

2.65

파생 체인

단계 1 대학 AI 경진대회 확산
단계 2 AI 경진대회 운영 플랫폼
단계 3 제출물 자동 검증·표절탐지 서비스

문제

대학·공공기관이 AI 경진대회를 개최할 때, 참가팀 제출물(코드+모델+발표자료)의 표절 여부·실행 가능성·성능 재현성을 심사위원이 수작업으로 검토해야 한다. 50팀 기준 1차 스크리닝에 심사위원 3인이 각 8시간씩, 총 24인·시(약 360만원 인건비)를 소비하며, 재현 실패 제출물이 평균 30%에 달해 시간 낭비가 크다.

솔루션

제출된 코드를 샌드박스 환경에서 자동 실행하여 성능 지표를 재현 검증하고, 코드 유사도 분석(AST 기반)으로 표절을 탐지하며, 결과를 심사위원용 대시보드로 제공한다. 차별점은 한국 대학 경진대회 특화 템플릿(구글 클라우드·네이버 클라우드 환경 사전 설정)과 한글 발표자료 AI 요약 기능.

타겟: 연 1회 이상 AI 경진대회를 개최하는 4년제 대학 산학협력단(전국 약 120개교) 및 공공기관 AI사업 담당 부서
수익 모델: 대회 건당 과금: 50팀 이하 49만원, 100팀 이하 89만원, 200팀 이하 149만원. 연간 구독 시 3회분 가격으로 무제한.
생태계 역할: 인프라
MVP 예상: 2_weeks

NUMR-V Scores

N Novelty
3.0/5
U Urgency
2.0/5
M Market
2.0/5
R Realizability
3.0/5
V Validation
3.0/5
NUMR-V Scoring System
N Novelty1-5시장 내 유사 서비스 부재 정도. 경쟁사 0개 = 5, 10+개 = 1
U Urgency1-5사용자가 지금 당장 필요로 하는 긴급성. 트렌드 부합 + 시급성
M Market1-5타겟 시장의 크기와 성장 가능성. 프록시 지표 기반 (LLM 추정 X)
R Realizability1-51-2인이 실현 가능한 정도. 기술 난이도 + 데이터 확보 용이성
V Validation1-5시장 검증 통과 여부. 경쟁사 분석 + 수요 프록시 + 타이밍
SaaS N=.15 U=.20 M=.15 R=.30 V=.20 Senior N=.25 U=.25 M=.05 R=.30 V=.15

실현성 (69%)

기술 복잡도
29.3/40
데이터 접근성
19.4/25
MVP 일정
20.0/20
API 보너스
0.0/15
실현성 분석
기술 복잡도/ 40핵심 기술 스택의 난이도. low=40, medium=24, high=10
데이터 접근성/ 25필요 데이터의 확보 용이성. user_generated=25 → proprietary=4
MVP 일정/ 20최소 기능 제품 구축 소요 기간. 2주=20, 1개월=12, 3개월=8
API 보너스/ 15공공 API 활용 가능 시 보너스. 매칭 API가 있으면 가산

시장 검증 (51/100)

경쟁 분석
8.0/20
시장 수요
9.4/20
타이밍
14.0/20
수익 참조
7.5/15
곡괭이 적합
7.5/15
1인 구축
5.0/10
검증 분석
경쟁 분석/ 20경쟁사 검색 결과 기반. 적절한 경쟁 존재 = 시장 검증
시장 수요/ 20검색량, 뉴스 언급 등 프록시 지표. 실제 수요의 간접 증거
타이밍/ 20현재 트렌드와의 부합도. 규제/기술 변화 시점 적합성
수익 참조/ 15유사 비즈니스 모델의 수익 사례. 실제 과금 레퍼런스 존재 여부
곡괭이 적합/ 15곡괭이 전략 부합도. 도구/인프라 제공 관점 적합성
1인 구축/ 10혼자서 MVP 구축 가능 여부. 외부 의존성 최소화 정도

기술 요구사항

백엔드 [medium] 프론트엔드 [low] AI/ML [medium]
Dashboard