블로그로 돌아가기
외주 가이드2026년 4월 8일75

AI 개발사 계약 전 반드시 확인해야 할 것들 2026

2026년 AI 외주 계약 전 체크리스트 7가지 — 레퍼런스 검증, 팀 역량 확인, 성능 KPI 명시, 운영 비용 산정, IP 귀속까지 실전 가이드.

# AI 개발사 계약 전 반드시 확인해야 할 것들 2026

"AI 개발 외주 맡겼다가 낭패 봤다"는 이야기, 주변에서 한 번쯤 들어봤을 겁니다. 계약 금액만 보고 진행했다가 중간에 방향이 틀어지거나, 납품된 결과물이 처음 기대와 전혀 다른 경우가 의외로 많습니다.

AI 개발 프로젝트는 일반 웹/앱 개발보다 훨씬 변수가 많습니다. 데이터 품질, 모델 성능, 운영 환경 등 기술적 요소 외에도, 업체와의 소통 방식이나 계약 조건에 따라 결과가 크게 달라집니다. 2026년 현재 AI 외주 시장이 빠르게 커지면서 업체 수는 늘었지만, 검증 기준은 여전히 불명확한 경우가 많습니다.

계약 전 단계에서 반드시 확인해야 할 체크리스트를 정리했습니다.

---

1. 레퍼런스는 "AI 개발" 경험인가, "IT 개발" 경험인가?

가장 먼저 확인해야 할 것은 포트폴리오의 성격입니다. 많은 업체가 웹 개발, 앱 개발 이력을 AI 개발 레퍼런스처럼 포장해서 제시합니다. 실제로 확인해야 할 것은:

  • LLM(GPT, Claude, Gemini 등) 기반 서비스를 실제 출시한 경험이 있는가?
  • RAG 시스템이나 AI 에이전트 파이프라인을 구축한 사례가 있는가?
  • 음성인식, 컴퓨터비전, 추천 시스템 등 ML 모델을 실서비스에 적용한 실적이 있는가?

단순히 "AI 챗봇을 만들어봤다"는 수준과, 실제 운영 중인 AI SaaS를 개발했다는 건 완전히 다른 역량입니다. 가능하다면 실제 운영 중인 레퍼런스를 직접 사용해보거나, 해당 서비스의 고객사에 간단한 레퍼런스 체크를 요청하는 것이 좋습니다.

---

2. 개발팀 구성과 핵심 인력의 실제 투입 여부

계약을 따내기 위해 팀을 좋게 소개하고, 막상 프로젝트가 시작되면 전혀 다른 팀이 투입되는 경우가 있습니다. 계약 전에 반드시 확인할 것들:

프로젝트 담당 인력의 역량:

  • 실제 개발을 담당할 팀원의 이력서나 GitHub를 확인할 수 있는가?
  • AI/ML 관련 학력(POSTECH, KAIST, 서울대 등) 또는 현업 경험이 검증되는가?
  • 외주 하청 없이 내부 팀에서 직접 개발하는가?

특히 AI 프로젝트는 팀원의 역량 차이가 결과물 품질에 직결됩니다. "우리 팀은 AI 전문가가 있습니다"는 말보다, 구체적인 인물과 경험을 확인하는 것이 훨씬 중요합니다.

---

3. 데이터 준비 범위와 책임 소재를 명확히

AI 개발 프로젝트에서 의외로 많이 발생하는 갈등 포인트입니다. 보통 계약서에 "AI 모델 개발"이라고만 적혀 있는데, 학습 데이터 준비가 누구 책임인지, 데이터 라벨링 비용은 어느 쪽이 부담하는지가 모호한 경우가 많습니다.

계약 시 반드시 명문화해야 할 사항:

항목확인 내용
학습 데이터 제공 주체발주사 제공인지, 개발사 수집인지
데이터 전처리 범위정제, 라벨링 포함 여부
데이터 품질 기준최소 품질 요건, 부적합 데이터 처리 방침
데이터 소유권학습 후 데이터 및 모델 소유권 귀속
개인정보 처리GDPR/개인정보보호법 준수 방식

---

4. 성능 지표(KPI)를 숫자로 계약서에 명시

"좋은 AI"를 만들어주겠다는 말은 아무 의미가 없습니다. 무엇을 어떤 수준으로 달성하면 완료인지를 숫자로 정의해야 합니다.

예를 들어:

  • 챗봇이라면: 의도 분류 정확도 90% 이상, 응답 시간 2초 이내
  • RAG 시스템이라면: 관련 문서 검색 정확도 85% 이상, 할루시네이션 비율 5% 미만
  • 음성인식이라면: 일반 대화 환경 WER(단어 오류율) 10% 이하

성능 목표가 없으면, 납품 시 "이 정도면 완성"이라는 개발사의 주장에 반론하기 어렵습니다. 또한 목표 미달 시의 처리 방법(추가 개선 의무, 부분 환불 등)도 함께 명시해두는 것이 좋습니다.

---

5. 운영 환경과 유지보수 조건 확인

AI 서비스는 개발 완료가 끝이 아닙니다. 실제 사용자가 늘어나면서 모델 성능이 저하될 수 있고, 기반 모델 API 버전이 바뀌거나 비용 구조가 달라질 수 있습니다. 계약 전 반드시 확인할 것:

인프라 구성:

  • AWS, GCP, Azure 중 어디서 운영할 것인가?
  • 서버 비용은 누가 부담하는가 (개발 기간 vs 운영 기간)?
  • GPU 서버가 필요한 경우 비용 추정치는?

유지보수 범위:

  • 납품 후 무상 A/S 기간은 얼마인가 (보통 3~6개월)?
  • 모델 재학습이 필요할 때 추가 비용이 발생하는가?
  • 운영 중 버그 발생 시 응답 시간 SLA가 있는가?

운영 비용을 처음부터 합산해서 보는 것이 중요합니다. 개발 비용만 보고 계약했다가 월 운영 비용이 예상의 3배가 나오는 사례도 있습니다.

---

6. 소통 방식과 중간 산출물 일정

AI 프로젝트의 특성상 중간에 방향이 바뀌는 경우가 잦습니다. 이때 소통이 원활하지 않으면 발주사가 뒤늦게 문제를 발견하고 대규모 수정이 발생합니다.

확인해야 할 것들:

  • 주 단위 또는 격주 단위로 진행 현황을 공유하는가?
  • Notion, Jira 같은 협업 툴로 투명하게 태스크를 관리하는가?
  • 중간 산출물(데이터 분석 결과, 모델 첫 버전, 베타 테스트 등)의 일정이 명확한가?

중간 마일스톤 없이 최종 납품만 존재하는 계약은 피하는 것이 좋습니다. 특히 3개월 이상의 장기 프로젝트라면 월별로 검토 가능한 산출물이 나와야 합니다.

---

7. 계약 해지 조건과 IP 귀속 확인

마지막으로 불상사 대비입니다. 개발이 중단될 경우, 지금까지 진행된 결과물(코드, 데이터, 모델 가중치)은 누구 것인지를 명확히 해야 합니다.

  • 코드 소유권: 납품된 코드의 저작권이 발주사에 귀속되는가?
  • 계약 해지 환불: 진행률에 따른 단계별 환불 기준이 있는가?
  • 핵심 기술 사용 제한: 개발 과정에서 알게 된 발주사의 비즈니스 정보, 데이터가 외부 유출되지 않도록 NDA가 체결되어 있는가?

---

AI 개발사 선택, 결국 무엇을 봐야 하는가?

위의 체크리스트를 한 줄로 요약하면, 검증 가능한 실적과 투명한 소통 방식입니다.

포트폴리오는 실제 서비스로, 팀 역량은 구체적 인물로, 계약 조건은 숫자로 확인하세요. "우리가 잘 합니다"는 말 대신 "이런 사례를 이런 조건으로 납품했습니다"라는 증거를 요구하면 됩니다.

나무숲(TreeSoop)은 오토피플(AI 차량진단), Asimula(음성인식 서비스) 등 실제 운영 중인 AI 서비스 레퍼런스를 보유하고 있으며, Notion 기반 투명한 협업 방식으로 모든 프로젝트를 진행합니다. POSTECH/KAIST/서울대 출신 개발팀이 직접 담당하는 방식으로 AI 외주 개발의 불확실성을 최소화하고 있습니다.

AI 개발 파트너를 찾고 있다면 먼저 상담부터 받아보세요.

👉 카카오톡 문의

official@treesoop.com
treesoop.com