블로그로 돌아가기
AI Service2026년 4월 4일110

Netflix VOID, 첫 공개 AI 모델이 비디오 편집의 미래를 보여주다

Netflix가 HuggingFace에 공개한 VOID 모델 분석. 비디오 객체 삭제 AI의 기술 원리와 서비스 활용 전략을 정리했다.

Netflix가 왜 지금 AI 모델을 공개했을까?

Netflix가 HuggingFace에 첫 번째 공개 AI 모델 VOID(Video Object and Interaction Deletion)를 올렸다. 콘텐츠 제국으로 불리는 Netflix가 그동안 내부에서만 쓰던 AI 기술을 왜 오픈소스로 풀었을까?

VOID는 이름 그대로 영상 속 특정 객체나 인터랙션을 깔끔하게 지워주는 비디오 AI 모델이다. 사진에서 배경을 지우는 건 이미 흔하지만, 움직이는 영상에서 특정 사물이나 행동을 자연스럽게 제거하는 건 완전히 다른 차원의 문제다.

VOID는 어떤 기술인가?

VOID는 video-to-video 파이프라인으로, 입력 영상에서 지정된 객체나 인터랙션을 프레임 단위로 삭제하고 빈 공간을 자연스럽게 채운다. 핵심은 단순히 한 프레임의 인페인팅이 아니라, 시간 축(temporal axis)을 따라 일관성을 유지한다는 점이다.

영상 편집 현장에서 이게 왜 중요한지 생각해보자. 기존에는 불필요한 객체를 지우려면 프레임 하나하나를 수작업으로 처리하거나, After Effects 같은 도구로 트래킹과 마스킹을 반복해야 했다. 30초 분량 영상의 객체 하나를 제거하는 데 숙련된 편집자도 반나절이 걸리는 경우가 많았다.

기존 비디오 인페인팅과 뭐가 다른가?

기존 접근 방식은 대부분 이미지 인페인팅의 확장이었다. 프레임별로 처리하다 보니 깜빡임(flickering)이 발생하고, 카메라가 움직이면 채운 영역이 어긋나는 문제가 있었다. VOID는 비디오 전체를 하나의 시퀀스로 처리해서 이런 시간적 불일치를 줄였다.

Reddit의 LocalLLaMA 커뮤니티에서 score 989를 기록하며 뜨거운 반응을 얻은 것도 이 때문이다. 로컬에서 돌릴 수 있는 비디오 AI 모델 자체가 드물기도 하지만, Netflix 급의 프로덕션 퀄리티를 기대할 수 있다는 점이 개발자들의 관심을 끌었다.

AI 비디오 편집 시장, 어디까지 왔나

컴퓨터 비전 분야에서 비디오 편집 AI는 2026년 가장 빠르게 성장하는 영역 중 하나다. 텍스트-투-비디오 생성(Sora, Runway 등)이 주목받는 동안, 기존 영상을 편집하는 AI 도구도 조용히 발전해왔다.

기능기존 방식AI 기반 방식
객체 제거프레임별 수동 마스킹자동 감지 + 시퀀스 인페인팅
소요 시간30초 영상 기준 4-8시간수 분 내 자동 처리
일관성편집자 숙련도에 의존모델이 시간축 일관성 보장
비용전문 편집자 인건비GPU 연산 비용

Netflix가 VOID를 공개한 건 단순한 기술 자랑이 아니다. 비디오 AI 생태계를 키워서 결국 자사 콘텐츠 제작 파이프라인의 효율을 높이려는 전략으로 읽힌다.

실무에서 어떻게 활용할 수 있을까?

VOID 같은 모델이 가장 먼저 적용될 분야는 명확하다.

광고·마케팅 영상 제작: 촬영 후 불필요한 요소를 제거하거나, 제품만 남기고 배경을 정리하는 작업. 기존에 외주로 맡기면 건당 수십만 원이 들던 작업을 자동화할 수 있다.

보안·프라이버시: CCTV 영상에서 특정 인물이나 차량 번호판을 제거하는 용도. GDPR이나 개인정보보호법 대응에 직접적으로 활용 가능하다.

콘텐츠 리마스터링: 과거 영상에서 시대에 맞지 않는 요소를 수정하거나, 로고·워터마크를 제거하는 작업.

나무숲에서도 컴퓨터 비전 프로젝트를 다수 진행해온 경험이 있는데, 이런 비디오 레벨의 CV 기술은 클라이언트 요구가 빠르게 늘고 있는 영역이다. 특히 영상 기반 서비스를 운영하는 기업에서 "촬영은 했는데 후반 편집 비용이 너무 크다"는 고민을 자주 들었다.

서비스에 통합할 때 고려할 점

VOID를 자사 서비스에 바로 붙이려면 몇 가지 현실적인 허들이 있다.

첫째, GPU 인프라. 비디오 모델은 이미지 모델 대비 메모리 요구량이 훨씬 크다. 프로덕션 환경에서 안정적으로 운영하려면 최소 A100 급 GPU가 필요하고, 동시 처리량에 따라 스케일링 전략도 달라진다.

둘째, 추론 속도와 UX. 사용자가 영상을 업로드하고 결과를 기다리는 시간이 길면 서비스 이탈로 이어진다. 비동기 처리 + 프로그레스 알림 같은 UX 설계가 필수다.

셋째, 파인튜닝. 범용 모델을 특정 도메인(의료 영상, 산업 현장 등)에 맞추려면 도메인 데이터로 추가 학습이 필요하다.

정리하며

Netflix VOID의 공개는 비디오 AI가 연구실을 넘어 프로덕션 레벨로 진입했다는 신호다. 컴퓨터 비전 기반 서비스를 고려하고 있다면, 지금이 기술 검증을 시작할 타이밍이다.

AI 기반 영상 처리 서비스 개발이 필요하다면, 나무숲(TreeSoop)에 문의해보세요. POSTECH/KAIST 출신 팀이 컴퓨터 비전부터 서비스 배포까지 함께합니다.

👉 카카오톡 문의하기