Figma의 160억 달러 질문: 고객 데이터가 AI 연료가 될 때
제기된 집단 소송이 기업 디자인으로 AI를 훈련시키는 데 드는 숨겨진 비용을 드러내며, 모든 SaaS 기업이 주목해야 하는 이유를 보여준다
캘리포니아 북부지방법원에 11월 21일 Figma를 상대로 제기된 소송은 계약 분쟁처럼 보인다. 그리고 바로 그 점이 이 소송을 위험하게 만든다.
원고인 스타트업 창업가 라자 칸(Raza Khan)은 OpenAI, Meta, Midjourney가 창작자들과 갈등을 빚었던 이제는 익숙한 전장인 저작권 침해를 주로 주장하지 않는다. 대신 고소장은 Figma가 "수백만 개"의 고객 디자인 파일을 사용했다고 주장하며 이를 계약 위반 및 영업 비밀 유용으로 규정한다. 즉, 우리의 작업은 비공개라고 약속해놓고 결국 이를 당신의 AI에 제공했다는 것이다.
이러한 구분이 중요하다. 저작권 소송은 공정 이용과 침해를 대립시키는 법적으로 모호한 영역이다. 하지만 원고들이 고소장이 보도된 바와 같이 고객 파일이 "자신들의 소유"이며 Figma 자체 제품 개발에 이득이 되지 않을 것이라는 Figma의 수년간의 확언 등 구체적인 마케팅 약속을 지적할 수 있다면, 법원은 훨씬 덜 동정적이게 된다. 여기에 NDA(비밀유지협약) 하의 스타트업 지적재산권(IP)과 에이전시 작업이 Figma의 훈련 코퍼스에 들어갔다고 주장되는 영업 비밀 유용 혐의까지 더해지면, 법원이 반복적으로 유효하다고 인정한 서사, 즉 약속 불이행(bait-and-switch)이 완성된다.
Figma는 모든 주장을 반박하고 있다. 대변인은 로이터 통신에 회사가 "명시적인 승인"이 있는 경우에만 고객 데이터를 훈련에 사용하며, 이를 비식별화하고 "고객의 고유한 콘텐츠가 아닌 일반적인 패턴"에 초점을 맞춘다고 밝혔다. 하지만 2024년 "메이크 디자인스(Make Designs)" 논란, 즉 Figma가 Apple 날씨 앱의 거의 복제품을 생성한 후 해당 AI 기능을 철회했던 사건은 이미 회사의 AI 안전장치에 대한 의구심을 심어주었다.
산업적 맥락: 예외인가 아니면 추세인가?
이는 예외적인 사례가 아니다. 2023년 이후 50건 이상의 주요 AI 훈련 관련 소송이 제기되었으며, 2025년까지 집단 소송 노출 위험은 세 배로 증가할 것으로 예상된다. 그 패턴은 일관적이다. 기업들이 명확한 동의 없이 사용자 생성 콘텐츠를 스크랩하거나 재활용하고, 변형적 사용을 주장한 다음, 조직적인 법적 공세에 직면하는 것이다.
2025년 9월, Anthropic이 작가들과 합의한 15억 달러 규모의 합의(여기에는 법원 명령에 따른 저작권 침해 훈련 데이터 파기도 포함)는 중요한 선례를 세웠다. 법원은 오염된 코퍼스(데이터 셋)로 구축된 모델 가중치를 삭제하는 알고리즘적 이득 환수를 명령할 것이다. 이러한 결과는 손해 배상보다 SaaS 플랫폼을 더 두렵게 한다. 이는 값비싼 재훈련을 강제하고 배포 중인 AI 기능을 잠재적으로 마비시킬 수 있기 때문이다.
LinkedIn은 2025년 1월, 소급 적용되는 정책 변경을 통해 AI 훈련을 위해 비공개 InMail 메시지를 공유한 것에 대한 집단 소송에 직면했다. Google의 Gemini 팀은 Gmail 및 Docs 사용자를 자동으로 AI 훈련에 포함시킨 후 유사한 주장에 맞서 싸웠다. Salesforce는 XGen 모델을 위해 "수천 권의 불법 복제된 책"을 사용했다는 혐의에 대해 방어하고 있다. 공통점은 무엇일까? 기업 또는 소비자 플랫폼이 자사 데이터를 AI 전환을 위한 "무료 연료"로 취급하다가, 동의가 암시된 것이 아니었음을 뒤늦게 발견하는 것이다.
이러한 사례들이 순수한 콘텐츠 스크래핑 사례(뉴욕타임스 대 OpenAI)와 다른 점은 바로 신뢰 프레임워크에 있다. 사용자들은 플랫폼이 보호를 약속했기 때문에 민감한 작업을 업로드했으며, 이는 AI 훈련이 위반했다고 주장되는 묵시적 계약을 형성했다. 이는 공정 이용 논쟁보다 기각하기 더 어렵다.
투자 계산법: 적색 경보일 뿐, 실존적 위협은 아니다
투자자들에게 이 사례는 거버넌스 위험과 적당한 법적 리스크를 제기하지만, 사형 선고는 아니다. 계산법은 다음과 같다.
Figma는 2025년 7월 IPO를 통해 12억 달러를 조달한 후 약 160억170억 달러의 시가총액으로 거래된다. 회사는 수익성이 있으며, 2024년 7억 4,900만 달러의 매출에 88%의 매출 총이익률을 기록했다. 2억6억 달러 범위의 합의금은 고통스럽겠지만, 사업을 파탄내지는 않을 것이다. Anthropic의 15억 달러 지급액도 충격적이지만, 이는 방대한 외부 코퍼스 훈련을 반영한 것이다. Figma의 노출(위험)은 기업 동의 메커니즘이 소송 과정에서 입증된다면 더 좁을 수 있다.
진정한 위험은 합의금이 아니라 금지 명령 구제이다. 법원이 Figma의 AI 기능이 약속 위반을 통해 얻은 데이터에 실질적으로 의존한다고 판단한다면, 모델 파기 또는 사용 금지를 명령할 수 있다. Figma의 S-1(증권신고서)에는 AI가 150회 이상 언급되어 있으며, 이는 성장 스토리와 기업 가치 프리미엄의 핵심이다. 강제적인 "AI 리셋"은 매출이 안정적으로 유지되더라도 기업 가치 배수를 압축할 것이다.
확률 가중치를 적용하면 다음과 같다:
- 직접적인 합의금 리스크: 2억~6억 달러 (기본 시나리오), 광범위한 집단이 승인되고 영업 비밀 이론이 설득력을 얻으면 10억 달러 이상 (최악의 시나리오).
- 간접 비용: 법률 비용, 규정 준수 시스템 구축, 모델 재훈련으로 인한 3년간 영업 마진 2~3% 포인트 하락.
- 전략적 지연: AI 로드맵 배포 지연, NDA(비밀유지협약)에 민감한 기업 고객의 잠재적 이탈.
투자자들은 Figma가 공개적인 옵트인(opt-in) 절차, NDA 안전 모드, 외부 감사와 같은 재구축된 데이터 거버넌스를 입증할 때까지 "AI 클린" SaaS 동종 업계 기업 대비 소폭의 멀티플(배수) 할인을 적용해야 한다. 신뢰 침식의 초기 신호를 얻기 위해 기업 고객의 반응과 순달러 유지율(Net Dollar Retention)을 주시해야 한다.
아무도 가격에 반영하지 않은 시스템적 위험
Figma의 진정한 의미는 회사 특정적인 것이 아니다. 이 사례는 "자사 SaaS 데이터로 훈련된 AI"가 이제 규제 대상 자산군임을 명확히 한다. 이는 법원과 규제 기관이 합의하고 있는 동의 요건, 즉 사전 공개, 실제적인 옵트아웃(opt-out) 메커니즘, 그리고 오염된 코퍼스(데이터 셋)에 대한 되돌림(unwinding) 기능을 따른다.
이는 "당신의 데이터로부터 학습하는" AI를 내세우는 Notion, Canva, Miro, Microsoft 365 Copilot, Salesforce Einstein과 같은 모든 협업 플랫폼을 위협한다. 시장은 데이터 출처가 실사(diligence)의 핵심 요소가 될 속도를 과소평가했지만, Figma가 이를 표준으로 만들었다.
본 기사는 투자 조언이 아님
