Builder.ai는 정말 700명의 개발자로 AI를 속였을까?
바이럴 루머와 실제 기술 스택의 진실
여는 글
지난주 파산한 AI 스타트업 Builder.ai에 대한 충격적인 소문이 전 세계 언론을 휩쓸었습니다. “Builder.ai가 인도의 700명 개발자로 AI를 속였다”는 이야기였죠. 하지만 이 소문은 사실일까요? The Pragmatic Engineer의 Gergely Orosz가 직접 Builder.ai 출신 개발자들과 인터뷰하여 밝혀낸 진실을 소개합니다.
바이럴된 루머들
지난주 Builder.ai의 파산 소식과 함께 다음과 같은 헤드라인들이 쏟아졌습니다:
- Mashable: “Microsoft가 지원한 AI 스타트업의 챗봇이 실제로는 인간 직원이었다고 밝혀져”
- MSN: “Builder.ai가 AI 기반이라고 마케팅한 코딩 작업에 인도의 700명 엔지니어를 사용했다”
- Business Standard: “Builder.ai가 700명의 인도 엔지니어로 AI를 속여, 파산과 조사에 직면”
이 소문들은 소셜미디어를 통해 급속히 퍼져나갔고, 많은 사람들이 “역시 AI 스타트업들은 가짜였구나”라며 비판했습니다.
만약 정말로 700명으로 AI를 속인다면?
기사 저자는 흥미로운 사고실험을 제시합니다. 만약 정말로 700명의 개발자로 AI 시스템을 속인다면 어떻게 할 수 있을까요?
1단계: 순진한 접근법
사용자 요청 → 개발자에게 할당 → 코드 작성 → 사용자에게 전달
문제점: 응답 시간이 10-30분 걸린다면 누구도 AI라고 믿지 않을 것입니다.
2단계: 기계식 터크의 교훈
18세기에 만들어진 가짜 체스 자동기계 “기계식 터크”처럼, 기계 안에 사람을 숨기는 방법을 생각해볼 수 있습니다. 하지만 현대에는 더 교묘한 방법이 필요하죠.
3단계: 실시간 스트리밍
개발자가 타이핑하는 내용을 실시간으로 스트리밍하여 AI가 답변을 생성하는 것처럼 보이게 만드는 방법입니다.
4단계: 인센티브 도입
3분 내에 작업을 완료하면 보너스를 주는 인센티브를 도입하면 어떻게 될까요?
결과: 개발자들이 시간 내에 작업을 완료하기 위해… 실제 AI 도구를 사용하게 됩니다!
이것이 핵심입니다. 2024년에 개발자들이 3분 내에 코드를 생성하려면 ChatGPT나 Claude 같은 LLM을 사용할 수밖에 없습니다. 즉, “AI를 속이기 위해 실제 AI를 사용하는” 모순적인 상황이 벌어지는 것이죠.
실제 Builder.ai의 기술 스택: Natasha
Natasha의 역사
Builder.ai는 2021년 ChatGPT가 나오기 훨씬 전부터 “Natasha”라는 개인 앱 빌더를 선보였습니다. 당시에는 “긱들의 네트워크”와 함께 앱을 제작한다고 명확히 밝혔습니다.
2023년 12월, ChatGPT 출시 1년 후 Builder.ai는 Natasha CodeGen을 “항상 대기 중인 소프트웨어 개발 파트너”로 발표했습니다.
Natasha CodeGen의 개발 과정
Natasha CodeGen은 전체 소프트웨어 개발 사이클을 위한 AI 도구로 설계되었습니다:
- 아이디어: 앱 UI의 시각적 표현으로 아이디어 구체화
- 계획: 전용 UI에서 사용자 스토리 생성
- 코드 생성 계획: LLM에 작업을 입력하여 코드 생성 단계 계획
- 테스트: TDD 방식으로 AI가 먼저 테스트 추가
- 코드 생성: 코드 생성 후 테스트 실행
- PR 생성: 모든 테스트가 통과할 때만 PR 생성
실제 기술 스택
15명의 엔지니어가 Natasha CodeGen을 개발했습니다. 대부분은 영국에, 약 3명은 인도에 기반을 두고 있었습니다.
기술 스택:
- Python: 에이전트들의 단계를 조율하는 오케스트레이터
- Ruby on Rails: 백엔드와 프론트엔드 일부
- React: 프론트엔드 상당 부분
- GPT와 Claude: 코드 생성을 위한 LLM 통합
팀은 새로운 모델이 나올 때마다 실행하는 코딩 벤치마크를 구축하여 사용 사례에 가장 적합한 모델을 선택했습니다.
그렇다면 700명의 개발자는?
Builder.ai가 15명의 엔지니어로 작동하는 코드 생성 플랫폼을 구축했다면, 왜 인도에 수백 명을 더 고용해야 했을까요?
내부 도구 개발에 300명 투입
Builder.ai는 이미 존재하는 도구들을 다시 만드는 데 300명의 내부 엔지니어를 고용했습니다:
- Builder Home: 고객용 대시보드
- Builder Meet: Zoom과 유사
- Builder Tracker: JIRA와 유사
- Builder Whiteboard: Figma에서 영감을 받음
- Builder Chat: Slack과 유사
- SenseiBot: PR 검토 및 배포 자동화
이러한 집중력 부족과 기존 도구의 재구축이 Builder.ai가 투자자들에게 약속한 만큼 빠르게 수익을 늘리지 못한 이유 중 하나였습니다.
외부 개발 네트워크 500-1,000명
Builder.ai는 Natasha 위에 “외부 개발 네트워크”도 판매했습니다. Globant, TatvaSoft 등의 아웃소싱 회사를 통해 고용된 약 500-1,000명의 엔지니어들이 있었습니다. 이들은 베트남, 루마니아, 우크라이나, 폴란드, 인도 등에 기반을 두고 있었습니다.
바이럴된 “인도의 700명 개발자” 주장은 바로 이 아웃소싱된 개발자 수에서 나온 것으로 보입니다.
개발자 사기 문제
Builder.ai는 아웃소싱 개발자들을 돕기 위해 Builder IDE를 구축했습니다. 이 IDE에는 다음 기능들이 포함되었습니다:
- 얼굴 인식: 개발자가 시스템의 프로필과 일치하는지 확인
- 사기 탐지 시스템: 사용량 모니터링
- 8시간을 청구했지만 IDE에서 활동한 시간이 더 적은 경우를 플래그 처리
전 제품 디렉터 Yash Mittal에 따르면, 개발자가 일한 시간 vs 기록된 시간에 대한 사기가 2년간 만연했다고 합니다.
Builder.ai의 몰락
Builder.ai는 회계 사기 의혹이 제기된 후 파산했습니다. Financial Times 보도에 따르면:
- 2024년 매출 추정치: $220M → $55M으로 대폭 수정
- 2023년 매출 수치: $180M → 약 $45M으로 재작성
이러한 수치 조작이 밝혀지자 대출업체들이 남은 자금을 압류했고, 새로운 투자자들도 투자를 꺼리게 되어 회사의 운명이 결정되었습니다.
가짜 뉴스의 출처
그렇다면 “700명 개발자로 AI를 속였다”는 바이럴 주장은 어디서 나온 걸까요?
Financial Times가 추적한 결과, X(트위터)의 한 암호화폐 애호가 계정이 올린 근거 없는 포스트에서 시작된 것으로 밝혀졌습니다. 이 계정은 보도 이력이 전혀 없는 자칭 암호화폐 애호가였습니다.
이 가짜 주장이 50만 명 이상의 LinkedIn 팔로워를 가진 금융 뉴스레터 작가 Linas Beliūnas에 의해 공유되면서 많은 언론사들이 인용하게 되었습니다.
맺는글
Builder.ai에서 일했던 엔지니어들은 실제로 탄탄한 작업을 수행했고, Devin이나 Factory 같은 도구들과 비슷한 수준의 AI 시스템을 만들어냈습니다.
핵심 교훈들:
- 소셜미디어 정보의 검증 중요성: 출처가 불분명한 소셜미디어 포스트는 항상 의심해야 합니다.
- 기술적 진실과 비즈니스 실패의 분리: 회사의 비즈니스 실패가 기술팀의 무능함을 의미하지는 않습니다.
- AI 시대의 역설: 2024년에 AI를 “속이려면” 실제로는 진짜 AI를 사용해야 한다는 아이러니
- 언론의 책임: 자극적인 헤드라인보다는 정확한 사실 확인이 중요합니다.
Builder.ai의 AI 팀이 구축한 기술은 진짜였습니다. 회사가 실패한 이유는 기술적 능력의 부족이 아니라 비즈니스 모델의 문제와 경영진의 회계 조작 때문이었습니다.
이 사건은 우리가 얼마나 쉽게 가짜 뉴스에 현혹될 수 있는지, 그리고 정확한 사실 확인이 얼마나 중요한지를 다시 한 번 보여주는 사례입니다.
이 글은 The Pragmatic Engineer의 기사를 번역·정리한 것입니다.