AI가 세상을 집어삼킨다 (번역)

* Ben Evans의 AI Eats the World를 정리했습니다.


“내 삶에서 혁신적인 기술 데모는 딱 두 가지였습니다. GUI와 ChatGPT입니다.”

빌 게이츠의 이 말은 현재 AI 혁명의 중요성을 단적으로 보여줍니다.

마이크로소프트가 1,500억 달러 가치에 도달하는 데 약 25년이 걸렸지만, OpenAI는 제품 출시 후 단 12-18개월 만에 1,600억 달러의 가치평가를 받았습니다. 전 세계 인구의 1/3에서 2/3가 이미 ChatGPT를 알고 있거나 사용해 보았을 정도로 빠르게 확산되었습니다.

이런 빠른 확산이 가능했던 이유는 무엇일까요? 이전의 기술 혁명과 달리, 물리적 기기를 구입하거나 통신사가 인프라를 구축할 때까지 기다릴 필요가 없었기 때문입니다. 웹사이트에 접속하기만 하면 클라우드에서 바로 이 기술을 경험할 수 있었습니다.

그러나 놀라운 확산 속도에도 불구하고, 대부분의 사용자는 단 한 번 사용해보고 “와, 정말 똑똑하네”라고 감탄한 뒤 더 이상 찾지 않았습니다. 매일 이 기술을 활용하는 사람은 소수에 불과합니다. 기업들도 마찬가지입니다. 대부분의 대기업에서는 CIO가 ChatGPT 계정 비용을 지불하는 정도의 시범 사업만 진행 중이며, 실제로 무언가를 배포 단계까지 진행한 기업은 훨씬 적습니다.

이런 상황은 사실 기술 산업이 10-15년마다 겪어온 플랫폼 시프트의 초기 단계와 매우 비슷합니다. 1960년대 중반부터 1970년대 후반의 메인프레임, 1980년대의 PC, 1990년대 후반의 웹, 2000년대 후반의 스마트폰, 그리고 이제 생성형 AI로 이어지는 패턴입니다. 기술 업계는 생성형 AI가 다음 큰 플랫폼 시프트라는 데 대체로 동의하지만, 그 이상의 질문에는 아직 명확한 답이 없습니다.

지금부터 세 가지 질문으로 생성형 AI의 그 다음을 살펴보죠.

1. 얼마나 확장될 수 있을까?

대형 언어 모델(LLM)은 “더 크게 만들면 더 좋아진다”는 원칙에 따라 발전해왔습니다. 우리는 이 기술을 작동시키기 위해 누구도 상상하지 못했던 규모로 모델을 확장했고, 더 많은 데이터와 컴퓨팅 파워를 투입해 더 나은 결과를 얻었습니다. 흥미로운 점은 우리가 이것이 왜 작동하는지에 대한 명확한 이론은 없지만, 지금까지는 잘 작동해왔다는 것입니다.

앞으로도 계속 이런 식으로 확장이 가능할까요? 이에 대해 두 가지 관점이 대립하고 있습니다.


첫 번째 관점은 “확장성에 한계가 있다”는 것입니다. 모든 기술처럼 LLM도 결국 성장이 둔화되고, 평범한 소프트웨어가 될 것이라는 예측입니다.

반대 관점은 “확장이 계속될 것”이라는 시각입니다. 극단적으로는 LLM이 다른 모든 소프트웨어를 대체할 수도 있다고 보는 견해입니다.


이바닥의 구루들도 이 문제에 대해 의견이 갈립니다. 마이크로소프트의 케빈 스콧은 “지금까지 확장이 작동했으니 계속 작동할 것”이라고 말하는 반면, 구글의 세르게이 브린은 “지금까지 작동했다고 해서 앞으로도 계속 작동한다는 보장은 없다”고 주장합니다.

모델 확장에는 여러 실질적인 어려움이 있습니다. 더 많은 전력 공급을 위한 시간이 필요하고, GPU 확보도 쉽지 않습니다(현재 엔비디아는 수요를 감당하지 못하는 상황입니다). 또한 고품질 학습 데이터가 충분히 남아있는지, 합성 데이터로 대체할 수 있을지도 불확실합니다. “모델을 10배 키웠을 때 정말로 10배 더 나은 결과를 얻을 수 있을까?”라는 근본적인 의문도 남아있네요.

이런 불확실성에도 불구하고, 대기업들은 투자를 계속하고 있습니다. 구글과 메타는 “투자하지 않는 것의 위험이 더 크다”고 판단하고 있습니다. 마크 주커버그는 “Llama 4를 훈련하는 데 필요한 컴퓨팅 파워는 Llama 3의 10배 이상이며, 미래 모델들은 계속 더 커질 것”이라고 말했습니다.

이런 대규모 투자가 이루어지는 핵심 이유는 “자본”이 경쟁력의 핵심 요소(해자)가 되었기 때문입니다. 페이스북이 LLM을 오픈소스로 풀었을 때 구글 내부에서 “우리는 해자가 없고, OpenAI도 마찬가지”라는 메모가 돌아 화제가 되었죠. Anthropic의 CEO는 “현재 훈련 중인 모델은 10억 달러에 가까운 비용이 들며, 2025-2026년에는 50-100억 달러가 들 것”이라고 말했습니다.

규모의 경제를 보여주는 사례로, Llama 3.1은 16,000개의 엔비디아 GPU(약 5억 달러 상당의 칩)를 사용했고, 현재 사용되는 클러스터는 100,000개의 GPU를 사용합니다. 메타, 알파벳, AWS, 마이크로소프트의 설비투자는 2023년 900억 달러에서 2024년 2,200억 달러로 급증했으며, 2025년에는 더 늘어날 전망입니다. 특히 주목할 점은 마이크로소프트가 매출의 25% 이상을 설비투자에 쓰고 있다는 것입니다. 이는 인프라 기업으로 여겨지는 통신사들(매출의 15% 투자)보다도 높은 수준입니다. 한때 “1달러짜리 CD를 100달러에 팔던” 소프트웨어 기업이 이제는 제품을 판매하기 위해 막대한 물리적 인프라를 구축해야 하는 기업으로 변모한 것입니다.

LLM은 소프트웨어 산업에 근본적인 변화를 가져왔습니다. 소프트웨어가 박스에 담긴 CD로 판매되던 시절 이후 처음으로, 사용자가 많아질수록 실제 비용도 함께 증가하는 한계 비용의 개념이 돌아왔습니다. 사용자의 모든 쿼리는 실시간 컴퓨팅 비용을 발생시키기 때문에, “무료로 시작해서 나중에 수익화”라는 지난 20년간의 인터넷 비즈니스 모델과 충돌합니다.

최근 출시된 다양한 모델들을 보면, 품질은 조금씩 향상되는 반면 효율성은 크게 개선되고 있습니다. OpenAI 모델의 경우 성능 대비 비용이 최소 10배 이상 개선되었습니다. 한편으로는 Meta가 오픈소스 모델을 거의 무료로 제공하고, Apple은 엣지 컴퓨팅에 집중하면서 LLM을 일종의 공용 인프라로 만들려는 움직임도 보입니다.

2. 얼마나 유용한가?

약 10년 전, 이미지 인식 기술이 처음 등장했을 때 많은 기업들의 반응은 “똑똑하네, 그래서 뭐?”였습니다. 컴퓨터가 개와 의자를 구분할 수 있다는 사실이 독일 재보험 회사나 대형 제조업체에 어떤 도움이 될까요? 당시 중요한 발견은 이 기술을 “패턴 인식”이라는 더 높은 추상화 수준에서 이해해야 한다는 것이었습니다. 그 후에야 우리는 다양한 산업 문제를 패턴 인식으로 변환할 수 있는 방법을 고민하기 시작했습니다.

생성형 AI도 현재 비슷한 단계에 있습니다. 사람들은 “멋진 데모네요, 왜 멋진지도 알겠어요. 하지만 이걸 개념적으로 어떻게 이해해야 할까요? 이게 정확히 무엇이고, 우리 비즈니스에서 어떻게 활용할 수 있을까요?”라고 묻고 있습니다.

또한 이 기술의 한계도 명확히 인식해야 합니다. LLM은 데이터베이스가 아니며, 항상 정확한 정보를 제공하지는 않습니다. 대표적인 사례로 Air Canada의 고객 지원 봇이 있습니다. 이 봇은 환불 정책에 대한 질문에 존재하지 않는 정책을 ‘창조’했고, 이로 인해 고객과 법정에서 싸워야 했습니다. 판사는 Air Canada의 “당신이 우리 웹사이트의 다른 부분을 읽었어야 했다”는 변명을 받아들이지 않았습니다.

이처럼 자동화는 가능하지만 항상 정확하지 않을 수 있는 도구를 어떻게 활용할 것인가에 대한 고민이 필요합니다. 모델을 개선하는 것이 한 가지 해결책이지만, 확률적 모델이 완전히 결정론적인 답변을 제공할 수 있을지는 제논의 역설처럼 근본적인 의문이 남습니다.

그렇다면 어떤 사용 사례가 적합할까요? 크게 두 가지 방향이 있습니다:

  1. 틀린 답이 없는 사용 사례
  2. 오류를 쉽게 발견할 수 있는 사용 사례

현재 가장 큰 관심을 받는 활용 분야는 검색입니다. LLM으로 구글을 대체할 수 있을까요? 어떤 종류의 쿼리에 적합한지, 어떤 상황에서는 오류가 치명적인지, 필터링이 얼마나 필요한지 등 많은 질문이 있습니다. 흥미롭게도 구글이나 OpenAI조차도 아직 정확한 답을 모릅니다. 하지만 알파벳은 검색으로 너무 많은 돈을 벌기 때문에 이 문제의 답을 찾기 위해 노력하겠죠.

한편, 머신러닝을 패턴 인식이라고 추상화했던것처럼, LLM은 추론, 종합, 요약 능력을 제공하는 도구로 볼 수 있습니다. 이전에 자동화할 수 없었던 작업들을 자동화하는 방법으로 LLM이 사용될 수 있습니다. 제가 이전 머신러닝 물결을 설명할 때 사용했던 표현은 “무한한 인턴”이었습니다. 예를 들어, 콜센터에 들어오는 모든 통화를 듣고 고객이 화가 났는지 알려주는 일은 전문가가 필요한 것이 아니라 10살짜리 아이도 할 수 있는 일입니다. 다만 이전에는 이런 단순하지만 사람의 판단이 필요한 일을 자동화할 수 없었습니다. 머신러닝은 바로 이런 ‘포유류 두뇌가 필요한 일’을 자동화할 수 있게 해주었습니다.

1995년으로 돌아가 인터넷이 처음 생기며 변화한 것들에 LLM을 도입해볼까요? 이 기술로 인해 특정 종류의 콘텐츠 생성이 사실상 무료가 된다면 어떤 변화가 생길까요? 번역이 거의 완벽하고 무료가 된다면 과학, 대중문화, 웹의 특성은 어떻게 바뀔까요? 거시경제학적 관점에서는 노동 생산성이 낮고 반복적인 작업이 많은 산업들이 이제 대규모로 자동화될 가능성이 있습니다.

지금까지 LLM은 소프트웨어 개발(GitHub의 Copilot 등이 20-30%의 효율성 향상을 보고하고 있습니다), 마케팅 콘텐츠 생성 (유사한 수준으로 효율성이 높아졌습니다), 고객지원(오류 관리가 중요하지만, 활발하게 도입되는 중입니다) 측면에서 뛰어난 유즈케이스를 만들어내고 있습니다. 그리고 미국 내 고용된 사람들 중 일부 분야에서는 약 20%가 이미 생성형 AI를 업무에 활용하고 있습니다. 반면 법률과 같이 정확성이 중요한 분야에서는 도입이 상대적으로 더딥니다.

이를 역사적 사례와 비교해보면 흥미롭습니다. 1970년대 VisiCalc(최초의 성공적인 스프레드시트 소프트웨어)이 등장했을 때, 회계사들에게는 20시간 걸리던 작업을 15분으로 단축시켜주는 혁명적인 도구였습니다. 이 회사의 창업자는 회계사들이 한 달 프로젝트를 2-3일 만에 끝내고 3주 동안 골프를 치다가 “이제 끝났습니다”라고 보고했다는 재미있는 일화를 들려주곤 했습니다.

그러나 같은 기술을 본 변호사들의 반응은 달랐습니다. “그것은 정말 똑똑하군요. 우리 회계사에게 보여줘야겠네요. 하지만 저는 그런 용도가 없어요.” ChatGPT를 처음 접하는 많은 사람들의 반응도 이와 비슷합니다. “멋지지만, 내 일상 업무와는 관련이 없어 보인다”는 것입니다.

3. 어떻게 이를 배포할 것인가?

스티브 잡스는 “고객 경험에서 시작하여 기술로 거슬러 올라가야 한다”고 말했습니다. 그러나 현재 AI 도입의 가장 큰 역설은 우리가 정반대 방향으로 움직이고 있다는 것입니다. 기술이 먼저 주어졌고, 사용자들에게 “이걸 어떻게 활용할지 스스로 알아내라”고 요구하고 있습니다. 이는 일반적인 혁신 과정과는 반대되는 접근법입니다.

새로운 기술이 도입될 때는 일반적으로 세 단계의 과정을 거칩니다:

  1. 통합(Absorb): 먼저 기존 비즈니스나 제품에 새로운 기능으로 추가합니다. 현재 대부분의 기업들은 이 단계에 있으며, 이미 하고 있는 일을 자동화하거나 “이메일을 다시 작성해줘”, “리뷰를 요약해줘”와 같은 기능을 추가하는 수준입니다.
  2. 혁신(Innovate): 시간이 지나면서 비즈니스 방식이 변화하고, 새로운 제품과 아이디어가 등장합니다. 스타트업들은 기존 서비스에서 특정 기능을 분리(언번들링)하여 활용합니다. “500개의 재무 보고서를 분석하고 요약해줘”와 같은 새로운 도구가 생겨나고, SaaS 기업들은 SAP, 구글, 오라클 등에서 워크플로우를 분리해 자동화합니다.
  3. 시장 재정의(Redefine markets): 가끔 완전히 새로운 접근법이 등장해 시장의 개념 자체를 바꿉니다. Airbnb가 “호텔”의 의미를 재정의한 것처럼, AI도 특정 산업의 기본 개념을 바꿀 수 있습니다. 이는 예측하기 어려우며 “집을 한 채 사줘”와 같은 범용 AI 시나리오가 이에 해당할 수 있습니다.

그러나 현실에서는 혁명적인 AI 기술을 기업들이 여전히 구시대적 의사결정 프레임워크로 접근하고 있습니다. 질문들은 여전히 낡은 패러다임에 갇혀 있습니다: Accenture를 불러서 기술을 구현할 프로젝트인지, McKinsey를 불러야 할 전략적 질문인가? 개발조직 수준의 문제인가, CEO 수준의 문제인가? 매출 증대를 위한 것인가, 비용 절감을 위한 것인가? 기업들은 여전히 “구매 or 직접 개발” “단일 or 다수의 공급 업체” “누구의 예산으로?” “어떻게 회계처리할까?”와 같은 전통적인 질문들만 던지고 있습니다.

Accenture가 분기당 10억 달러의 생성형 AI 관련 매출을 보고하고 있다는 사실은 의미심장합니다. 이는 기업들이 AI를 그저 또 하나의 대형 IT 프로젝트처럼 접근하고 있음을 보여주는 증거입니다. 산업을 근본적으로 변화시킬 잠재력이 있는 기술을 우리는 기존의 비즈니스 및 기술 도입 프레임워크라는 좁은 틀에 가두고 있는 것입니다.

AI 도입 속도는 예상보다 느릴 것입니다. 이바닥에 관심있는 사람들에게 클라우드는 이미 오래되고 지루한 주제로 여겨질 수 있지만, 실제 대기업에서는 클라우드가 여전히 전체 워크플로우의 25-33%에 불과합니다. CIO들은 언제나 “3년 안에 클라우드 사용을 두 배로 늘리겠다”고 희망하지만, 실제로는 그렇게 되지 않는 경우가 많습니다. 생성형 AI도 비슷한 패턴을 보일 것으로 예상됩니다. CIO 중 약 1/4만이 올해 말까지 무언가를 배포할 계획이며, 다른 1/4은 2026년 이후에나 도입할 계획입니다. 절반은 내년에도 아무런 계획이 없습니다.

Netscape의 창업자 Jim Barksdale는 “돈을 버는 두 가지 방법이 있다. 묶거나(bundle), 풀거나(unbundle)”라는 명언을 남겼습니다. LLM을 통한 진정한 혁신은 기존 시스템에 AI를 ‘추가’하는 것이 아니라, 산업과 비즈니스 프로세스를 근본적으로 재구성하는 데서 나올 것입니다. 그러나 대부분의 기업들은 아직 이런 근본적인 재구성을 준비하지 못하고 있습니다.

AI 최대주의 vs. 최소주의: 두 가지 미래

그렇다면 다시 첫 번째 질문으로 돌아가서 생각해봅시다. “이 기술이 계속 확장될까, 아닐까?” 이 질문의 답에 따라 두 가지 미래 시나리오가 그려집니다:

AI 최대주의 비전:

만약 LLM이 계속 확장되고 능력이 향상된다면, LLM이 “전체 시스템”이 되어 다른 모든 것을 API로 만들 수 있습니다. 소프트웨어로 처리할 수 있는 작업은 더 많아지지만, 별도의 앱이나 회사, 제품은 오히려 줄어들 수 있습니다. 극단적인 경우, 사용자는 ChatGPT-7에게 “싱가포르로 이사하려는데 집을 사고 비자를 처리해줘”라고 요청할 수 있게 될지도 모릅니다.

AI 최소주의 비전:

반면, 현재 수준이 한계라면 LLM은 단지 또 하나의 API 호출, 즉 소프트웨어의 구성 요소 중 하나가 될 것입니다. 여전히 전통적인 소프트웨어를 구축하고, 그 안에서 특정 기능을 위해 LLM을 활용하게 될 것입니다. 스토리지, 계산, 이미지 인식과 마찬가지로, LLM은 개발자가 사용하는 도구 중 하나일 뿐입니다.

아직 시장은 최대주의 비전에 베팅하지 못하고 있는것 같습니다. 스티브 잡스는 “고객이 무엇을 원하는지 알아내는 것은 고객의 일이 아니다”라고 말했는데, 지금 AI 도입은 정확히 이 문제에 빠져있습니다. 기존에는 스타트업이 새로운 기술의 활용법을 발견해왔는데, LLM은 일반 사용자들이 스스로 활용법을 발견하기를 요구받고 있습니다.

Y Combinator가 투자하는 수천개의 AI 스타트업을 관찰해봐도, 시장은 AI 최소주의 비전에 베팅하고 있는 것으로 보입니다. 특정 산업이나 문제에 특화된 AI 솔루션을 개발하는 스타트업들이 계속 등장하고 있다는 사실은 의미심장합니다. 만약 진정으로 ChatGPT가 모든 것을 할 수 있게 된다면, 이렇게 특화된 AI 회사들이 필요 없을 것이기 때문이죠.

결국은 “그냥 소프트웨어”가 될 것

Apple이 AI 기반 글쓰기 도구를 내놓았는데, 이건 기존의 맞춤법 검사기와 크게 다르지도 않네요. AI도 일반적인 기술과 동일한 발전 패턴을 따르게 될 것입니다.

이런 기능은 보통의 신기술 발전 단계를 따라갈 것입니다. 처음에는 놀랍고 흥미로운 신기술로 인식되고, 그 다음에는 단지 똑똑한 기능으로 발전할것입니다. 아마도 스마트 제안, 스마트 포맷팅 같은 기능이 나오겠죠. 그 이후에는 자동화의 단계로 접어듭니다. 알아서 내용을 수정해주고, 글의 목적에 맞게 서식을 수정해주는 방향으로요. 그 다음에는 그냥 소프트웨어가 됩니다. 누구에게나 익숙해지고 원래 있던것처럼 보이는 기능이 되죠.

AI의 발전도 이 사이클을 따라갈 것입니다. 처음에는 이메일 작성, 리뷰 요약, 추천 같은 기존 제품의 새로운 기능으로 시작해서, 전에 없던 완전히 새로운 도구와 능력을 제공하는 기능이 나올 것이고, 나중에는 좀 극단적이긴 하지만, “ChatGPT-7에게 싱가폴의 집을 사고 비자를 처리해달라고 요청하면 알아서 해결해주는” 수준의 자동화로까지 나아가겠죠.

10년 전만 해도 이미지 인식이 최첨단 AI였지만, 지금은 그저 소프트웨어일 뿐입니다. 음성 인식, 패턴 인식도 마찬가지입니다. 대형 언어 모델도 결국은 그저 소프트웨어가 될 것입니다. 미국의 엘리베이터 안내원 고용 통계를 보면, 처음에는 엘리베이터가 많아져서 안내원이 증가했지만, 자동화된 후에는 필요가 없어졌습니다. 마지막으로 자동 엘리베이터를 사용하면서 “오늘 AI 엘리베이터를 사용하고 있어”라고 생각한 적이 있나요? 아니면 그저 엘리베이터였을 뿐인가요? 결국 AI도 그렇게 될 것입니다.

AI에 대한 모든 질문에 대한 두 가지 대답

그동안 AI와 관련해 수많은 질문을 받았습니다. 그리고 생성형 AI에 대한 모든 질문은 아래 두 가지 답변으로 이어집니다.

  1. “모든 플랫폼 변화와 마찬가지로 작동할 것이다”
  2. “아무도 모른다”

“AI 모델을 구글에게 구매해야 할까요? 구글이 이 시장을 다 가져가게 될까요? 인공지능을 위한 국가적인 전략을 만들어야 할까요?” 이런 질문에는 “지금까지 모든 플랫폼이 발전해온 것과 같은 길을 갈 것입니다”라는 답변을 해드릴 수 있습니다. AI도 결국은 또 하나의 플랫폼 시프트니까요.

반면, “모델이 얼마나 확장될까요? 오류율은 어떻게 될까요? 데이터가 충분할까요? 에너지는 얼마나 필요할까요? 모델이 스스로 계속 학습할 수 있을까요?” 이런 과학적 질문들에 대한 답은 “모릅니다. 하지만 다른 누구도 모릅니다.” 입니다. 이런 질문에 대한 답은 아무도 모르며, 몇 년 후에나 결과를 보게 될 것입니다.

어떤 면에서 보면, 기술이 진정으로 성공했을 때는 그것이 “기술”이라는 레이블을 잃고 그저 세상의 일부가 되는 순간입니다. AI도 결국 그런 운명을 맞이할 것입니다.


10년전 Mobile is eating the world 라는 프리젠테이션을 했고, 이바닥이 사랑하는 Ben Evans의 새로운 프리젠테이션과 강연을 요약, 번역했습니다.

영상 : https://www.youtube.com/watch?v=LGDa3pO23Wc
슬라이드 : https://www.ben-evans.com/presentations

번역 : Claude 3.5 Sonnet / 편집: 에디

AI가 세상을 집어삼킨다 (번역)”의 2개의 생각

댓글 남기기

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.