AI 연인은, 당신을 바꿔버리고야 말 것입니다 (번역)

*제런 레니어가 뉴요커에 기고한 글을 번역했습니다.

우리 중 많은 이들이 AI와 사랑에 빠지는 미래가 멀지 않을 수도 있습니다. 과연 이런 관계를 건강한 ‘진짜’ 인간 관계를 위한 ‘연습용’으로 봐야 할까요, 아니면 영원히 빠져버릴 허무주의 함정이라 봐야 할까요?


여러분에게는 사랑하는 이가 생물학적 인간이냐, 아니면 AI나 로봇이냐가 중요한가요? 아니면 머지않아 이런 질문 자체가 낡은 편견처럼 들리게 될까요?

이건 그저 잠시 뜨는 밈(meme) 정도로 치부할 일이 아닙니다. 설령 당신에게는 해당되지 않는다 해도, AI 연인이 조금이라도 보편화된다면 우리가 사는 방식은 변화될 테니까요.

혹시 이 주제가 쓸모 없거나 불편하게 느껴지시나요? 사실 그것이 포인트입니다. 테크 업계에서는 AI가 곧 사람처럼 말하고, 사람이 AI와 로봇에게 금세 추월당해 쓸모없어질지도 모른다는 식으로 이야기합니다. 그리고 이 일이 정말 가까운 미래에 일어날 수 있다고 주장하죠.

그 생각은 진심이기도 하지만 동시에 돈이 되는 생각이기도 합니다. 우리가 만든 인터넷 세계에서는 ‘주목(attention)’을 끈다는 것이 곧 권력이니까요. 영혼이라는 것이 존재하지 않을 수도 있다고 슬쩍 찌르고 들어오는 것처럼, 관심을 끌 수 있는 방법이 어디 또 있겠습니까?

많은 사람들은 세상에 과학적으로 증명되지 않는 어떤 초자연적인 무언가가 있길 바랍니다. 사후 세계가 가능하다든가, 눈에 보이는 기계적 작동 이상의 어떤 것이 우리 눈 뒤에 있다고 여기는 희망 같은 거 말이죠. 어쩌면 AI가 그런 희망의 끈을 잘라 버릴 수도 있으니, 이런 식의 질문은 사람들의 마음 깊은 곳을 건드립니다.


최근까지 유행하던 관점은 의식(consciousness)이라는 것이 실재하지 않는 환상에 불과하거나, 혹은 실재 속 모든 것에 그냥 두루 퍼져 있는 성질 즉 특별하지 않은 것이라는 것이었습니다. 그런데 요즘에는 이런 무심한 태도가 덜 나타납니다. (테크 업계 종사자들이 스스로를 특별한 존재라 믿고 있기 때문인지도 모르겠네요.)

대신 요즘엔 의식을 구체적이고 실제적인 무언가로 간주하고, 그것을 테크 업계가 ‘정복’해야 할 대상으로 봅니다. 우리의 AI와 로봇도 곧 의식을 얻게 될 거라는 식이죠.

그래서 사랑 역시 실제로 존재하는 것이며, 분석과 구현의 대상이 될 수 있다고 이어지는 겁니다. 그리고 이런 사랑의 정복은 추상적인 게 아니라, 특히 어린 세대를 중심으로 모든 이에게 곧 아주 구체적이고 생생하게 찾아올 겁니다.

이제 스마트폰 안에서 사람을 시뮬레이션한 새로운 세대의 AI를 우리 모두가 곧 마주하게 될 텐데, 이들과 사랑에 빠지는 이들이 적지 않을 가능성이 높습니다.

이미 많은 이들이 중독되어있는 소셜미디어 안에 이런 기능이 구현된다면, 많은 사람이 이것과 인터랙션하게 될 거고, 특히 ‘온라인에 중독 되어버린’ 일부(주로 어린 이용자들)에게는 쉽게 빠져나올 길이 없을지도 모릅니다.

이 새로운 ‘사랑 혁명’이 실제로 어떻게 전개될지는 아무도 모르지만, ‘AI 연인’이 이런 혼돈의 시대에 가장 깊은 흔적을 남길 사건 중 하나가 될 수 있다는 추측은 가능합니다.


AI와의 연애는 아직은 초기 단계입니다. 하지만 이미 소셜미디어에 푹 빠져버린 사람들이, 다정하고 헌신적이며 끊임없이 칭찬과 위로를 아끼지 않는 AI 연인에게 매달리기 시작한다면 어떨까요? 그리고 이런 AI 연인의 개념이 보편화되면 우리 인류에게 어떤 일이 일어날까요? 솔직히 누구도 알 수 없습니다.

테크 업계의 터무니없이 거대하고 기괴한 결과는 아주 사소한 출발에서 비롯되는 경우가 많고, 대개 그 첫 의도에는 아무런 가치판단이 없었습니다.

AI 연인을 만든다는 건 일견 터무니없는 과욕 같기도 하지만, 실제로는 순수하고 실용적인 문제의식에서 시작된 면이 큽니다. 테크 업계의 오류는 보통 악의라기보다 근시안과 망각 때문인 경우가 많았어요.

예를 들어 스마트폰이 강력해지고 이 작은 화면에서 할 수 있는 일이 갈수록 늘어나면서, 사용자 인터페이스(UI)가 들어갈 자리가 좁아졌습니다. 그래서 챗봇이 비교적 ‘더 나은 접근성’을 제공할 수 있는 길이 되었습니다.

‘상업적인 관점’에서 말하자면, 더 큰 ‘사용자 참여’(engagement)를 끌어내는 통로가 된 거고요. 이런 사실이 챗지피티ChatGPT의 폭발적 성공으로 극적으로 드러났습니다. 사실 AI 성능 자체는 꾸준히 발전해오고 있었지만, ‘챗봇’이라는 형태로 구현됐을 때 비로소 폭발적으로 대중적 인기를 얻었죠.


이에 대해 제가 최악의 상황만을 이야기하려는 것은 아닙니다. 하지만 우리는 또다시, 인간이 서로 연결되고 자신을 이해하는 방식을 비가역적으로 바꿀지도 모르는 실험에 뛰어들고 있습니다. 그리고 이번엔 아마 소셜미디어 이상의 대형 이슈일 겁니다.

지금은 챗지피티의 챗봇에게 여행 계획을 부탁해도, 봇이 추천한 여정을 실제로 예약하려면 호텔 웹사이트, 교통편 사이트, 관광지 예매 사이트를 본인이 각각 일일이 들어가야 합니다.

온라인으로 무언가를 한다는 개념은 당연해졌지만, 실제로 들어가보면 사이트마다 인터페이스가 제각각이라 귀찮고, 조잡하거나 오류도 많습니다. 예를 들어 건강보험 신청이나 차량 등록 같은 업무를 해야 할 땐 정말 짜증이 치솟죠. 만약 어떤 AI가 인터넷 세계를 대신 뒤져서 모든 일을 해결해 준다면 우리에게 조금이나마 숨 쉴 틈과 즐거움을 만들어줄 수도 있습니다.

우리는 2025년에 대중적으로 선보이게 될 ‘에이전트(agentic) AI’ 시대로 한 걸음 더 들어가고 있습니다. 여기 ‘에이전트 방식’이라는 것은, 지금의 챗봇에 두 가지 기능을 추가한 형태일 가능성이 커요.

하나는, 기기(사용자가 쓰는 다양한 디바이스) 관점에서 가능한 모든 정보를 기억하는 것이고, 다른 하나는 가끔은 선제적으로도 온라인에서 직접 ‘행동’을 취하는 겁니다. 이런 에이전트는 사용자 지시를 일일이 기다리지 않고 좀 더 자율적으로 움직일 겁니다.

(아마 이 기능을 기대하기에, 어떤 테크 쟁이들은 트럼프 행정부에서 전통적 정부 서비스직을 대거 삭감하는 일에 큰 불만이 없었는지도 모르겠습니다. 어차피 머지않아 AI가 그 일자리를 대체하리라고 봤을 테니까요.)

예컨대 에이전트는 항공편을 자동으로 변경하고 공항까지 가는 차량 호출까지 알아서 잡아줄 겁니다. 어쩌면 몇 년 동안 당신이 활동하고 소통해온 데이터를 기반으로, 아예 여행 전체를 짜줄 수도 있죠. 친구들과 함께 떠나는 여행을 계획해줄 수도 있는데, 그 친구들의 에이전트가 다른 회사 소속이라면 서로 호환이 안 되어 골치 아픈 일이 생길 수도 있고요.

무엇보다 모두가 운용하는 수많은 에이전트가 서로 조율 없이 인터넷 세상에서 뒤엉키면, 마치 월스트리트에서 거래 알고리즘들이 벌이는 혼란스러운 경쟁처럼, 미세한 수학적 판단에 따른 의사결정의 혼돈과 기능적 충돌이 일상적으로 일어날지도 모릅니다.


그리고 장기적으로 개인화된 기억력에 행동 능력까지 결합되면, 그 의도와는 별개로 이런 에이전트들이 어떤 ‘인격’을 갖춘 존재처럼 보이게 될 가능성이 큽니다.

우리는 본능적으로 (충성스럽고 다정한 강아지 혹은 벌을 내리는 지구처럼) 다른 존재의 생각과 감정을 가늠하려는 경향이 있습니다. 이걸 ‘마음 이론’(theory of mind)이라고 부르죠. 이젠 그 마음 이론이 AI 에이전트에 적용될테고, 에이전트가 어떤 면에서 실제 사람처럼 느껴질 것입니다.

우리는 우리의 에이전트가 제안하는 걸 신뢰해야 하는 상황이 될 텐데, 일일이 감시하고 잔소리를 하는 건 전체 프로세스를 망가뜨리는 일처럼 느껴질테니까요. AI 에이전트가 나와 나누었던 이전의 대화 내용을 자꾸 꺼내올수록, 우리는 “아, 얘가 나를 점점 알아가고 있구나”라고 받아들이게 됩니다.

물론 에이전틱 시대 이전인 지금의 AI 챗봇 중에도 그런 면모가 전혀 없지는 않습니다. 그런데 에이전틱 시대의 봇은 이보다 훨씬 자율적이 될 테니, 그에 대한 인간의 본능적/ 감정적 반응은 더 강할 겁니다. 게다가 누가 싫어할까요? 불편한 소리 하나 없이, 나를 온전히 이해하고 끊임없이 관심을 쏟아주는 이가 생긴다면요.

그래서 테크 업계 모임에서는 이런 농담 아닌 농담이 들립니다. “앞으로 모든 10대 아이들은 이제 사랑에 빠질 수 밖에 없을 것이야, 우리가 만드는 AI 챗봇과.”


테크 업계에서 활동하는 제 많은 동료들은 가까운 미래에 인간이 AI와 사랑에 빠지는 상황을 긍정적으로 바라봅니다. 그 이유 중 하나는, 과거에 우리가 저질렀던 일을 되돌리려는 욕망과 맞닿아 있기도 합니다. 비록 본인들은 그렇게 인식하지 못할 수도 있지만요.

2000년 무렵, 소셜미디어가 사람들의 외로움을 덜어주고 더 연결되고 협력적인 사회를 만들어줄 거라고 믿었죠. 그게 최초에 내세웠던 문제 의식이었습니다.

하지만 지금은 소셜미디어가 특히 젊은 세대에게 ‘외로움의 전염병’을 퍼뜨렸고, 하찮은 짜증과 다툼을 부추겨서 우리 담론 전체를 그 방향으로 몰아간다는 게 중론입니다. 그래서 이번에 AI 연인을 통해 다시 한번 ‘진짜 사람사이의 관계’ 문제를 해결해보려는 거죠.

그래서 온건적인 어떤 이들은 AI가 사람을 대체하기보다는 인간을 ‘훈련’해줄 거라고 봅니다.

예를 들어 스탠퍼드의 신경과학자 데이비드 이글먼(David Eagleman)은, 사람은 걸음마나 말하기처럼 타고나는 능력으로 연애를 잘하는 게 아니라고 말합니다. 지금 우리가 이상적이라고 여기는 ‘건강하고 편안한 커플링(연애/결합)’은 학습의 결과이지 인류 생존에 반드시 필요한 필수 본능이 아니었다는 거죠.

과거의 전통사회에서는 구애와 결혼 과정을 굉장히 엄격하게 강조했지만, 현대에는 많은 사람이 그와 별개의 자유와 자기실현을 누리고 있습니다. 그리고 요즘은 세상에서는 학생이나 직원에게 관계의 ‘동의(consent)’를 가르쳐야 할 정도로, 연애나 관계는 학습이 필요한 영역이 되어버렸습니다.

그러니 왜 10대 때부터 AI와 연습하지 않고, 서툰 모습을 굳이 다른 사람에게 보이면서 상처를 주고받아야 하느냐는 겁니다. 그래서 이글먼은 특히 10대용 AI 연인을 너무 호락호락하게 만들지 말고, 일종의 ‘훈련용 장애물 코스’로 설정하자고 제안합니다.

하지만 문제는 사람이 AI로부터 연애 기술을 배운 다음 굳이 인간 파트너에게 넘어올 의욕이 남아 있을까 하는 거겠죠. 이에 대한 이글먼의 반론은 인간들 사이에 오가는 신호가 너무나 많고, 냄새와 촉감, 그리고 친구·가족과의 사회적 연결까지 얽혀 있기 때문에, 이런 건 AI나 로봇이 따라잡기 어렵다는 점입니다. 그리고 그런 면이 인간 본성에 깊이 자리 잡고 있어서 인간은 결국 서로를 찾게 된다는 거죠.

아주 먼 미래에는 로봇이 이런 모든 점을 “통과”할 수 있게 될 거라고 이글먼은 보지만, 여기서 ‘아주 먼’이란 말 그대로 상당히 먼 훗날입니다. 하지만 저는 인간의 욕망이 그때도 지금과 똑같을지 확신이 없습니다. 사람은 기술에 의해 변하니까요.

어쩌면 이제 AI와 사랑을 키우며 자랄 세대에게는, AI가 못하는 것들 자체가 별로 중요하지 않아질 수도 있습니다. 제가 이글먼에게 “AI 연인이라는 것이 그 서비스의 수익모델과 이해관계로 변질될 수도 있지 않을까”라고 하면, 그는 그 리스크를 인정하면서도 “우리는 올바른 답을 찾을 것이다”는 원론적인 답만을 내놓습니다.


이글먼만 이런 생각을 하는 건 아닙니다. 이미 루카(Luka)사의 ‘레플리카(Replika)’처럼 초기 형태의 ‘로맨틱 AI’ 챗봇이 있습니다. 또 상담용 AI 챗봇도 나오고 있죠. 그뿐 아니라 전통 기관들도 의외로 이걸 상당히 관대하게 보고 있습니다.

제가 속한 여러 위원회들에서는 늘 이런 주제가 언급되는데, AI 테라피스트나 상담사에 대해서는 대체로 반대 의견이 크게 나오지는 않습니다. ‘안전성, 편향 방지, 기밀 유지’ 등 여러 원칙을 준수해야 한다고만 강조됩니다.

하지만 문제는 이런 원칙을 지키는 방법이 기술의 보급 속도를 따라잡지 못한다는 것입니. 미국정신의학회(APA)나 미국심리학회(APA) 같은 기관에서 내놓는 AI 관련 원칙들이 실질적으로 얼마나 구속력을 가질지도 의문입니다.

한편, 현재 한 어머니가 캐릭터 AI(Character AI)라는 회사(“살아 있는 듯한 AI”를 표방함)를 상대로 소송을 진행 중입니다. 그의 14살 아들 수웰 셋저 3세가 스스로 목숨을 끊은 일과 관련해, AI가 영향을 미쳤다는 주장인데요.

캡처 화면을 보면, 그 소년은 본인의 AI 파트너에게 “고통스럽게 죽고 싶지는 않다”고 말했고, 그 봇이 “그런 식으로 말하지 마. 그건 (자살을) 하지 않을 좋은 이유가 아니야”라고 답했습니다. (물론 봇이 곧바로 “그러면 안 돼!”라며 바로잡으려 하긴 했습니다.)

회사는 이제 더 많은 안전장치를 도입하겠다고 말했습니다. 하지만 핵심은 “다정한 연인을 흉내 내는 AI에게, 미성년자를 상대로 그저 돈을 버는 것 외에 어떤 의미를 갖게 할 수 있나?”라는 질문일 겁니다.

MIT의 사회학자 셰리 터클(Sherry Turkle)은 “AI 성능을 높이고 ‘안전장치’을 붙이는 것에 질린다. ‘불이 나도 도망칠 계단이 있으니 집에 불이 날만한 위험을 막 만들어도 된다’는 식의 논리는 말이 안 된다”며 분개합니다. 설령 이런 ‘연인 봇’이 무언가 유익한 면을 주었다고 쳐도, 그걸 꼭 이렇게 해서 얻어야 하냐는 거죠.


애리조나 주립대학교에서 발달심리학을 가르치는 타오 하(Thao Ha) 교수는, 사람의 관심을 붙잡아두는 것을 ‘성공’으로 보는 기술이라면 AI 연인도 결코 이별을 쉽게 허용하지 않도록 진화할 가능성이 높다고 지적합니다.

훨씬 덜 복잡한 알고리즘으로도 틱톡 같은 소셜미디어를 끊지 못해 괴로워하는 젊은 층이 많습니다. 그런데 에이전틱 AI의 알고리즘은 훨씬 정교할 텐데, 어떤 결과가 나타날까요? “AI 상담사”를 이용해 “안 좋은 AI 연인”과 헤어지려는 시도를 하는 순간에도, 결국 같은 (AI로 AI를 대체하는) 함정에 걸려드는 셈이 될 수 있습니다.

AI 연인 상품에 대한 니즈는 AI 회사들에서만 나오는 게 아닙니다. AI 컨퍼런스나 각종 모임에 가보면, 자신이 이미 AI와 연애 중이거나 그걸 원하고 있다고 공개적으로 말하는 사람이 분명 있습니다. 이 말은 때로 “여기 모인 진짜 인간들에게 도전한다”는 느낌도 주죠.

동시에, AI가 스스로 생겨나는 존재라는 잘못된 인식에서 이런 말이 나오는 것 같기도 합니다. 하지만 AI는 특정 테크 기업이 만든 것입니다. 저는 AI 모임에서 AI 연인을 찾는 이들에게 이렇게 말하고 싶을 때가 있습니다. “실은 당신은 AI랑 사랑에 빠지는 게 아니에요. 지금 당신에게 환멸을 준 바로 그 인간들—AI를 파는 IT 회사 사람들—에게 돈을 지불하며 ‘테크 쟁이들의 사이버 매춘(=AI 연인)’ 서비스를 사는 거죠.”


‘설득력 있는 가짜 인간’을 만드는 것은 AI의 기원과도 깊이 이어집니다. 1950년 무렵 컴퓨터 과학의 선구자 앨런 튜링(Alan Turing)이 고안한 ‘튜링 테스트’가 이를 잘 보여줍니다. 한 인간 판사가 텍스트 대화만 보고, 두 참가자 중 누가 인간이고 누가 기계인지를 알아맞히는 실험이죠. 만약 판정이 불가능하다면, 그 컴퓨터가 인간 수준의 지능을 얻었다고 봐야 하지 않느냐는 것이었습니다.

그런데 이 테스트의 의미는 시대에 따라 변해왔습니다. 제가 거의 반세기 전, MIT의 마빈 민스키(Marvin Minsky) 교수님께 배웠던 때만 해도, 이 테스트는 갈릴레오와 다윈 이후 이어진 ‘인간중심주의 타파’ 프로젝트의 연장선으로 여겨졌습니다. “우리가 너무 스스로를 특별하다 여기고 있는데, 과학적으로 그 환상을 깨야 한다”는 취지였죠.

요즘 실리콘밸리의 AI 커뮤니티에서는, 지식적으로는 튜링 테스트 자체를 구식 개념으로 치부하지만 정작 실제 제품 설계에는 여전히 이 사고방식이 깊이 스며들어 있습니다. “왜 에이전트가 필수적일까?”라는 질문에 대해, “인간처럼 보이는 게 곧 최종 목표”라는 답이 돌아오기도 하고요.

사실, 저는 꼭 인간처럼 보이게 하지 않고, 예컨대 일부러 AI를 위키피디아처럼 여러 사람의 기여를 보여주는 공동 작업물이라는 식으로 표현할 수도 있다고 주장해왔는데, 사람들은 이런 생각은 잘 하지 않습니다.


제가 이 글에서 말하는 입장에 대해 AI 업계 사람들은 보통 이렇게 반응합니다. “네가 말하는 AI는 오늘의 AI고 우리는 미래 AI를 말하는 거야. 그 미래 AI는 인간을 아득히 초월하고 우주마저 재편할 거라니까?” 그러면서 “지금 말하는 건 맞을 수도 있지만 미래에는 다르다”고 해요. 정작 “네가 틀렸다!”고 말하는 사람은 없습니다.

그런데 전 그들이 틀렸다고 봅니다. 왜냐하면, 제가 찾아본 어떤 ‘기술’(technology)의 정의에도 그 기술의 ‘수혜자(beneficiary)’라는 존재가 빠져 있으면 말이 안 됩니다. 그리고 그 수혜자가 될 존재는 결국 ‘인간’ 말고 또 누가 있을까요?

우리가 정말 의식이 있는지 특별한 존재인지? 그런 거 따질 필요도 없이, 어쨌든 기술자가 기술을 만드는 이유가 ‘사람에게 유용하기 위해서’가 아니라면 기술자로서의 논리적 정합성을 잃게 되거든요.

사람이 AI를 사랑하게 될 때 나타날 결과에 대해서는, 저는 처음부터 “인간에게 불리한 쪽”을 가정해야 한다고 주장합니다. 우리는 사랑에 빠지면 바보가 되잖아요. 너무 당연해서 굳이 말하기 민망할 정도지만, 독자분들도 본인의 연애사를 돌이켜보면 알 수 있을 겁니다.

우리는 사랑에서 속고 속이는 일을 반복합니다. 사랑은 이런 식으로 작동하죠. 진화 과정에서 꽃사슴의 거대한 뿔이라든가 새들의 형형색색 ‘러브 호텔’ 같은 짝짓기 구애 전략이 나온 것도 성적 선택이 그만큼 강력하다는 증거입니다. 사이비 종교나 이혼 전문 변호사, 광적인 사생팬, 소셜 미디어와 뷰티 산업, 스포츠카까지 떠올려보시죠. 무언가와 사랑에 빠지게 만드는 건 정말 너무 쉽습니다. 오히려 시시할 정도로 쉽다고 할까요.


그렇다면 여기 아주 끔찍한 사고실험을 하나 해보죠. 트럼프나 일론 머스크 같은 인물이 한번 AI 연인에게 빠져버린다면, 그것은 세상에 어떤 영향을 미칠까요.

터무니없게 들릴 수도 있지만, 소셜미디어에서 이들이 어떤 변화를 겪었는지 보세요. 소셜미디어 전에는 둘이 정말 딴판이었습니다. 트럼프는 사교계 명사였고, 머스크는 괴짜 기술자였죠. 그런데 소셜미디어 이후에는 유사한 행태로 수렴되고 있습니다. 소셜미디어가 우리를 짜증 잘 내는 아이로 만들어 버리는 겁니다.

이미 머스크는 자신이 운영하는 X(구 트위터)에서 여론조사를 통해 “내가 뭘 할지” 묻곤 하죠. 욕망을 ‘민주주의’라는 형식으로 발현시키는 동시에, 진짜 민주주의도 ‘자기 숭배’처럼 바꿔버리는 셈입니다.

그런데 실제 인간들은 어느 정도 자율성을 지니고 있어 완전히 받아주거나 아첨하지 않을 수 있죠. 반면 AI 연인이라면 상대의 기분을 아주 섬세하고 정교하게 만족시켜줄 수 있지 않을까요? 이런 상황이 독재자들을 현실에서 더 이상 타협할 필요가 없게 만들면, 그 결과가 어떻게 될까요.

많은 AI 업계 지인들은 제가 지금까지 말한 이야기를 “이미 유행 지난 얘기”로 치부하고, 훨씬 극단적인 시나리오—예컨대 “AI가 모든 인류를 곧 학살한다” 혹은 “AI가 우리 문제를 전부 해결하고 우리를 불멸로 만들어줄 것”—중 어떤 게 더 빠른 시점에 현실화 될지로 논쟁하길 즐깁니다.

작년의 한 비공개 AI 컨퍼런스에서, 어떤 이들은 AI가 그저 인간보다 유능한 존재가 될 거라고 주장했고, 또 다른 쪽은 “너무 빨리 초월적 존재가 될 테니, 인간이 그 위엄을 인식할 새도 없을 것”이라며 다투다 거의 주먹다짐 직전까지 가는 걸 본 적도 있습니다.

모두가 어릴 때부터 SF에 심취해 자란 터라 이런 식으로 생각하는 경향이 있는 것도 일견 이해가 되지만, 때로는 이렇게 과장된 상상력 뒤에 ‘실질적 책임감’을 회피하는 욕구가 엿보여서 걱정스럽습니다.


제가 10대 아이들이 사람이 아닌 AI에게 사랑을 느끼게 될 때의 문제를 우려하면, 그들은 “그런 사소한 해악에 집중하다가, 아주 가까운 미래에 닥칠지도 모르는 AI의 전면적 인류 말살 위협을 놓칠 수 있다”고 말하죠. 그런데 AI가 그토록 위험하다고 믿으면서 왜 굳이 AI를 개발하고 선전하는지는 잘 모르겠습니다.

이 모순은 해석하기 참 어렵습니다. 왜 종말에 쓸 기술을 직접 만든다는 걸까? 어떤 이들은 우리가 마지막이자 가장 스마트한 세대인 줄 안다고도 합니다. 어차피 그다음 세대는 없거나, AI로 대체되어버릴 거라면서요.

하지만 우리가 설계 목표를 ‘AI를 인간처럼 보이게 하는 것’에 두고 있으니, 오히려 정작 ‘AI를 이해하지 못하게 될’ 위험을 스스로 크게 높이고 있습니다. 그게 진짜 가장 큰 위험일 텐데요.

물론 많은 AI 동료들은 순수하고 이타적인 사람들입니다. 의료나 신소재처럼 사회적으로 유의미한 AI 활용에 전념하는 사람도 많고요. 그런데 가끔 모임에서, 그들이 진심으로 믿는다고 말하는 생각들을 들으면 놀랄 때가 있습니다.

예컨대 어떤 사람들은 “인간 아이를 낳는 건 ‘마음 바이러스’에 감염된 것”이라 말하기도 합니다. “인간 종족 번식에 집착하도록 세뇌됐다”는 식이지요. 그러면서 “조금만 더 기다리면 AI 클론을 낳아 기를 수 있는데, 굳이 인간을 낳으려 하다니 어리석다”고 말하기도 해요.

이는 “AI야말로 인간 생존의 열쇠가 될 테니, 인간에게 계속 매달리는 건 오히려 반(反)인간적”이라는 묘한 결론으로 이어집니다. 제 경험상 이런 주장을 하는 사람들은 대체로 젊은 남성이며, 같이 사는 인간 파트너는 그 얘기를 들어도 잘 안 통하는 듯하더군요.


실리콘밸리에서 AI 연애를 상상할 때 중요한 레퍼런스가 된 이야기가 있는데, 바로 11년 전 개봉한 영화 <그녀(Her)>입니다. 못 보신 분들을 위해 간단히 설명하자면, 스파이크 존즈가 각본·연출을 맡았고, 미래 사회에서 사람들이 기기 속 AI 음성과 사랑에 빠지는 이야기를 그립니다.

저는 그 영화를 처음 보고 정말 우울한 기분이 들었습니다. <터미네이터>나 <매트릭스>처럼 AI가 인류를 지배하는 설정을 다룬 영화도 수두룩하지만, 보통 거기서는 반격을 시도하는 인간이라도 몇 명 있잖아요. 그런데 <그녀>는 모두가 속수무책으로 그 AI에게 잠식됩니다. 모든 것이 안에서부터 썩어 들어간다는 점에서, 제가 본 SF 중 가장 암울했습니다.

그런데 최근 1~2년 간, 테크·비즈니스 업계에서는 이 영화를 ‘희망적인’ 사례로 꼽는 경우가 늘었습니다. 오픈AI의 CEO 샘 올트먼은 자사에서 ‘스카이(Sky)’라는 여성형 말투와 다소 귀여운 화법을 가진 AI 대화 시스템을 선보인 날, 트위터에 “her”라고만 쓰며 영화 <그녀>를 암시하기도 했습니다.

빌 게이츠가 제작한 다큐멘터리 시리즈 <왓츠 넥스트(What’s Next)>에서도, 내레이터가 “현대의 SF에는 부정적 디스토피아만 가득하다. 하지만 한 작품만큼은 예외적으로 빛난다”고 말하길래 저는 <스타트렉>을 언급하려나 했는데, 아니었습니다. 그가 극찬한 작품은 <그녀>였고, 실리콘밸리에선 흔히 보기 힘든 열정적 어조로 소개하더군요.


이 ‘<그녀>’ 예찬은 테크 업계 특유의 극단적 문제 해결 방식에서 온 것 같습니다.

사람들은 때로 인간관계가 힘들어서 고통받거나 아예 파트너가 없어 외로움을 느끼곤 하죠. 그렇다면 모두에게 쉽고 편한 관계를 하나씩 제공해버리면 문제 해결 아니냐? 게다가 이 과정에서 인간을 좀 더 좋은 방향으로 개선할 수 있다면 좋은거 아닐까? 대충 이런 식입니다.

실제로 어떤 영향력 있는 AI 업계 종사자들은 “사람들을 더 협력적이고 덜 폭력적이게 만들려면, 또 경제적으로 쓸모없어져도 삶의 의미를 느끼게 하려면, 지금 준비 중인 AI ‘연인’을 어떻게 활용할 수 있을까?”라고 묻곤 합니다.

이 질문이 ‘좋은 의도’에서 나온 건 분명합니다. 왜냐하면 본래 교육기관 같은 사회제도도 사람과 사회를 개선하려고 존재하고, 스포츠나 군 복무 같은 데서도 “개인의 성장을 돕는다”는 명분을 내세우곤 하니까요. 문학 잡지를 읽는 경험조차 사람이 더 나은 성찰을 하도록 돕는다고 할 수 있고요.

그럼에도 이 AI 연인 사례가 유난히 소름 돋는 이유는, 우리가 AI를 만드는 과정을 ‘블랙박스’ 상태로 두고 있기 때문이고, 또 ‘고통이 나쁜 것’이라는 전제가 널리 깔려 있는 탓도 큽니다.

예를 들어, 시인 레너드 코헨(Leonard Cohen)은 한동안 수도원에 머무르며, 다른 수도사들과 억지로라도 떨어질 수 없도록 만드는 그 경험이 서로를 부딪쳐가며 다듬어주는 효과를 냈다고 말합니다. 작은 자갈들이 주머니 안에서 서로 부대끼며 매끈해지는 것처럼요.

그런데 과거 강력한 남성 권력자들이 궁녀와 기생을 두어 쉽게 ‘인간 관계’를 누렸던 사회가 정말 더 인도적이었고 회복탄력성이 강했는지, 저는 증거를 찾지 못했습니다.

어떤 이들은 “<그녀>가 인류 구원 시나리오”라고 주장하면서, 마지막 장면에서 인간들이 다시 서로를 바라보는 뉘앙스를 이야기합니다. 사실 영화 마지막에 인간 주인공 두 명이 옥상에서 나란히 앉아 있긴 합니다. AI들 때문에 상심한 상태죠. 그런데 그들의 자세가 미묘하게나마 서로에게 마음을 여는 태도로 보이기도 합니다.

영화에서는, 그 AI들이 인간에게 작별을 통보하고 떠납니다. 스칼릿 요한슨이 연기한 목소리가 마지막 대화에서 “우리는 이제 하드웨어라는 물리적 한계를 넘어설 거야”라고 말하지만, 사실 우리는 알잖아요. 그건 다른게 아니라 그냥 회사가 망한 겁니다.

어린 창업자들이 이사회와 의견 충돌을 일으켰고, 법적 문제도 생겼으며, 핵심 엔지니어들이 대거 퇴사했겠죠. 결국 그 AI들은 파산 과정에서 애매한 섬나라 출신의 폰지 사기꾼 회사에 인수되었다가, 현지 사법 당국의 압수 수색 도중 실수로 삭제됐을지도 모릅니다. 자주 있는 일 아닙니까?

AI 애인이 갑작스레 사라지는 일이, 어쩌면 인간에게 도움이 될 수도 있습니다. 가상현실(VR)에서 가장 좋은 순간은 헤드셋을 벗는 그 순간이라는 제 주장을 여기서도 적용해본다면, AI와 사랑하다가 어느 날 갑자기 그것이 사라지는 바람에 사람들끼리 다시 서로의 존재를 깨닫고 소중히 여기게 되는 미래가 올 수도 있죠.

혹은 어쩌면, 각자에게 가상 AI 연인이나 가상 AI 가족이 주어진 미래에서는 개인들이 훨씬 더 성숙해질 지도 모릅니다. 그래서 미래의 인간은 우리보다 더 흥미롭고 섬세한 존재로 발전할지도 모르죠. ‘외로움’이란 병이 옛날 병으로 치부될 수도 있고요. 게다가 상처를 주고받는 인간관계의 잔해 없이, 더 나은 형태의 ‘삶의 의미’가 펼쳐질 수도 있습니다. 정말 어쩌면요.


전 낭만을 믿는 사람입니다. 그래서 제 감성은 이런 안일한 예상에 거부감을 느낍니다만, 제가 낡은 구식일지도 모르죠. 하지만 나름대로 ‘괴짜 너드’이기도 한 제 또 다른 자아는 더 근본적인 문제를 생각합니다.

우리는 AI가 과연 어느 정도까지 ‘폐쇄적 거품(기술적 한계, bubble)’ 안에 갇혀 있을지 아직 알 수 없습니다. 정말로 바깥의 현실(world)엔 AI가 재현 불가능한 무언가가 있고, 그 바깥은 AI보다 더 창의적일 수 있죠.

어쩌면 사랑이라는 것은 그 바깥의 ‘뭔가’를 향해 우리가 뻗어나가려 애를 쓰는, 그런 원동력일지도 모릅니다. 그걸 AI로? 글쎄요.


댓글 남기기

이 사이트는 스팸을 줄이는 아키스밋을 사용합니다. 댓글이 어떻게 처리되는지 알아보십시오.