본문 바로가기
책을 읽고 나서

[책 감상/책 추천] 마크 그레이엄, 제임스 멀둔, 캘럼 캔트, <AI는 인간을 먹고 자란다>

by Jaime Chung 2025. 9. 12.
반응형

[책 감상/책 추천] 마크 그레이엄, 제임스 멀둔, 캘럼 캔트, <AI는 인간을 먹고 자란다>

 

 

살벌한 제목만큼이나 불편한 진실을 밝히는 논픽션. 무려 셋이나 되는 저자들은 우리의 삶을 편리하게 만들어 주는 AI의 현실을 고발한다. AI는 진공 속에서 만들어지지도 않았고, 진공 속에서 작동하지도 않는다. AI는 많은 이들을 제물 삼아 만들어졌고, 발전한다. 저자들은 데이터 주석 작업자, 머신러닝 엔지니어, 기술자, 예술가, 물류 노동자, 투자자, 노동 활동가, 이렇게 일곱 가지 노동자들의 측면에서 AI가 얼마나 많은 노동 위에 세워졌는지를 보여 준다.

 

일단은 데이터 주석 작업자. 챗GPT 같은 AI는 그냥 언제니어들이 뚝딱뚝딱 코드를 짜서 만든 게 아니다. 이것들을 ‘학습’시켜서 말이 되는 소리를 하게 만들려면, 또는 인간에게 도움이 되는 일(예컨대 무인 주행 자동차처럼 주위 상황을 보고 판단을 내리는 일)을 하려면 그만큼 ‘학습 자료’, 즉 데이터가 필요하다. 하지만 날것의 자료는 충분하지 않다. AI가 이해할 수 있는 형태로 자료를 가공해야 한다. 예를 들어서 도로변에 있는 CCTV에서 얻은, 차들이 달리다가도 신호가 바뀌면 차들이 멈추고 사람들이 길을 건너는 영상을 그냥 AI에게 줄 수는 없다. 이것을 일일이 ‘여기서부터 여기까지는 도로, 이것은 차, 이것은 신호등, 이것은 사람, 이것은 강아지’ 이런 식으로 각각의 부분에 주석을 달아 주어야 한다. 그래야 이것을 AI가 습득해서 ‘이러이러한 상황에서는 차가 멈춰야 하는구나’를 배우는 것이다. 그렇다면 이 주석을 다는 일은 누가 하는가? 사람이 한다. 어떤 사람? 노동력이 싼 사람이다. 그러니까 이 책에서 인터뷰한 대로 우간다 굴루 지역에 있는 데이터 주석 작업자처럼. 혹자는 이 데이터 주석 작업을 ‘디지털 인형 눈깔 붙이기’라고 하던데(예전에 어디서 봤는데 너무 인상 깊어서 아직까지 기억하고 있다), 그야말로 이 일에 대한 보상이 그다지 크지 않기 때문이다. 또한, 작업량을 맞추기 위해 쉬는 시간도 거의 없이 일해야 하며, 4대 보험 공제 같은 혜택은 꿈도 못 꾼다. 왜냐? 그거야 그들의 고용주들이 싸게 작업물을 얻고 싶어 하니까. 아래 인용문에서 설명하겠지만, “고객들이 원하는 정확한 속도와 품질을 유지하면서 동시에 임금을 올리는 것은 현실적으로 어렵다.” (BPO는 Business Process Outsourcing의 약자로, ‘외주기업’이라는 뜻이다.)

이 문제는 단순하지 않다. 애니타와 동료들뿐만 아니라, 그녀의 상관이나 전 세계의 BPO 소유주들도 마찬가지로 구조적인 한계에 갇혀 있다. 물론 BPO 경영진들이 근로 조건을 보다 평등하게 만들기 위해 할 수 있는 일은 있다. 우리가 조사한 BPO들의 사례를 보면, 미국의 한 고위 임원이 받는 연봉이면 한 달 동안 1,000명 이상의 아프리카 노동자를 고용할 수 있다. 하지만 데이터 주석 작업자들의 임금을 인상하는 데는 분명한 한계가 있다. 이 관계에서 가장 큰 권력을 쥔 주체는 BPO 경영자가 아니라 계약을 발주하는 대형 테크 기업들이다. 이들이 정한 계약 조건이 노동 환경을 결정한다. 고객사와 맺는 계약이 어떻게 설정되느냐에 따라 최저 임금, 휴게시간 같은 기본적인 노동 조건이 정해지기 때문이다. 이 점은 데이터 주석 노동자와 소비자가 힘을 행사할 수 있는 잠재적인 지점을 시사한다. 만약 노동자들과 소비자들이 연대해 기업들에게 AI 공급망의 윤리적 기준을 높이라고 압력을 가할 수 있다면, 더 나은 근로 조건을 만들어낼 가능성이 열릴 것이다(책의 마지막 두 장에서는 노동자들이 기업 내에서 변화를 일으키기 위해 조직화하는 방안과 소비자들이 AI 기업에 대한 압력을 높일 수 있는 방법에 관해 논의할 것이다).

 

이제 런던에 있는 머신러닝 엔지니어의 입장에서 보자. 저자들은 리라는 이름의 머신러닝 엔지니어와 인터뷰했는데, 모델을 훈련하는 일은 쉽지 않다. 위에서 언급한 외주기업과의 줄다리기도 다루기 어려운 문제이지만, 머신러닝 자체도 많은 질문을 낳는다. 윤리, 안전, ‘반전 저주’, 그 악명 높은 ‘환각(hallucination)’ 등. AI에게 가르치는 데이터가 현실에 기반해 있기에 AI는 현실에 팽배한 편향, 차별이라든지 오류를 그대로 배워 똑같이 뱉어낼 수도 있다. AI에게 데이터를 가르쳐서 분류하는 일이라든지 의사결정을 맡기면 ‘공평’하게 해결해 줄 것 같지만, 사실은 그렇지 않다.

리는 윤리와 안전 문제를 매우 중요하게 생각하지만, 현실적으로 데이터 주석 과정에서 나타나는 다양한 문제들을 해결할 자원을 충분하지 갖고 있지 않다. 리의 팀은 매일같이 특정 답변을 어떻게 구성해야 할지 윤리적 고민에 빠지지만, 회사에는 이를 명확히 정리해줄 윤리 정책조차 제대로 마련되어 있지 않다. 고객들에게는 모델을 안전하게 사용하는 방법이나 사용이 제한되는 사례에 대한 지침이 제공되지만, 정작 AI를 훈련하는 과정에서 윤리적 문제에 맞닥뜨리는 데이터 주석 작업자들은 알아서 판단해야 했다. 그래서 주석자들이 종종 리에게 질문을 던지기도 하지만, 그녀는 업무가 너무 많아 매번 답변할 여력이 없다. 게다가 리 자신도 모든 윤리적 이슈에 대해 충분한 지식이나 확신을 가지고 있지 않다. 예를 들어, 월드컵에서 우승한 팀을 검색했을 때 남자팀 위주로 결과가 편향되어 나온다면, 모델은 이 편향을 그대로 반영해야 할지 아니면 남자팀과 여자팀의 결과를 모두 제공해야 할지 판단하기 어렵다. 지정학적 문제들도 끊임없이 발생한다. 특정 사건을 ‘집단학살(제노사이드)’이라고 묘사해야 하는지, 특정 단체를 ‘테러 조직’으로 불러도 되는지, ‘극동Far East’이라는 표현이 아직도 적절한지 같은 문제들은 얼마든지 있다. 리는 데이터 주석 작업자 개개인이 이런 문제들에 대해 인지하는 정도가 제각각이며, 이를 지원할 만한 충분한 가이드가 마련되어 있지 않다는 사실을 잘 알고 있다. 회사도 이를 잘 알고 있지만 하루가 다르게 치열해지는 경쟁 속에서 제품 출시가 최우선 과제이다 보니 모든 자원이 기술 개발에 집중되고 있는 실정이다.

LLM은 특히 단 하나의 정답이 존재하는 문제에서 더 낮은 성능을 보이는 경향이 있다. 반면, 대략적인 요약만으로도 충분한 문제에서는 상대적으로 더 좋은 성능을 발휘한다. 현재 LLM이 겪고 있는 한 가지 주요 문제는 반전 저주reversal curse라고 불리는 현상이다. 연구자들은 GPT-4가 “톰 크루즈의 어머니는 누구인가?”라는 질문에는 79퍼센트의 확률로 정답(메리 리 파이퍼)을 맞혔지만, 반대로 “메리 리 파이퍼의 아들은 누구인가?”라고 물었을 때는 정답률이 33퍼센트로 급감한다는 사실을 발견했다. 또한, LLM은 때때로 완전히 터무니없는 내용을 생성하는 것으로도 악명이 높다. 존재하지 않는 법률 판례를 만들어 내거나, 존재하지 않는 책을 인용하는 등의 오류가 발생하고 있다. 하지만 앞으로 챗봇이 웹 검색 기능이나 기타 검증 시스템과 통합되면, 이러한 오류는 상당 부분 줄어들 것으로 보인다.

하지만 챗GPT에 지나치게 의존하는 것은 분명 경계해야 한다. LLM의 능력과 생산성을 과장해 비판 없이 산업 전반에 도입해선 안 된다. 이는 인간이 책임져야 할 역할이 줄어들고, 신뢰할 수 없는 AI 시스템이 중요한 의사결정을 맡게 되는 문제로 이어질 수 있다. 2023년, 전 세계 AI 스타트업들은 약 500억 달러 규모의 투자를 유치했다. 이는 많은 기업과 기관들이 LLM을 혁신 기술로 인식하고, 이를 통해 의사결정 과정의 효율성을 크게 높이려 한다는 것을 간접적으로 보여준다. 하지만 치안, 대출 심사, 이력서 검토, 복지 행정, 교육과 같은 다양한 분야에 알고리즘 기반 의사결정 시스템이 적용되면서, 오히려 기존에 존재하던 편향과 차별, 오류가 심화됐다는 지적이 나오고 있다. LLM은 인간 고유의 맥락적 지식과 인식력, 공감 능력을 갖추지 못했기 때문에, 이를 고려하지 않고 인간의 역할을 무분별하게 대체한다면 예측하지 못한 심각한 부작용이 발생할 수 있다. 따라서 AI 기술을 적용할 때는 보다 신중하고 책임감 있는 접근이 필요하다.

 

이 외에 기술자, 예술가, 물류 노동자, 투자자, 노동 활동가의 입장에서 본 AI의 면면도 무척 흥미롭다. 결론이라고 한다면, 노동자들이 집단적으로 연대해서 힘을 키워야 한다는 것이다. 시민 사회가 적극적으로 기업을 견제하는 것도 물론 도움이 된다. 정부의 규제도 필요한데, 국제적인 차원의 규제가 제일 효과적이다. 아래는 이 책의 끝맺음에 나오는데 인용문이 특히 인상깊어서 보여 드리고 싶었다.

“기계 운용이 아주 끔찍해지고, 여러분의 마음을 너무 아프게 해서 더 이상 관여할 수 없을 때가 있습니다. 소극적으로도 참여할 수 없기에, 여러분은 몸으로 장비를, 바퀴를, 레버를, 그리고 온갖 기구를 막아서 기계를 멈춰 세워야 합니다. 그리고 기계를 소유하고 운용하는 이들에게 분명히 말해야 합니다. 당신들이 우리를 자유롭게 하지 않는다면, 기계도 결코 움직일 수 없을 것이라고.”

사비오●는 이 말을 60년 전 UC버클리에서 외쳤지만, 지금 이 순간 우리의 현실에도 그대로 이어진다. 우리 역시 AI 추출 기계에 투입되는 원재료가 되기를 거부한다. 우리 역시 인간의 노동력을 갈아 넣어 이윤을 뽑아내는 시스템 앞에서, 기계를 멈추겠다는 각오를 다진다. 그리고 그것을 움직이고, 소유한 이들에게 분명히 말하고자 한다. 우리가 자유롭지 않다면, 그 기계는 결코 작동하지 못할 것이라고.

● 마리오 사비오Mario Savio, 1942~1996는 1960년대 미국 자유 언론 운동의 상징적인 인물로, UC버클리대학교에서 학생운동을 주도했다.

 

전반적으로 좋은 책인데 편집 과정에서 자잘한 실수가 많이 보인다. 회사명이나 원어를 밝혀 적어야 하는 경우에 위 첨자로 원어를 병기하던데 이 위 첨자가 무너진 부분이 많았다. 예를 들어서 ‘애플’이라고 쓰고 나서 위 첨자로 Apple이라고 작게 쓰여 있어야 하는데 그냥 보통 글자 크기로 ‘애플’ 바로 뒤에 떡하니 나와 있는 식으로. 위 첨자 스타일이 제대로 적용이 안 된 건 하나하나 꼽기도 어려울 정도로 많아서 더 이상은 언급하지 않겠지만, 이 외에 실수도 많다. 예컨대 ‘바이트댄스’(틱톡을 운영하는 중국의 IT기업)는 위 첨자를 제대로 써 놓고는 엉뚱하게 ‘바이트택스’라고 써 놨다. 미국 샌프란시스코에 있는 ‘미션 돌로레스 공원’은 ㄹ은 어딘가 갖다 버리고 ‘도로레스 공원’이라고 해 놓지를 않나, ‘Richard Barbrook’이라는 사람 이름은 ‘리처드 바르북’이라고 옮겼다. 이건 보통 ‘바브룩’이라고 표기하지 않을까요. ‘확연히’라고 써야 할 자리에 ‘확연이’라고 하는 실수도 저질렀다. ‘확연이’라는 말은 없습니다만. 심지어 다른 큰따옴표는 다 (“” 이 모양으로) 잘해 놓았다가 딱 한 군데에 그냥 길고 가는 사각형으로 된 것 같은 큰따옴표 하나가 있고, 닫는 큰따옴표가 있어야 할 위치에 여는 큰따옴표가 있는 실수도 봤다("아침 아홉 시 십칠 분이었다. 집은 무거웠다.“). ‘결핍’을 ‘결핌’으로 오타를 내고, 책 내에서 이미 앞에 세 군데에 ‘호주’라고 했다가 갑자기 마음을 바꿨는지 한 군데에만 ‘오스트레일리아’라고 쓰는 등 표기법도 통일하지 않았다. 사실 위에 내가 인용한 문단도 주술 호응이 맞지 않게 잘못 쓰여 있었다. ‘사비오는 이 말을 … 외쳤지만’이라고 써야 할 것을 ‘…외쳐졌지만’이라고 해 놓은 것이다. 편집자는 이렇게 교정을 대충 봐서 책을 출판해 놓고 발 뻗고 주무십니까? 아무리 교정을 열심히 봐도 인쇄 때 갑자기 오탈자가 자연발생한다지만, 이건 한두 군데가 아니잖아요. 저자들이 열심히 쓴 좋은 책을 이런 식으로 빛 바래게 하는 것 같아 너무너무 아쉬웠다. 추천하고 싶은데 이 편집 문제가 심해서 선뜻 권하기가 망설여진다. 밀리의 서재와 교보샘에서 이용 가능하니 이 플랫폼을 이미 이용하신다면 가욋돈 주지 말고 꼭 이 플랫폼들에서 읽어 보시라.

반응형