연재를 마치며: 챗 지피티의 언어 정체성과 포스트 워크 (post-work) 시대의 인간의 정체성
작년 봄, 언어의 정체성에 대한 기고를 기획할 때에는 기계언어에 대해 이렇게 열변을 토하게 될 줄 꿈에도 몰랐었다. 사람의 언어에 대해 이야기하고 우리가 가지고 있는 언어 정체성에 대해서 여러 각도에서 글을 쓰려고 했었지, 잘 알지도 못하는 컴퓨터의 언어 (그때만 해도 이것은 컴퓨터 언어 전문가들의 세상이었지 나까지 알아야 할 필요는 없었다)에 대해 이야기할 계획은 없었다.
그런데 갑자기(?) 우리들의 세상으로 훅 파고 들어온 챗 지피티를 위시한 인공지능은 이미 간과할 수 없는 일상의 한 부분이 되었다. 이제 인공지능 언어를 배제한 언어 사용에 대한 이야기는 팥소 없는 찐빵까지는 (아직) 아니겠으나 단무지 없이 먹는 짜장면쯤은 될 수 있다.
이미 우리가 찾아보는 인터넷의 많은 문서들이 인공지능이 작성한 언어들로 들어차고 있고, 우리는 그것이 사람이 작성한 것인지 기계가 작성한 것인지 알 수 없다. 많은 직장인들이 이메일을 보낼 때 쳇 지피티에게 메일을 작성하도록 시키고, 보고서와 프레젠테이션, 리플릿과 광고, 아이디어 회의를 할 때와 문서를 번역할 때 적극적으로 쳇 지피티를 사용한다.
그뿐인가 대학생 뿐 아니라 중고등학생들은 이미 이것의 사용이 허락되든 아니든 과제를 할 때, 시험 준비를 할 때 끊임없이 사용하고 있다. 되돌릴 수 없다.
언어와 정체성에 대한 꼭지들을 써가며 마지막에 기계와 투닥거리게 될 줄 전혀 몰랐지만 피할 수 없어서 이렇게 마무리한다. 이제 정체성 문제는 인간과 인간 사이의 문제로 끝나는 것이 아닌 인간과 인공지능 간의 문제로 옮겨 붙었다. 언어와 정체성의 마지막 회를 이놈의 정체성을 파헤치면서 인간의 정체성에는 어떤 영향을 미칠 수 있는지 생각해 보면서 1년간의 연재를 마무리하려 한다.
다국어에 능숙하지만 단일문화에만 익숙한 챗 지피티
챗 지피티를 위시한 인공지능 언어 모델이 발표되기 전부터 구글 번역기, 디플(DeepL), 파파고 등 나름 괜찮은 번역기들은 종종 우스운 번역을 만들어내기도 했지만 100개국 이상의 언어를 지체 없이 바로 번역해 주며 나름 훌륭한 서비스를 제공해왔다.
거리의 식당에 보면 관광객들이 독일어로 된 메뉴판을 이해하기 위해 핸드폰으로 메뉴판을 사진 찍어 번역기를 이용해가면서 주문을 하는 것은 이제 예사로운 모습이다. 여러 번 이런 광경을 목격했는데 대부분 젊은 중국인 관광객들이었다. 머리를 맞대기보다 서로의 핸드폰을 맞대가면서 이 메뉴는 무엇일까 무엇을 먹을까에 대해 대화하는 광경은 매우 흥미로웠다.
이렇게 번역기가 우리 생활에서 자주 유용하게 쓰이는 것도 신기한데 그보다 더한, 그 어떤 질문을 어느 나라 언어로 해도 척척 대답하는 인공지능 쳇 지피티가 나왔으니 놀랍기 그지없다. 문제는 어느 나라 말로 질문해도 유려한 답변을 주기는 하지만 답변을 하는 방식은 단일 정체성을 가지고 있다는 것이다.
예를 들어 “한국에서 집들이 선물로 무엇을 자주 하나요?”라고 쳇 지피티에게 물으니 꽃다발, 와인, 과일바구니, 홈데코, 건강식품이라고 나열하며 훌륭한 설명을 곁들여서 내어준다. 물론 틀린 대답은 아니다. 그러나 이 답변은 서양식의 사고방식과 문화를 바탕으로 만들어진 것으로 우리나라 집들이 선물로 빠질 수 없는 것이 휴지나 세제인데 이런 설명은 철저하게 배제되어 있다.
집들이 설명에 휴지와 세제가 들어가야 하네 아니네를 가지고 논란을 하려는 것이 아니다. 사용자의 질문에 대한 답변의 방향이 서양인의 사고방식, 특히 영어 사용자의 사고방식과 지식을 따른다는 것에 커다란 문제가 있음을 지적하려는 것이다. 즉 쳇 지피티는 다양한 언어를 구사하지만 영어를 사용하는 백인 사용자의 정체성을 가지고 있다는 것이 여러 연구에서 드러났다.
이렇게 편향된 답변을 주는 챗 지피티를 업무에, 학업에, 일상생활에 적극적으로 사용한다는 것은 이러한 사고방식과 지식을 부지불식중에 받아들이게 된다는 것이고 더 많이 더 자주 인공지능의 서비스를 사용하고 교류할수록 우리의 세상은 이들의 사고방식으로 물들어 사고와 지식의 다양성을 잃어가게 될 것이다.
왜 이렇게 가치 편향적인 답변을 내놓게 된 것일까?
다양한 언어의 텍스트 데이터에 노출되었다고 하는 챗 지피티는 어떠한 문서를 대상으로 학습하여 언어를 습득했을까?
챗 지피티를 만든 회사인 오픈AI는 어떠한 데이터로 챗 지피티를 훈련 시켰는지 정확하게 밝히지 않고 있다. 알려진 바로는 위키피디아의 25억 개의 단어와 책 (BooksCorpus)을 통한 8억 개의 단어로 훈련받았다고 한다. 이렇게 웹이나 책에서 나온 막강한 양의 데이터를 가지고 학습한 후에는 파인 튜닝 (fine tuning)이라고 하여 사람이 직접 뛰어 들어서 원하는 응답을 얻을 수 있도록 기계의 답변을 미세조정하는 과정을 거쳤는데 데이터의 원천도 문제이거니와 거기에 더해 사람의 조정이 들어갔다는 데서 심각한 편향 문제가 발생할 수밖에 없다.
일단 위키피디아와 책 데이터는 영어로 되어 있는 자료이기에 문제라는 점은 지난 글에서 지난하게 설명했기에 스르륵 넘어간다. 오늘의 포인트는 영어 원어민 중에도 인도 파키스탄과 같은 원어민도 있고 미국 원어민도 있을 수 있는데 대규모 언어 모델의 훈련 데이터의 출처 연구 (Dodege 외, 2021) 결과에 따르면 챗 지피티의 학습 데이터는 커다란 부분이 미국 도메인을 가진 콘텐츠로 구성되어 있다고 한다.
2위, 3위 4위로 추정되는 영어 사용 인구가 많은 국가인 인도, 파키스탄, 나이지리아, 필리핀은 수십 개의 URL이 있음에도 불구하고 챗 지피티의 데이터에서 사용되는 비중이 고작 3.4%, 0.06%, 0.03%, 0.1% 에 불과하다. 또한 사람의 조정 과정 중에 금지 단어 목록을 만들어 제거하는데 단어를 제거하는 필터가 성소수자들에게 대단히 불리하게 작동되게 설계되었고 종교적 지향도 다른 종교에 비해 기독교적 의식이 크게 반영되어 있다는 것 역시 드러났다.
또 다른 연구에서도 데이터로 사용되는 책 (BookCorpus)에 성희롱, 위협적 표현 등의 유독한 언어가 많다는 것이 밝혀지기도 했고 2020년 GPT-3가 학습한 데이터 세트 중 하나인 영어 위키피디아 역시 누가 그 내용을 편집하는지에 따라 강한 편견이 들어갈 수밖에 없다.
마지막으로 챗 지피티는 미국의 가치와 법률에 부합한 자료를 만들기에 미국에 잘 알려진 자료가 아니면 잘 모르는 것은 물론 질문을 하거나 에세이를 써보라고 하면 미국의 장르와 템플릿에 맞게 3단락 에세이나 미국적 사고의 표준에 맞는 답변을 유려한 한국어로 답변하기 일쑤다.
이렇게 원천 데이터 선택 자체의 편향성과 텍스트 말뭉치를 인터넷에서 스크랩하여 만들어졌기에 발생하는 문제 이외에도 사람이 직접 거들어 답변을 조정했다는 데에서 문제가 불거진다. 데이터의 파인튜닝을 위해 고용된 계약자들은 원하는 답변을 내기 위해 답변을 교정하는 과정을 거치는데 이 과정은 답변을 수정하는 이들의 문화적 가치를 바탕으로 다듬어지기에 그 답변들은 편향될 수 밖에 없다.
우리가 쳇 지피티나 인공지능에게 질문을 던져 받은 답변들은 이렇게 어떤 특정 집단의 인간의 가치에 맞추어진 정답이다. 개인적인 문제, 회사나 심지어 국가적인 정책을 결정하는 데에 쳇 지피티를 사용한다는 것은 이 인공지능을 개발하는데 참여한 사람들의 가치가 우리의 사회적 결정에 지극한 영향을 주게 된다는 것을 의미한다.
EU에서는 사브리 (SAVRY)라는 이름으로 2006년부터 청소년의 폭력 위험성을 평가하는 인공지능 시스템을, 미국 연방 법원에서는 2000년부터 범죄자의 재범 위험도를 추론해 가석방 여부를 결정하는데 ‘콤파스’라는 인공지능 시스템을 활용한다. 한 연구에서 이러한 인공지능 판결 시스템은 흑인 피고인을 백인 피고인보다 두 배 높게 고위험군으로 분류하는 등 원천적으로 흑인에 대한 심한 편견과 차별을 가지고 있다고 밝혀졌다.
이뿐인가 사용자가 올린 사진에 관련 태그 문자를 자동으로 달아주는 이미지 레이블링 서비스인 구글 포토는 아프리카계 미국인 재키 액심이 올린 흑인 친구 사진에 고릴라라는 태그를 붙여 커다란 논란을 일으켰다. 구글 포토는 즉시 사과는 했지만 해결책으로 고릴라 관련 태그만 달랑 고친 것으로 알려져서 세상을 분노케 만들었다.
인공지능의 성능은 얼마나 많은 데이터를 학습했는지 그 학습 데이터의 품질이 얼마나 우수한지에 따라 그 성능이 달라진다. 학습한 그대로 반응하고 행동하기에 쓰레기를 학습하면 쓰레기가 나온다(Garbage in, Garbage out). 인공지능이 쓰레기를 창출해 내지 않도록 하려면 기획 및 설계 초기 단계에서부터 품질이 좋은 데이터로 인공지능을 훈련시키는 것이 매우 중요한 과제가 되어야 한다.
오픈 AI 개발자들은 인공지능을 자신들처럼 착한 사람들이 조심스럽게 만들어 얼마나 다행인지 모르겠다며 부끄럼 없이 떠든다. 기막힌 코미디가 아닐 수 없다! (그들이 나쁜 사람이라는 이야기가 아니다. 이런 말을 공개적으로 할 수 있는 그 두둑한 배짱이 존경스럽다).
하루빨리 인공지능 사용에 대한 가이드라인, 법과 제도, 윤리 등 서둘러서 규율을 만들어야 한다.
나가며 – 인공지능 시대는 일의 의미를 바꾸고 우리의 정체성을 바꿀 것이다.
이 연재는 다른 언어 다른 문화 안에서 살아가는, 혹은 같은 언어를 쓰더라도 다른 문화를 가진 타인과 소통하기 위해 중요한 문제인 정체성에 대해 여러 각도에서 생각해 보면서 언어를 배우고 사용하는 것은 개인적으로 사회적으로 어떤 의미이고 타인과 잘 살아가는 방법을 모색해 보기 위해 시작했다. 그 일 년 사이에 우리가 생각해야할 문제가 나를 파악하고 타언어 타문화를 잘 배우자는 데서 전혀 다른 차원으로 구렁이처럼 담을 넘었다.
이미 일상 속으로 깊숙이 파고든 인공지능은 한때 인간이 수행했던 대다수의 작업들을 대체해 낼 수 있기에 더 적은 인력으로 더 많은 생산을 가능하게 하는 포스트 워크 (post-work) 시대를 열고 있다. 이제 우리의 정체성에 대한 질문은 이 포스트 워크 시대에 인간이란 무엇인가, 인간의 정체성은 무엇을 의미하는 것인가로 확장되어야 한다.
우리의 정체성이 제대로 관리되지 않으면 불평등이 극심화되어 사회적 결속력이 무너지고 궁극적으로 세상이 불안정하게 될 것이기 때문이다. 이제까지 제안된 해결책은 기본소득, 인공지능에 대한 세금 부과 및 일자리 공유 등이지만 이것만으로는 충분하지 않다.
인공지능은 잠재적으로 사람들의 정체성을 위협하고 인간의 직업을 갈아치우면서 사람들의 심리를 위협하고 변화시킬 것이다. 열심히 일하는 것이 인생에서 성공하는 유일한 방법이라고 배웠고 또한 다음 세대를 그렇게 가르치던 우리는 지금 모두 허탈하다. 앞으로 어떻게 살아가야 하는가, 인간은 무엇인가…
연구의 연구를 거듭 중이니 좀 더 명쾌한 답이 나오겠지만 지금으로써 추측해 볼 수 있는 우리의 미래는 앞으로 많은 일자리를 기계와 공유하게 될 것이라는 것과 평생 직업에 대한 개념은 자연스럽게 사라지게 될 것이라는 것이다. 일자리는 더 세분화될 것이고 일의 형태도 더 다양화될 것이다. 즉 정규직보다는 비정규직이, 한 직장에서 한 가지 일을 하기 보다는 한 사람이 동시에 여러 직업을 갖는 것이 자연스러운 일이 될 것이다.
인공지능이 생산직과 사무직을 모두 대체할 수 있게 됨에 따라 일상적인 일은 기계로 다 대체될 것이기에 인간은 더 중요한 그 무엇인가를 찾아서 집중해야 하는 도전에 직면했다.
그뿐인가 인공지능 시대는 우리가 자신에 대해 알고 있던, 믿고 있던 모든 것들에 대해 다시 생각하도록 강요당할 뿐 아니라 일을 통해 타인과, 세상과 어떠한 관계를 맺어야 할지도 다시 생각하도록 만들 것이다.
더 이상 “나는 선생입니다”와 같이 한 가지의 직업으로 나를 소개할 수도, 하나의 전문성으로 자신의 정체성을 주장할 수 없는 날이 올 것이다. 앞으로 우리는 여러 개의 유동적인 정체성을 얻게 될 것이다.
마지막으로 일의 의미를 바꾸고 우리의 정체성을 바꾸는 인공지능과 함께하는 이 세상에서 소외되거나 차별당하지 않기 위해서 개인적으로는 인공지능에 대해 꾸준히 공부하고 사회적으로는 관련 법률이 조속히 만들어져 인간 공동체에 안정을 찾을 수 있기를 바라며 우리 모두가 나를 더 잘 파악하고 타인을 알아감과 동시에 인공지능에 대해 공부해서 나와 타인, 인간과 기계가 다 함께 조화롭게 살아갈 수 있는 세상을 꿈꾸며 연재를 마친다.
1317호 14면, 2023년 6월 2일