챗 지피티 (Chat GPT), 인공지능계의 독보적 슈퍼스타

윤재원박사

작년 11월, 신통방통하고 위험천만한 채팅 서비스가 세상에 공개되었다. 이름하여 챗 지피티 (GPT). 이후로 업계, 학계를 비롯한 온 세상이 홀딱 뒤집어졌다. 이것의 능력은 지금껏 우리가 보아오던 기계의 능력을 훨씬 뛰어넘었기에 혹자는 챗 GPT가 사람이 할 수 있는 일들을 대부분 대체해서 우리의 능력은 무용지물이 될 것이라 근심 걱정하고, 혹자는 이것을 이용해 세상의 질서를 바꾸어 보려고 연구하고 파헤지기 바쁘다.

직장인이든 기업인이든 교사든 정치인이든 변호사든 할 것 없이 다들 자신이 처한 상황에서 대체 이것으로 무엇을 할 수 있고, 어떻게 하면 무시무시한 힘을 가진 인공지능에 치여살지 않을 수 있을까 고심하지 않을 수 없게 되었다.

미국의 오픈AI (Open AI)에서 개발한 이 채팅 서비스는 자연어 생성 모델 GPT (Generative Pre-trained Transformer) 3.5를 기반으로 마치 사람이 쓴 것 같은 텍스트를 생성하는 서비스인데 약 1750억 개의 매개변수(parameter)를 사용해서 결과물을 만들어 내면서 인간이 사용하면서 주는 피드백을 통해서 강화 학습을 하기 때문에 비약적인 성능 향상을 이룰 수 있다.

챗 GPT는 지니, 알랙사, 시리 등 단순한 챗봇이 하는 일을 훌쩍 뛰어넘어 단순한 질문에 답할 뿐 아니라 사람처럼 앞에서 한 말과 연계해서 한 질문을 이해하고 답을 하고, 실수를 지적하면 인정하고, 부적절한 요구는 거부한다. 상호작용을 하다 보면 이것이 기계인지 사람인지 혼돈에 빠지게 될 정도로 자연스럽게 대화를 한다. 그 뿐아니라 자료를 주면 설명, 요약, 번역을 해주는 것은 물론이고, 아이디어 발상을 위한 브레인스토밍도 해주고 프로그래밍 및 코딩도 척척해준다.

이를 통해 업무용 보고서부터 대학 논문을 쓸 수 있는 것은 물론 노래 가사, 시, 소설 쓰기 까지도 척척 못하는 것이 없다. 어마어마한 데이터의 양을 기반으로 무시무시한 속도로 데이터를 처리하기 때문에 엄청난 양의 문서도 수초만에 매끄럽게 번역하고 정리하고 수정하거니 놀랍고 놀랍고 또 놀랍다. 기존의 온라인 서비스들이 100만 명의 사용자를 달성하기까지 걸린 시간을 보면 페이스북이 10개월, 인스타그램이 두 달 반, 넷플릭스가 3년 반이 걸렸는데 이 기록을 챗 GPT는 출시 5일 만에 갈아치워 버렸다. 세상은 지금 이것에 열광하고 있다.

위험성

문제는 이것이 편리하고 놀라울 뿐 아니라 쉽게 세상을 어지럽히고 위험에 빠지게 할 수 있다는 점이다. IT계의 거물이자 오픈 AI를 설립한 일론 머스크는 세계정부정상회의 (WGS)에서 챗 GPT는 뛰어난 능력을 지녔지만 인류 문명의 큰 위험 중 하나가 될 것이기에 인공지능의 안전한 사용을 위한 규제가 필요하다고 강조했다.

또한 최고기술책임자인 미라 무라티는 AI 시스템이 가져올 사회적 영향에 대해 철학자, 사회과학자, 예술가, 인문학자 등 다양한 전문가들이 참여하여 악용되지 않도록 사회적, 윤리적 법적으로 개입해야한다고 강력하게 주장했다. 이미 외국뿐 아닌 국내 정치인들도 이를 정책평가, 정책 제안, 연설문 작성 등의 다양한 용도로 활용하고 있다고 보도되고 있는데 챗 GPT가 제시하는 답변이 얼마나 정확한가에 대한 불신은 크다.

이것이 이전보다 굉장히 진보된 모델이고 놀라운 가능성을 보여주고 있음에는 의심의 여지가 없지만 그 한계점 역시 분명하다.

일단 오픈 AI의 홈페이지에 제시된 한계 세 가지는 첫째, 부정확한 정보를 생성하기도 하고 둘째, 편견 있고 해로운 내용의 결과를 생성하거나 셋째, 2021년 이후에 일어난 일에 대해서는 제한된 지식을 가지고 있다는 것이다. 영어권 사용자가 아닐 경우 자료의 편견에 대한 한계는 더 뚜렷하게 나타날 수 있는데 대부분의 이론을 영어로 된 자료에서 가지고 오기에 영어권의 가치에 더 적합한 답변을 제시하는데다가 언어 모델들이 공통적으로 가지고 있는 문제점인 헛소리 (Hallucination)를 퍼붓기도 한다.

이는 사실이 아닌 것을 그럴듯한 문장으로 쏟아내는 것인데 글의 매끄러움이 놀라운 경지에 이르러 사용자가 그 결과를 쉽게 믿을 수밖에 없는 커다란 위험성을 내포하고 있다.

GPT와 함께 살아가는 미래 (교육공간을 중심으로)

이것이 출시되자마자 교육기관에 있는 사람들은 적잖이 당황했고 독일 대학들도 논의에 논의를 거듭하고 있다. 이제 학생들은 대부분의 과제에 챗지피티를 활용할 수 있고 챗GPT는 웬만한 학생들 보다 훌륭하게 과제를 해낼 뿐 아니라 실제로 미국 대학 로스쿨 입학시험, 경영 대학원 기말시험, 의사면허시험까지 다 통과해냈다.

심지어 펜실베니아 와튼 대학의 에단 몰릭 (Ethan Mollick) 교수는 학생들에게 챗 GPT를 과제 및 수업에 활용할 수 있도록 허락할 뿐 아니라 반드시 써야 한다고 지시하여 논란이 일었었는데 그의 주장은 학생들이 챗지피티를 사용하는 것을 막지 못한다면 차라리 잘 쓸 수 있도록 훈련시키자는 것이다. 이로써 주제에 대해 검색하고 요약하는 종류의 숙제나 집에서 보는 시험 등의 전통적 교육 평가는 이제 역사 속으로 사라지게 되었다.

올해 2월 쾰른대학교에서 발표한 논문, “텍스트 생성 AI시스템에 대한 조언 (Hinwiese zu textgenerierenden KI-systemen in Kontext von Lehre und Lernen),”에서 챗 지피티를 위시한 AI기반 텍스트생성 온라인 서비스의 교육기관내에서의 사용에 대해 두 가지 지침을 제시했다.

첫째, 이러한 서비스의 사용에 대하여 학생들과 함께 미리 탐색하고 어떻게 사용할 것인지 협상해야 해야하고, 둘째, 최대한 투명하게 사용해야 한다는 것이다. 아직

챗 GPT의 기술적, 사회적, 윤리적, 법적 질문에 대해 규정된 것은 없는데도 불구하고 한 달만에 1억명을 넘기는 기염을 토하며 꾸준히 그 사용자가 늘고 있는 이 서비스를 학생들에게 쓰지 못 하게 할 방법은 없다. 또한 이러한 도구의 사용이 우리가 일하고 생각하는 방식, 교육 및 학습의 세계에 지속적인 영향을 미치고 변화를 가져올 것이기에 교사는 학습자가 이 도구를 자신의 학습맥락에서 생산적이고 책임감있고 안전하게 사용할 수 있도록 이끌어야 한다.

AI 시스템과 사람의 협업은 “올바른 디지털 교육”과 함께 이루어져야하고 교사는 학생들이 이 도구를 잘 쓸 수 있도록 바르게 지도해야 한다는 결론이다.

이와 더불어 마지막으로 생각해 보아야 할 중요한 문제들이 있다. 챗 GPT가 사람처럼 생산해 낸 말과 글의 주인은 누구인가? 챗 GPT에게 질문을 던진 사람인가? 아니면 답을 제시한 인공지능인가? 지금 인터넷에서 생산되고 뿌려지는 글과 정보들이 진실인지 아닌지 어떻게 확인할 것이며 사람이 썼는지 인공지능이 썼는지 어찌 가려낼 것인가? 이제 글과 말의 진정성 (authenticity)은 무엇을 의미하는가? 이것이 만들어낼 심각한 가짜 뉴스 등은 세상을 바꿀 텐데 어떻게 규제할 것인가? 인공지능의 위험성을 잘 모르는 사용자들은 잘못된 정보와 편견에 쌓인 지식을 그대로 믿게 될 것인데 어찌할 것인가?

이 겹쌓인 윤리적 난제를 푸는 것이 챗 GPT가 슈퍼스타로 비상한 기간에 비해 너무 오래 걸리지 않기를 간절히 바란다.

1307호 14면, 2023년 3월 17일