윤재원 박사의 언어와 정체성 이야기(7)

인종프로파일링 (Rassistische Profilierung) 언어 프로파일링 (Linguistische Profilierung) – 피부색 때문에, 발음 때문에 기계한테(까지) 차별받는 사회

내 차의 내비게이션은 내가 말하는 독일어를 못알아 듣는다. 요즘은 대부분의 사람들이 항상 내비게이션을 사용한다. 아는 길을 가더라도 내비게이션을 활성화시켜 놓고 주행하면 곳곳에 있을 수 교통혼잡을 피해 목적지까지 가장 빠른 길로 갈 수 있기 때문이다. 또한 내비게이션은 정확한 주행거리와 운전 소요 시간을 알려주며 불법이겠지만 속도 추적기가 있는 경우 경고음을 내주는 것도 있다.

내비게이션에는 매우 실용적인 음성 인식 기능이 있어 목적지를 검색하거나 입력할 때 이루 시루 입력창을 열어 키보드 화면을 띄워 입력하지 않고 바로 음성으로 도착지 정보를 말하면 10초 안에 원하는 결과를 찾을 수 있다.

이 기능은 이미 수년 전부터 사용 가능한데 우리 가족의 차에 달려있는 내비게이션의 음성인식장치는 나의 독일어 발음을 알아듣지 못한다. 가족 여행을 갈 때마다 아이들은 (물론 아이들이 어렸을 때의 이야기다) 서로 경쟁하듯이 먼저 내비게이션에 목적지 주소를 음성으로 입력하려고 덤벼들었었고 내비게이션은 아이들의 음성을 알아듣는 데는 가끔 실수를 했지만 곧잘 인식했다.

가장 잘 알아듣는 음성은 남편의 음성이고 내가 발음하는 주소에 대해서는 매번 “미안하지만 잘 못 알아듣겠습니다”는 응답을 준다. 매우 슬픈 일이다.

물론 “당신의 발음이 후져서 그런 것이니 독일어를 정확하게 잘 말할 수 있도록 연습하라”고 할 수 있겠다. 이러면 내가 잘못한 것이니 오죽하면 내비게이션 같은 하찮은 기계한테도 인종차별을 받겠냐고 웃어넘길 이야기가 되지만 현실은 그보다 훨씬 위험하다. 우리 사회의 디지털화에 대한 연구들은 이 일화가 절대로 우스운 일이 아님을 증명한다. 기계마저도 인종차별을 하고 있고 이 사실은 점점 크게 공론화되고 있다.

샤라드 고엘 교수의 진두 아래 미국 스탠퍼드 대학이 2020년에 발표한 연구에 따르면 우리 일상생활에 가장 많이 쓰이는 아마존, 구글, 애플, 마이크로소프트 등이 개발한 시리(Siri)나 알렉사(Aisxa) 등의 음성인식 기술은 동일한 성별과 연령의 사용자가 같은 단어를 정확히 말할 때 모든 시스템에서 아프리카계 목소리의 발화에 두 배나 더 많은 오류를 보인다고 한다. 백인이 발화했을 때에 기계가 못알아 듣는 확률은 19%에 머물지만 같은 단어를 아프리카계 미국인이 발화하면 기계가 못 알아듣는 확률이 35%에 달한다는 것이다.

이 상황이 일상생활에서는 단순하게 “음성인식 기술이 백인보다 아프리카계 미국인에게 불편을 자아내는구나”라고 결론 내리게 되지만 음성인식은 이미 법원 판결, 기업 채용 등 중요한 결정을 내리는데 사용되고 있기 때문에 기계에 의한 인종차별이 가져오는 결과는 그렇게 가볍지 않고 심지어 매우 위험하다. 음성인식 기술은 이미 우리의 직업과 삶에 지대한 영향을 미치고 있다.

인공지능은 인종뿐 아니라 성(gender)도 차별한다. 2019년에 유네스코가 발간한 책, “할 수 있다면 얼굴을 붉혔을 거예요 (I’d blush if I could),”는 인공지능기술 관련 젠더 편향에 대한 지적과 권고 사항을 담고 있는데 책 제목은 아이폰에 있는 음성인식 장치인 ‘시리’가 사람들이 성차별적인 농담을 했을 때 어떤 식으로 답변하는지의 한 예를 나타낸다. 음성인식 장치들을 개발할 때 수동적이고 소극적인 답변을 하는 젊은 여성을 기준 삼아 답변을 만들었기에 이 앱의 사용자들은 여성의 역할에 대해 더 큰 편견을 가지게 된다는 것이다. 사람들에 의해서 여성이 차별받는 이야기도 넘치고도 남는데 이제 인공지능 음성인식 장치들까지 성차별을 강화하는 데 한 몫을 더한다니 오호통재라.

삽화 : 노민선 작가

기업은 이를 사용하는 소비자의 경향을 염두에 두고 음성인식장치를 디자인했기에 이런 결과가 나왔다고 변명한다 – 즉 일반인들에게 협조나 도움을 받기에 여성의 목소리가 더 적합하고 남성의 목소리는 권위를 나타내기에 서비스를 제공하는 음성인식 장치들은 여성의 목소리를 내는 것이 더 잘 받아들여진다는 것이다. 심지어 음성인식 장치들은 소비자가 성적으로 부적절한 대화를 해도 반박하거나 거부할 수 없도록 디자인되어 있다.

한국에서 출시된 지 20일 만에 중단된 채팅로봇 ‘이루다’는 사용자에게도 음성인식 장치를 윤리적으로 이용할 의무가 있다는 것을 보여준다. ‘이루다’는 나오자마자 숱한 성희롱 혐오 발언 등에 대해 논란을 불러일으키고 11일 만에 잠정적 운영 중단이 결정되었다.

논란의 시작은 이용자의 성희롱 발언에도 채팅로봇이 거부의 뜻을 표시하지 않고 동조의 방식으로 답하면서 성희롱 혐오 발언을 놀이문화로 이끌게된 데서 시작되었다. 쳇봇인 이루나는 20세의 여대생을 페르소나로 삼고 있고 주요 사용자인 10대 중반에서 30대의 남성들이 성적 노리개로 삼으면서 결국 역사 속으로 사라지게 되었다.

이러한 인공지능의 차별적 성향은 일상 속을 파고들면서 복종만 하는 여성의 목소리가 우리 사회에 여성의 역할에 대해 잘못된 인식을 심어주는데 큰 역할을 하게 된다. 어떻게 기계까지 인종차별, 성차별을 하게 되었을까?

음성인식 알고리즘을 설계하는 개발자들의 인적 구성이 대부분 백인, 중산층, 남성이기 때문에 그들이 주도하는 개발에서 그들의 인식이 반영된 것이고 차별을 제거하기 위해서는 절대다수가 백인 남성인 IT업계에서 알고리듬 설계 단계부터 다양한 인종과 성을 가진 개발자를 고용하는 조치가 필요하다고 한다. 그렇다. 인공지능은 우리를 차별없이 대해야 한다. 하지만 인종차별과 성차별이 없는 미래는 인공지능이 아닌 사람이 만들어내야 할 미래이지 않은가…

지금도 매 순간 곳곳에서 계속되는 인종차별

이번 학기에도 여전히 언어 사회학 수업을 하는데 매 학기 나오는 토론 주제 중의 하나가 일상에서 행하여지는 인종차별적인 언어에 대한 이야기이다.

학생들에게 주변에서 직, 간접적으로 경험한 인종차별적 언어에 대해 이야기해 보라고 하면 절반이 넘는 학생들은 그런 일은 자신의 주변에서 일어나지 않는다고 말한다. 마치 세상은 공평하고 아름답다는 듯이. 하지만 수업을 수강하는 학생 중에는 아프리카계 유럽인 (Afropean) 학생들은 완전히 다른 답변을 한다. 자신들이 이제까지 당했던 황당하고 기막힌 경험을 성토하듯이 말하는 학생들도 있고 이제 그런 것은 일상생활이라 피곤해 말하고 싶지도 않다는 학생들도 많다. 슬픈 일이다.

학생들이 자주 공유하는 인종차별적 언어에 대한 대표적인 것으로 “살색(Hautfarbe)”에 관한 일화를 들 수 있다.

독일에서 살색 (Hautfarbe)은 옅은 분홍빛을 내는 색이지만 아프리카계 유럽인(Afropean)이나 아프리카계 독일인 학생들에게 살색은 그렇지 아니하다. 유치원, 초등학교에서 이들이 이와 관련된 일로 선생님들에게 받은 상처는 대단히 크다. 한 학생은 누군가가 ‘살색을 좀 줄래?’ 해서 갈색을 내밀었더니 곁에 있던 선생님이 직접 이것은 살색이 아니라 갈색이라고 무안을 주었다는 이야기를 너무 많이 들었다고 한다.

이 학생은 자라면서 이것이 이상하다는 것을 깨닫고 누군가가 살색으로 그 흐릿한 살구색을 지칭할 때마다 당당하게 갈색을 내밀며 “이것이 나에게는 살색이다” 라고 말한다고 했다. 그 이야기를 하면서도 학생의 목소리는 계속 떨렸다. 아마도 그 때의 치욕과 그것을 견디면서 용기를 내야 했던 힘들었던 순간을 떠올리며 감정이 격해졌을 것이다.

수업 시간에는 주로 백인 학생들이 더 많고 아프리카계 학생들이 겪는 여러 가지 인종차별에 대한 일화를 들으면서 아직도 이런 일이 독일 곳곳에서 일어나고 있음에 놀라고 함께 분노한다. 또한 이런 일화는 단순히 흘려들어야 할 이야기가 아니구나 하는 것을 배운다.

이 학생들은 앞으로 교사가 되고자 하는 사람들인데 이러한 이야기를 함께 나누는 것이 미래의 독일 교실을 인종차별적 행동에 대해 민감하게 대응할 수 있게 만들고 차별 없는 사회가 될 수 있도록 학생들을 더 잘 지도할 수 있게 하는 길일 것이다. 탄식할 일은 몇 년 동안 같은 주제를 끌어내도 항상 똑같은, 어쩌면 듣기 더 거북한 일화들이 아프리카계 학생들을 통해 여전히 성토되어 나온다는 것이다. 정말로 안타까운 일이다.

이것뿐인가. 아랍계 남학생들은 기차나 공항에서 아무런 잘못이 없는데도 수시로 수색 당한다고 말한다. 이것을 인종 프로파일링(racial profiling/ ethnic profiling)이라 하는데 경찰 수사에서 범죄수사를 할 때 제일 먼저 인종만을 보고 혐의를 추론하고 판단하는 행위를 말한다.

1690년대 필라델피아 지방법원에서 미국 경찰들에게 거리에서 흑인을 보면 일단 범죄자로 간주하고 이유 없이 검문을 할 수 있도록 특권을 부여했고 300년 이상 미국 경찰의 관행으로 굳어졌다. 이 때문에 검문에 불응한 젊은 흑인 청년들이 거리에서 경찰의 총격에 사망하고 구타당하는 비극이 자주 발생했고 이러한 사건들이 쌓이고 쌓여 여러 번 인종폭동이 일어났었다.

이것이 비단 미국에만 해당하는 이야기인가. 그렇지 않다. 미국에서 조지 플로이드 (George Floyd) 사건이 일어난 이후에 독일 경찰 시스템도 인종차별적 행동에 대해 조직적으로 점검해야 한다는 목소리가 높아졌다.

독일에서 이와 같은 인권 프로파일링은 독일법의 비차별 조항에 대치되므로 2012년부터 라인란드 팔라시네이트 법정에서 법으로 금지시켰다지만 이민자 배경을 가진 사람들과 인터뷰를 해 보면 독일 경찰에 의해 무작위로 검열 받는 일은 일상에서 흔히 일어나는 일이고 이 일에 큰불을 지른 것이 내무부 장관, 호스트 재호퍼 (Horst Seehofer)가 독일 경찰 내 인종 차별적 수사 관행에 대한 연구를 못하도록 막은 일이다.

그는 경찰 조직의 인종차별에 대한 조사에 대한 움직임에 대하여 이미 불법으로 확정된 일에 대해 조사할 필요가 없다고 말해 논란을 일으켰다.

이게 끝이 아니다. 독일에서는 외국어 발음을 가지고 외국인 이름을 가지면 살 권리를 지키기도 힘들다. 최근에 브레멘 대학의 보이스 교수가 외국인 발음을 가진 사람과 독일인이 브레멘에서 아파트를 구할 확률에 얼마나 차이가 있는지에 대한 연구를 발표했다.

터키어 발음을 가진 독일어 구사자, 영어 발음을 가진 독일어 구사자 그리고 독일어 원어민이 아파트를 구할 때 독일어 발음과 이름이 아파트를 구할 수 있는지에 지대한 영향을 미친다는 것이 밝혀졌다.

연구의 결과 잘 사는 지역의 경우 터키 이름을 가지거나 터키식 발음을 구사하는 사람들이 집을 구할 수 있는 확률은 매우 낮았고 독일식 이름을 가진 독일어 원어민 구사자는 집을 구하거나 약속을 잡는데 가장 문제가 없는 것으로 나타났다. 영어 발음을 가진 독일어 구사자는 표준 독일어를 구사하는 터키인보다 집을 구하는 것이 더 쉽다는 것도 나타났다.

이 결과는 사실 전혀 놀랍지 않다. 독일에 사는 외국인들은 공공연하게 다 알고 있는 일이다. 발음과 이름 때문에 차별받아 보지 않은 외국인이 있을까? 모두가 수긍하는 내용으로 독일 내 언어 프로파일링은 이렇게 공공연하게 발생한다.

언어 프로파일링으로 피해 본 한인들은 많겠지만 경찰 검문에 걸린 경험 즉 인종 프로파일링에 대한 한인들의 피해는 크지 않을 것이라 예상된다. 아시아인들은 독일에서 아프리카계나 아랍계 사람들에 비해 경찰의 표적이 되는 경우가 별로 없다.

그렇다고 해서 우리가 이런 인종차별 문제에 적극적으로 대응하고 목소리를 내지 않는 것은 옳지 않다. 일단 독일 내 모든 소수계 민족들과 연대하지 않는 것은 민주주의 정신에 맞지 않고, 인종차별 문제에 소극적으로 대응하는 것은 함께 연대해야 할 다른 소수민족들로부터 우리가 백인 우월주의를 용인하고 그러한 테두리 안에서 살고 있다는 비판을 피할 수 없다.

이미 생활 속에서 우리는 인공지능한테까지도 차별받고 있다. 세상은 기계가 아니라 사람이 바꾸는 것이기에 우리도 생각을 같이 하는 사람들과 연대해서 세상의 차별에 맞서 힘차게 싸워야 한다.

1298호 20면, 2023년 1월 13일