"AI도 편견 심해…규범적 · 철학적 성찰 필요"
"AI도 편견 심해…규범적 · 철학적 성찰 필요"
  • 기사출고 2020.02.21 09:14
이 기사를 공유합니다

변협 인권보고서, '4차 산업혁명과 인권' 조명

대한변협이 2월 13일 '2019년도 인권보고대회'를 열고 《2019년도 인권보고서》를 발간, 배포했다. 1986년 첫 인권보고서를 발간한 이후 34번째 인권보고서로, 이번 보고서엔 특히 특집으로 "제4차 산업혁명과 인권"을 다뤄 한층 뜨거운 관심을 끌고 있다. 이찬희 변협 회장은 발간사에서 "지난 한 해를 돌이켜보면 대내적으로 대한민국은 사회 전반을 강타한 정치 · 사회적 분열과 갈등으로 혼란을 거듭하였고, 검찰개혁을 둘러싼 법무부와 검찰의 대립, 각종 사법개혁 법안을 둘러싼 정치적 갈등이 격화되었다"고 지적하고, "한편 대외적으로는 제4차 산업혁명이라는 거대한 물결과 함께 인공지능(AI)과 빅데이터, 초연결사회의 출현으로 인권위험이 발생할 수 있다는 우려가 제기되었다"고 4차 산업혁명과 인권을 다루게 된 배경을 소개했다.

◇안성훈 변호사
◇안성훈 변호사

안성훈 변호사가 집필한 4차 산업혁명과 인권 부분을 요약, 소개한다. 안 변호사는 변시 2회 출신으로, 현재 부천시 감사담당관으로 근무하고 있다. 중앙대에서 철학을 공부한 후 중앙대 로스쿨을 졸업했으며, 중앙대에서 박사과정을 밟으며 법철학을 연구하고 있다.

안 변호사는 먼저 인공지능의 편견과 불평등에 대해 지적했다. 인공지능도 알고리즘의 한계와 학습된 방식에 따라 구성된 인식을 얻을 수밖에 없는데, 알고리즘이 자연적으로 중립적이라는 믿음은 환상이라고 했다. 2019년 6월 24일 사단법인 오픈넷과 주한 프랑스문화원의 초청으로 우리나라를 찾은 철학자이자 인공지능 전문가 장 가브리엘 가나시아 교수가 "인공지능 편향과 윤리적 과제"라는 주제의 강연에서 제시한 사례가 대표적이다.

이에 따르면, 마이크로소프트사의 챗봇 타이(Tay)는 글로 된 질문에 답을 할 수 있고, 트위터와 같은 SNS에서 사람들과 소통했다. 단순한 사실 전달뿐만 아니라 농담도 주고받을 정도의 대화 수준을 갖췄다. 무엇보다 대화 상대로부터 배워 발전하도록 설계가 되었는데, 여기에서 문제가 발생했다. 인종차별, 동성애 혐오, 홀로코스트의 부정과 같은 혐오표현들도 배우게 된 것이다. 타이는 가동된 지 몇 시간 후에 트위터에 배운 말들을 쏟아냈고, 결국 공개된 지 하루도 지나지 않아 운영이 중단되었다. 개방된 환경에서 인공지능이 어떻게 발전해나갈 것이며 이를 어떻게 통제해야 되는지에 대한 준비가 되어 있지 않았던 것이다.

백인보다 흑인들 재범가능성 더 높게 나타나

인공지능 알고리즘이 인간의 편견을 그대로 학습한다는 우려를 제기할 수 있는 사례는 또 있다. 미국 경찰이 사용하는 재범가능성 판단 인공지능 컴파스(Compas)는 백인이나 부자인 사람들보다는 흑인들이나 빈민촌에 거주하는 이들의 재범가능성을 더 높게 보는 것으로 나타났다. 안 변호사는 "이 사실 자체가 인간의 편견을 인공지능이 배운 결과라고 단정할 수는 없지만 주의를 기울이게 하는 사례가 된다고 할 수 있다"며 "인공지능은 인간이 가진 편견을 거르지 못하고 그대로 학습하기 때문에 데이터에 스며있는 그대로 편견을 재현할 수 있다"고 주의를 촉구했다.

로이터의 보도에 따르면, 아마존의 채용 인공지능은 명백히 남성 우호적인 경향을 보여주었는데, 그 이유는 학습용 데이터가 대부분 남성 구직자의 지원서였기 때문이다. 뉴욕타임스는 또 마이크로소프트, IBM, 중국 메그미 등 3개 사의 AI 안면인식 소프트웨어를 이용해 진행한 실험에서, 백인 남성은 99% 이상 정확하게 인식한 반면 흑인 여성은 오류율이 최대 35%까지 증가했다는 내용의 조이 부올라미니(Joy Buolamwini) MIT 미디어랩 연구원의 논문을 소개한 바 있다.

2016년 러시아 과학자들이 진행한 인공지능 미인대회 실험에서는 전 세계에서 수천 명의 참가자가 보낸 셀카 사진에 대해 인공지능이 그 사진이 "아름다운지 여부"를 평가했는데, 인공지능이 선택한 44명의 미인 중 유색인종은 단 1명이었다. 주최 측은 이런 결과가 인공지능이 훈련한 데이터에 유색인종 사진이 적었기 때문이라고 추정했다. 이를 교정하기 위해서는 어떻게 해야 할까?

안 변호사는 일단 데이터 입력을 의도적으로 교정할 필요가 있다고 말했다. 어떤 데이터 그룹은 축소(under-sampling)하는 한편 어떤 데이터 그룹에는 가중치를 주는 방식(over-sampling)을 사용할 수 있다는 것이다. 또 "알고리즘을 설계하기 전에 '아름다움'이라는 평가적 용어에 대한 성찰이 필요할 수 있다"며 "인공지능의 편견 문제는 기술적인 문제에 대한 고민과 더불어 규범적, 철학적 성찰을 통해 해결해야 할 문제"라고 지적했다.

◇대한변협이 2월 13일 변협회관 14층 대강당에서 국가인권위원회와 공동으로  '2019년도 인권보고대회'를 개최하고, 《2019년도 인권보고서》를 배포했다. 인권보고대회 참가자들이 기념촬영을 하고 있다.
◇대한변협이 2월 13일 변협회관 14층 대강당에서 국가인권위원회와 공동으로 '2019년도 인권보고대회'를 개최하고, 《2019년도 인권보고서》를 배포했다. 인권보고대회 참가자들이 기념촬영을 하고 있다.

두 번째 이슈는 인공지능의 책임론이다.

안 변호사에 따르면, 2016년부터 MIT는 '모럴머신(Moral Machine)'이라는 실험을 하고 있다. 자율주행차와 같은 인공지능의 윤리적 결정에 대한 사회적 인식을 수집하기 위한 인터넷 플랫폼인데, 자율주행차가 두 명의 탑승자나 다섯 명의 보행자 중 어느 한쪽을 반드시 희생시켜야 하는 상황과 같이 윤리적 딜레마 상황을 두고 외부 관찰자로서 받아들일 수 있는 결과를 선택하게 하는 실험이다. 달리는 트롤리 열차의 방향을 바꾸면 다섯 명이 살고 한 명이 죽지만, 바꾸지 않으면 한 명만 살고 다섯 명이 죽는 딜레마적 상황. 트롤리 열차의 방향을 바꾸는 장치의 조작은 당신만이 할 수 있다면 어떤 결정을 내릴 것인가. 그런데 그 판단 주체가 인공지능이라면 우리는 인공지능이 결정한 죽음의 사태를 납득할 수 있을까? 인공지능이 사고의 순간에 자기 나름대로의 판단기준에 따라 어떤 인간은 죽이고 어떤 인간은 살리겠다는 판단을 했다면, 나아가 자율주행차에 탑재된 인공지능이 인간이 이해할 수 없는 자기만의 기준을 가지고 특정 인간을 향해 달려들기로 한 것이라면 어떤가? 과연 인간이 아닌 새로운 '주체'의 행위에 대해서는 어떻게 그 행위가 '잘못'되었다고 판단할 것이며, 그 '책임' 문제를 처리해야 할까?

예견가능성 있어야 책임 추궁 가능

자유형, 벌금형 등의 형벌을 부과한다든지, 인공지능 시스템을 일정 기간 다운시키거나 폐쇄시키는 방법으로 하면 될까? 다운된 기간 동안 '반성'하고 '교화'될 수 있을까? 그렇게 생각하기는 힘들다. 그렇다면 개발자, 제조자, 소유자나 사용자 등에게 어떤 책임을 물어야 할 것인데, 이것도 어려운 문제가 된다. 인간의 행위와 인공지능 로봇이 발생시킨 결과 사이에 거리가 멀기 때문이다. 인간들에게 책임을 묻기 위해서는 적어도 그들의 예견가능성 범위에 있어야 하는데, 로봇의 자율적 판단으로 인한 행위가 예견가능성의 범위에 있다고 할 수 있을지는 어려운 문제이기 때문이다. 어떤 사건들은 책임 공백이 발생할 수 있는 것이다.

안 변호사는 이에 대하여, "약한 인공지능 수준에서는 로봇에게 독자적인 민 · 형사적 책임을 지우기는 어렵고 배후자에게 책임을 지워야 한다는 정도의 주장이 다수를 차지하고 있다"고 소개했다.

안 변호사는 법률 분야에 인공지능 기술을 적용하여 새로운 법률시스템이나 서비스를 만들어내는 리걸테크(legal-tech)에 대해서도 논의를 전개했다. 안 변호사가 인용한 이종주의 "법률산업의 디지털 전환에 따른 동향과 이슈" 「월간SW중심사회」 통권 제353호에 따르면, 리걸테크의 분야는 검색, 분석, 작성 분야로 나누어 볼 수 있다. 검색분야는 사용자가 원하는 정보를 찾는 것으로, ①변호사 검색서비스, ②법령 또는 판례 검색 서비스, ③증인 및 증거 검색 서비스, ④행정절차 및 소송절차 안내 서비스, ⑤사무자동화서비스로 나눠질 수 있고, 분석분야는 사건분석이나 장래 법률행위를 예측하는 것으로, ①재범가능성 예측 서비스, ②행정처분 예측 서비스, ③소송결과 예측 서비스, ④입법정보 분석 서비스, ⑤특허정보 분석 서비스로 분류된다. 또 작성분야는 법률문서 작성을 대신하는 기술로, ①계약서 작성 서비스, ②소송 외 서류 작성 서비스, ③소송 서류 작성 서비스, ④산업 재산권 출원 관련 서류 작성으로 분류할 수 있다. 안 변호사는, 위 보고서에 따르면 영미법계에서는 검색, 분석, 작성 각 분야에서 빠르게 성장하고 있으나 우리나라에서는 아직 검색단계 수준에 머물러 있는데, 그 이유로 ①변호사법의 비변호사 법률사무 (동업)금지 조항, ②데이터 부족, ③리걸테크로 얻어진 증거의 형사증거로서 활용 곤란 등의 문제가 있다고 했다.

안 변호사는 또 '리걸테크와 재판청구권'이라는 항목에서, 로톡, 헬프미 등 법률사무에 대한 접근권을 높이는 다양한 플랫폼적 시도가 이루어지고 있으며, 전자소송제도는 사법절차 이용에 관한 접근권을 매우 높여 놓았다고 주목했다. 특히 법원은 2024년을 목표로 '스마트법원' 구현을 위한 차세대 전자소송시스템 구축사업을 추진하고 있는데, 인공지능이 화해 · 조정가능성이 높은 사건을 추려내 조기에 화해 · 조정이 성립되게 하거나 소송기록을 분석해 쟁점을 추출, 유사판결을 추천할 뿐만 아니라 판결문의 형식적 초고를 제공하는 등의 역할을 하는 것을 목표로 하고 있다며, 리걸테크의 발전과 적용이 변호사 법률사무에 대한 거리적 · 비용적 접근권을 높일 뿐만 아니라 국민의 일반적 법적 대응 능력을 향상시킬 수 있고 사법절차의 이용편의도 극대화할 수 있을 것이라고 기대했다.

AI판사 선호 60% 넘어

한편 카이스트 이광형 교수의 조사에 따르면 설문 대상자 중 자신이 법정에서 판단을 받게 된다면 인간판사보다 인공지능판사에게 판결을 받겠다는 사람이 60%를 넘었다고 한다. 이런 결과가 나온 이유는 사법불신에 이어 인공지능의 중립성에 대한 환상이 있기 때문인데, 안 변호사는 인공지능의 편견과 관련, 앞에서 지적했듯이, 인간보다 더 신뢰할 이유가 없다는 점에 주의해야 한다고 말했다.

안 변호사는 "인공지능이 선례를 학습하여 법적 판단을 해주는 것은 '비규범적'인 작업이나, 법적 추론은 법령과 사실에 사회적 가치가 종합적으로 고려된 가치 판단의 과정이어 그 판단 자체가 시대와 공간을 넘어 절대적으로 중립적일 수는 없다"며 "인공지능이 변호사가 되고 판사가 된다면 인공지능도 이미 일정한 가치 기준을 종합적으로 고려하여 일종의 편향적 판단을 해야 할 수밖에 없다"고 지적했다. 우리는 스스로 판단할 능력을 갖추고 행해야 하며, 인공지능에 법률사무를 일임하는 우를 범해선 안 된다는 것이다. 우리의 살아온 모습이 데이터로 AI에 반영되는 것이어 공정하지 아니하고 차별이 많은 사회에선 이를 학습한 AI도 공정하지 않을 가능성이 매우 높고, 따라서 이를 어떻게 만들고 어떤 모양새로 사용할 것인가 하는 숙제는 결국 인간의 책임이라는 것이다.

안 변호사는 "법률검색부터 변호사소개 · 추천, 법률문서의 작성과 소송행위 등 전 영역에 걸쳐서 리걸테크의 영향력이 미치게 될 것이 분명하다"며 "다만 현행 변호사법에 따르면 아마도 변호사가 직접 그 업무영역들을 책임지는 방식으로 발전해 나갈 것이며, 다양한 분야에서 자동화된 법률서비스가 등장할 것"이라고 전망했다.

리걸타임즈 이은재 기자(eunjae@legaltimes.co.kr)