다가오는 인공지능 시대, 우리는 무엇을 준비해야 하는가?
다가오는 인공지능 시대, 우리는 무엇을 준비해야 하는가?
  • 크리스천월드
  • 승인 2016.11.29 09:23
  • 댓글 0
이 기사를 공유합니다

사람과 디지털연구소 구본권 소장, '알파고(Alphago) 이후의 세계' 강연


△이날 강연한 구본권 소장은 도서 '포스트휴먼 시대의 휴먼' 공동저자로 참여했다


구글 딥마인드(Deepmind)에서 개발한 인공지능 바둑 프로그램인 알파고(Alphago)는 지난 3월 9일부터 15일까지 진행된 프로바둑기사 이세돌 9단과의 대국에서 4:1의 대승을 거둬 전인류에게 큰 충격을 주었다.


지난 1997년 IBM이 개발한 딥 블루(Deep Blue)가 체스 세계 챔피언인 게리 카스파로프(Garry Kasparov) 를 이겼고, 2011년에는 IBM 왓슨이 미국의 퀴즈쇼 '제퍼디 쇼'에 참가해 우승을 거둔 이후 인공지능 기술은 계속 발달해 '바둑' 종목을 재패하기에 이른 것이다.


반도체와 소프트웨어 기술의 발전 속도가 점점 빨라짐에 따라 인공지능 기술 또한 인간이 예측할 수 없는 수준까지 이른 이 시대에 우리는 무엇을 준비해야 하는가에 대한 강연이 지난 17일 서울 종로구에 위치한 아트선재센터에서 개최됐다.


인문학과 과학, 예술과 문학을 넘나들면서 강의를 듣고 자유롭게 토론하는 크로스 토크 형식으로 진행된 이번 강연은 한겨레 신문 기자로 정보기술 분야를 주로 취재하면서 디지털화에 따른 다양한 현상을 연구하며 한겨레 신문사의 사람과디지털연구소 소장을 맡고 있는 구본권 기자가 강연자로 나섰다. (구본권 기자는 서울대 철학과를 졸업하고 한양대에서 '저널리즘에서의 잊혀질 권리'로 박사학위를 받았다.)


구본권 기자는 '알파고 이후의 세계'라는 제목으로 인공지능이 등장한 이 시대에 우리는 어떤 환경에 처해 있고, 직업적인 변화는 왜 일어났으며, 우리는 무엇을 준비해서 어떻게 살아야 하는가에 대해 강연했다.


기술이 발전하면 직업이 사라진다


역사적으로 기술이 발전함에 따라 사라진 직업들이 많다. 대표적으로 GPS 기술 개발로 사라진 항법사를 예로 들 수 있다.


중국 최대 OEM 기업인 폭스콘(Foxconn)의 '궈타이밍' 회장은 지난 2011년 "로봇 100만대를 구매해 자사 근로자 100만 명을 대체하겠다"라고 발언해 제조업 근로자들에게 위기감을 불러일으켰다.


또한 서울대 언론정보학과 이종환 교수 연구팀이 개발한 '로봇저널리즘' 기술과 구글의 번역 기술, 의약품 안심 서비스(DUR) 기술은 각각 기자, 통번역가, 약사의 자리를 위협하고 있다. 이외에도 조지아 공대의 인공지능 조교(Jill Watson)와 인공지능 변호사 프로그램 등 사회 각 분야에서 사람을 대채할 각종 기술의 개발이 이루어지고 있다. 


지식의 반감기가 짧아지고 있는 현재 인간에게 필요한 능력은 계속 배우는 능력


새뮤얼 아브스만는 그의 저서인 '지식의 반감기(The Half-Life of Facts)'에서 "모든 지식은 유효기간을 가진 지식이다. 그런데 그 유효기간이 점점 짧아지고 있다"며 "과거와는 비교할 수 없을 정도로 지식의 유효기간이 짧아지고 있다"고 했다. 현재의 인류는 일생 중 지식의 변화를 경험하고 있는데 1930년에 발견된 명왕성이 2006년 태양계 행성에서 퇴출된 사례가 그 예다.


그렇다면 이제 인간에게 필요한 능력은 무엇일까? 답은 계속 배우는 능력이라고 말할 수 있다. 그런데 우리나라는 OECD 가입국을 대상으로 문해력과 연령대의 상관관계를 조사한 결과 성인이 된 이후에는 공부를 하지 않는 경향을 보이고 있다. 이는 모든 공부가 대학입시에 초점이 맞춰져 있기 때문이다.


노동은 우리를 권태, 악덕, 욕심이라는 3대 악으로부터 구원한다 - '캉디드' 볼테르


미국의 인디언보호구역에서 살고 있는 인디언들은 정부의 혜택으로 일을 하지 않아도 사는데 전혀 지장이 없다. 그러나 그로 인해 마약, 알콜중독과 같은 사회문제가 심각하다. 현대사회에서 발생하는 대부분의 문제는 그 원인을 일자리가 사라지고 있다는데에서 찾을 수 있다. 앞으로 기계에 의해서 일이 사라지는 세상이 오게될 때 어떻게 하면 인간이 일을 발견할 수 있는가에 대해서 깊은 고민이 필요한 시점이다.


알고리즘 사회


구글이 개발중인 자율주행 자동차는 주행 중 발생할 수 있는 모든 돌발상황에서 프로그래밍 된대로 판단하고 실행한다. 따라서 프로그래밍시 랜덤한 기준이 아닌 정확한 기준을 가지고 판단할 수 있도록 프로그래밍 해야한다. 그러나 그 기준을 누가 정할 것인가?의 문제는 단순하지가 않다. 국가가 할 것인가? 사업자가 할 것인가? 기업체가 할 것인가? 또는 국제적인 협약을 맺을 것인가? 하는 새로운 차원의 문제에 봉착하게 된다. 과거에는 철학자들만 했을 법한 '자율주행 자동차가 사람과 충돌할 수 밖에 없는 상황에서 어떤 선택을 할 것인가?' 에 대한 고민을 이제는 프로그래머가 해야하는 시대가 온 것이다.


이러한 사회를 알고리즘 사회라 말할 수 있는데, 알고리즘 사회는 모든 것을 데이터화, 프로세스화 해서 정확성과 효율성을 높인 사회를 말한다. 우연과 무작위 같은 인간의 편향성의 한계를 벗어난 사회이기 때문에 효율성을 높일 수 있다.


일본에서 절찬 판매중인 인공지능 로봇 "Pepper"와 지난 2013년 개봉한 영화 'Her'에 등장하는 인공지능 소프트웨어를 보면 인공지능은 주인에게 좋은 감정들만 주도록 설계된다. 주인에게 안좋은 감정을 전달하는 인공지능을 어느 소비자가 구매하겠는가? 그러나 인간은 슬픔을 느끼기 때문에 기쁨을 느끼는 것처럼 인간의 감정은 짝을 이루고 있는 것이다. 인간의 감정을 인식하는 인공지능의 등장으로 감정의 본질은 무엇인가에 대해 생각하게 한다.


이와 더불어 로봇이 감성 인식을 하게 되면서 지금까지는 한번도 던져지지 않았던 질문을 고민하게 한다. 감정은 인간 자신에게 내재하는 것인가 아니면 타인과의 관계에 있는 것인가? 감성을 인식하는 로봇, 마치 감정이 있는 것처럼 보이는 로봇을 학대한다면 그것은 기계를 남용하는 것인가 아니면 동물학대 하듯이 기계를 학대하는 것인가? 로봇을 감정적 주체로 인정할 것인가? 하는 따위의 새로운 고민이다.


또한 로봇에 어떤 기능까지 부여할 것인가에 대한 고민을 하게 되는데 이것은 결국 로봇을 설계하는 인간이 합의해야하는 것이다.


인공신경망의 입력층과 출력층은 알 수 있지만 은닉층은 알 수 없다


새로운 기술들이 등장함에 따라 우리는 보이지 않는 기술에 영향을 받게 된다. 우리는 현재 많은 첨단기술들을 누리면서 살아가고 있지만 그 작동 매커니즘은 알지 못한다. 딥 러닝이라 불리는 인공 신경망 알고리즘은 우리가 그 입력값과 출력값은 볼 수 있지만 그 속의 연산 알고리즘(은닉층)은 알 수 없다. 알파고를 만든 딥 마인드의 데미스 허사비스도 알파고가 이세돌 9단과의 대국에서 승리했을 때 알파고가 이세돌 9단을 어떻게 이겼는지에 대해서는 자신도 모른다고 답했다. 


사용자가 통제할 수 없는 기술은 재앙이 될 수 있다. 알파고 등장 이후 마이크로소프트에서 출시한 인공지능 채팅로봇인 'Tay'는 출시 16시간 만에 운영이 중단되었다. 인종차별주의자들이 Tay를 학습시켜 인종차별적인 채팅을 하도록 만들었기 때문이다.


그러나 마이크로소프트는 운영 중단 후 디버깅을 할 수 없었는데 그 이유는 인공신경망 속 은닉층의 알고리즘을 모르기 때문이었다. 만약 Tay가 단순 채팅 기능이 아닌 물리적인 힘을 갖고 있었다면 큰 사고로 이어질 수 있었을 것이다. 


알고리즘의 편향성


오늘날 모든 정보는 디지털화 되어 기계가 인식하고 처리할 수 있게 되었고 여기에 수식을 적용해 알고리즘화 되었다. 우리는 이 알고리즘에 점점 더 의존하게 될 것이다. 그럼에도 불구하고 알고리즘은 비공개성, 비접근성, 비투명성의 특성을 가지고 있어 알고리즘의 절대적 지배를 받고 있는 우리들은 그 구조를 알수가 없다. 현대사회에서 가장 강력한 힘을 발휘하고 있음에도 알고리즘에 대한 논의와 설계단계에서 우리는 아무런 영향력을 행사하지 못하고 있는 것이다.


우리가 의존하는 지능화 기계 사회는 알고리즘과 데이터에 의존하는데 알고리즘과 데이터는 절대로 객관적이지 않다. 알고리즘은 일련의 수학적 방정식으로 수식 하나하나가 가정과 선택이다. 설계한 사람의 선택이며, 그 사람의 성향이 반영될 수 밖에 없는 것이다. 현재 미국에서 알고리즘을 설계하는 대부분의 사람은 백인이고 사용하는 데이터도 백인들의 데이터가 많다. 그래서 간혹 사진인식 기능을 가진 기계가 흑인을 인식하지 못하거나, 범죄자로 인식하는 경우가 종종 발생하기도 한다.


사람들은 일반적으로 편향성을 극복하기 위한 도구가 기술이라고 생각한다. 그러나 조지아공대 기술사학자 멜빈 크랜즈버그는 그가 만든 '기술의 법칙'에서 "기술 자체는 좋은 것도 아니지만, 중립적이지도 않다"(제1조), "기술은 지극히 인간적인 활동이다"(제6조)라고 말했다.


따라서 설계자의 편향성이 반영될 수 밖에 없는 알고리즘이 사회적으로 어떤 영향을 끼칠지를 검토할 수 있는 제도마련을 통해 설계자만이 알고리즘의 주체가 되지 못하도록 제제하는 조치가 필요하다.


포스트휴먼 시대에 우리에게 요구되는 능력


지금 인터넷 공간에 있는 데이터는 우리 모두에게 평등하게 제공되고 있다. 이런 가운데 수많은 데이터 가운데서 자산을 끌어내는 능력, 즉 데이터가 참인지 거짓인지를 분별해내는 데이터 판별 능력이 필요하다. 또한 우리가 당연하다고 생각하는 사회적 통념이 참인지 거짓인지를 분별해 내기 위한 호기심과 비판적 사고 능력이 함께 요구되고 있다.


한편, 이날 강연에 앞서 인사말을 전한 포스트휴먼학회장 백종현 교수는 인공지능에 대해 "인공지능은 상징일 뿐, 눈에 보이지 않는다"며 "알파고는 눈에 보이지 않지만 그 진화하는 속도는 우리가 알 수가 없다"고 말했다. 그는 "인공지능은 인간이 개발해서 추진했지만 나쁘게 활용될 경우 재앙이 될 수 있다"며 "우리가 미리미리 여러 경우의 수를 생각해 대비해야 한다"고 했다.


또한 백 교수는 "IT 산업이 등장하면서 소득양극화가 심해졌다"며 "세계 10대 부호 중 5명이 IT분야 전문가다"라고 했다. 이어 "인공지능이 고도화 될수록 그 기술을 다루는 사람들에게 모든 소득이 집중돼 양극화는 더욱 심해질 것"이라며 "이를 방지하기 위해 포스트휴먼학회 활동을 시작했다"고 말했다.


이후 청중들과의 토론이 30여분간 이어졌고 행사는 마무리됐다.


다이너마이트와 핵폭탄의 경우를 보더라도 과학자들은 인류에 공헌하고자 선의로 연구개발한 기술이었으나, 인간의 오용으로 파괴를 위한 도구로도 사용되고 있음을 볼 때 인공지능 또한 악용되지 않도록 지금부터 이를 견제할 수 있는 제도적 예방장치를 함께 강구해야할 것이다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.