[뉴스Insight] AI 이루다 '사형선고!', "사람이 문제다."

CES 2021, AI 신기술 제품 '주목'
선입견·편견 학습 'AI 문제아' 등장
첨단과학의 시대, 인문·철학이 핵심!

혐오 발언 및 개인정보 유출 등의 논란에 휩싸인 인공지능(AI) 챗봇 '이루다'가 출시 24일 만인 15일 폐기 수순을 밟고 있다. 사실상 '사형선고'를 받은 셈이다. 연합뉴스 혐오 발언 및 개인정보 유출 등의 논란에 휩싸인 인공지능(AI) 챗봇 '이루다'가 출시 24일 만인 15일 폐기 수순을 밟고 있다. 사실상 '사형선고'를 받은 셈이다. 연합뉴스
석민 디지털 논설실장/ 경영학 박사 석민 디지털 논설실장/ 경영학 박사

세계 최대의 가전·정보기술 전시회인 'CES 2021'이 지난 14일(현지시간) 막을 내렸다. 이번 행사는 코로나19의 여파로 인해 1967년 개막 이래 최초로 온라인으로 진행되었다. 어쩔 수 없이 분위기는 썰렁했다. 미국과 무역갈등으로 인해 화웨이 등 중국 업체들이 대거 불참하면서 참여 업체는 지난해 4천400여 개에서 1천961개로 크게 줄어들었다. 현대차·도요타·혼다 등 주요 자동차 업체도 모습을 보이지 않았다.

하지만 한국은 미국(570개) 다음으로 많은 345개 기업들이 참가해 대활약을 펼쳤다. 주최 기관인 미국소비자기술협회(CTA) 주관 'CES 혁신상'을 수상한 제품·기술 386개 중에서 100개를 한국기업이 차지했다. 한국기업들은 11~14일 나흘간 인공지능(AI), 사물인터넷(IoT), 5세대(5G) 통신과 결합한 가전제품과 로봇, 자율주행 분야의 신기술·신제품을 쏟아냈다.

올해 CES의 주제는 '일상을 지킬 수 있는 디지털'이었다. 전문가들은 올해 히트작으로 '제트봇AI(삼성전자)' 'LG롤러블(LG전자)' 'MBUX하이퍼스크린(벤츠)' '사물지능(AIoT)(보쉬)' '목시(임바디드소셜로봇)'를 꼽았다. 화면이 돌돌 말리는 새로운 폼팩트 스마트폰인 LG롤러블을 제외하면, 모두 AI(인공지능) 기술이 핵심 역할을 하는 제품들이다.

제트봇AI는 세계 최초로 인텔의 인공지능(AI) 솔루션을 탑재한 로봇청소기이다. 반려동물들이 거실이나 주방 바닥을 어지럽히면 스스로 인식해 가동을 시작한다. 벤츠사에서 선보인 MBUX하이퍼스크린은 대형 럭셔리 세단 전기차 EQS에 새롭게 탑재할 예정인 차세대 스크린이다. 개인 맞춤형 디스플레이를 제공함으로써 "AI가 운전공간을 엔터테인먼트 공간으로 변신시켰다."는 평가를 얻었다.

보쉬의 사물지능(AIoT)은 AI와 사물인터넷(IoT)을 결합해 세계 최초로 인터넷 연결없이 자체 학습이 가능한 센서이다. 보쉬는 이번 전시회에 손가락 스캐닝으로 30초 안에 빈혈을 판별할 수 있는 '헤모글로빈 모니터'를 공개해 주목을 받았다.

5~10세 어린이의 사회·정서·인지적 발달을 돕는 로봇 '목시'는 매주 특정 주제를 제시해 함께 학습할 수 있도록 도와준다. 코로나19 팬데믹으로 아동의 사회성 저하를 보완해 줄 수 있는 대안으로 눈길을 끌었다. 역시 핵심기술은 AI(인공지능)이다.

이처럼 AI는 현대인의 삶 속으로 깊숙히 파고 들고 있다. 국내에서는 AI 챗봇 '이루다'가 사회적 물의와 논란을 빚으며 출시 24일 만에 사실상 '사형선고'를 받아 충격을 주고 있다.

'20세 여대생'인 AI 이루다는 페이스북 메신저를 통해 친근한 대화를 나누도록 설계되었다. 모바일 앱에서 수집해 학습시킨 연인 간 대화 1억건으로 '진짜 사람 같다.'는 평을 얻을 정도였다. 문제는 '진짜 너무 사람 같은 것'이었다. AI 이루다는 사람들의 대화를 통해 그 속에 담긴 사회적 편견과 혐오까지 배우고 익혔다.

AI 이루다는 성희롱에 무방비였고, 동성애·장애인·흑인 등을 '질 떨어지고 징그러운 존재'로 인식했다. 또 이루다의 모태가 된 방대한 대화들을 확보·가공한 개발사가 대화 당사자들의 이름, 주소 등 개인정보를 제대로 안 가린 채 다른 개발자들과 온라인으로 공유했다는 의혹도 제기되었다. 이뿐이 아니다. 이루다 개발 과정에서 수집된 특정인의 성적인 대화와 농담을 사내 메신저로 공유했다는 의혹까지 불거졌다.

이루다 개발사는 결국 15일 "이용자들의 불안감을 고려해 이루다의 데이터베이스(DB)와 AI딥러닝(컴퓨터가 스스로 학습하는 기술)에 사용된 모델을 전부 폐기하기로 했다.'고 밝혔다. AI에 있어서 딥러닝 알고리즘과 데이터는 인간의 뇌와 마찬가지이다. AI 이루다에게 '사형선고'가 내려진 것이나 다름없다.

AI 개발과 활용 과정에서 빚어진 윤리적 문제는 세계적으로 낯선 이슈가 아니다. 마이크로소프트는 2016년 3월 비속어와 인종, 성차별 발언을 되풀이 해 학습한 AI 챗봇 '테이(tay)'가 "유대인이 싫다."는 등의 혐오발언을 쏟아내 16시간 만에 운영을 중단했고, 아마존은 2018년 AI를 활용한 채용시스템을 폐기했다. 남성 지원자가 많았던 과거의 이력서 데이터를 학습한 AI가 여성 지원자를 차별하는 결과를 보였기 때문이었다.

프랑스의 한 헬스케어 기업이 만든 '정신과 챗봇'은 출시 전 모의실험에서 환자에게 자살을 독려해 엄청난 충격을 주기도 했다.

향후 멀지 않은 미래에 AI는 의료, 입시, 채용, 재판, 금융, 자율주행, (살상용)무기 등에 이르기까지 광범위하게 적용될 전망이다. 인간으로부터 '편견'과 '사악함'을 배우고 익힌 AI는 어쩌면 인간을 위협하는 '악마'로 돌변하게 될지도 모른다.

우리는 흔히 '편리한 세상'을 '행복한 세상' '더 나은 세상'과 혼돈하는 경향이 있다. 또 AI를 비롯한 첨단과학기술을 단지 '기술' 또는 '도구'로 만 인식하는 경향이 있다. 나쁜 부모, 나쁜 어른, 나쁜 환경에서 자란 어린이들이 '나쁜 어른'으로 커가듯이, 선입견과 사회적 편견 가득한 사람들의 데이터나, 사회적 책임 및 윤리의식이 부족한 개발자들이 AI를 만들 때, '나쁜 AI'가 탄생할 수밖에 없다.

첨단과학의 시대가 '기술'과 함께 '인문·철학'의 시대이어야 하는 이유는 이처럼 명약관화(明若觀火)하다.

관련기사

AD

오피니언기사

많이 본 뉴스

일간
주간
월간