본문 바로가기

이코노미스트

인공지능 어디까지 믿을 수 있을까?

인공지능은 과연 만능일까요? 모든 신기술에는 양면성이 있고 이는 인공지능 기술도 마찬가지예요. 지금까지 드러난 AI의 기술적 한계와 문제점을 짚어보고, 대안 기술의 필요성을 살펴보았어요.

 

 

뇌는 거짓말쟁이다. 유튜브 콘텐트를 선택할 때 사용자가 진짜 보고 싶은 것보다는 남들이 많이 본 영상이나 화려한 섬네일, 자극적 제목에 신호를 보낸다. 수면시간을 묻는 설문조사에서는 하루 8시간 이상 충분히 자고 있음에도 4~5시간 밖에 못 잔다고 적어 낸다. 스스로 열심히 살고 있다는 자기만족을 위해 뇌가 거짓 정보를 보낸 것이다.

인간의 욕구는 다중적이며 통제가 어렵다. 개개인의 본능과 사회적 가치의 실현 경향성 간 괴리는 불가피하며, 많은 경우 자신을 속이는 판단으로 이어진다. 사람의 행동과 판단은 주체·객체일 때가 다르다. 자아분열적 성향도 안고 있다. 뇌의 거짓말은 태생적 특성이며 이는 복잡계 세상에 여러 가지 형태로 반영된다.

추천을 비롯해 대중적으로 사용하는 인공지능(AI) 알고리즘은 인간의 불완전성에서 비롯된 데이터를 근거로 삼는다. 이런 AI를 어디까지 믿을 수 있을까. 구글·유튜브·페이스북 등 많은 IT 플랫폼 사업자들은 AI 알고리즘을 활용해 추천 서비스를 제공한다. 과연 이런 데이터를 신뢰할 수 있으며 알고리즘은 완벽할까. 혹시 부작용은 없을까.

실제로 최근 유튜브의 추천 서비스가 사용자의 편향성과 고정관념을 강화한다는 지적이 잇따르고 있다. 지난 8월 21일 서울 광화문 프레스센터에서 한국방송학회·한국심리학회 주최로 열린 ‘유튜브와 정치 편향성, 그리고 저널리즘의 위기’ 세미나에서 유튜브 사용자들의 확증편향 문제가 제기됐다.

유튜브는 사용자가 구독 중이거나 시청한 영상의 특징을 분석해 사용자에게 새로운 콘텐트를 추천하는 알고리즘을 사용한다. 이 때문에 정치적으로 보수적인 사람에게는 보수적 콘텐트를, 진보적인 사람에게는 진보적 콘텐트를 주로 추천한다.

이런 추천 시스템은 사용자의 정치적 편향성과 고정관념을 강화해 가짜뉴스 등 거짓을 수용하거나 사실을 부정하는 심리적 기제를 유발한다. 이날 발표된 연구조사 결과에 따르면 한국 유튜브 시청자 중 59%가 가짜뉴스를 구분하기 어렵다고 답했다. 최홍규 EBS 미래연구소 연구위원은 “유튜브 이용 시간이 길수록 정치 콘텐트가 편파적이지 않고 자기 의견과 유사하다고 느낀다”며 “이 경우 추천 알고리즘에 대한 신뢰도 역시 높다고 응답한다”고 설명했다.


“유튜브 이용시간 길면 편향성 심화”

 

 

이런 부작용에도 AI 추천 서비스는 날로 확산하고 있다. 페이스북은 사용자와 성향이 비슷하고, 같은 회사·학교 출신의 친구를 추천하며, 온라인 쇼핑몰도 사용자가 검색한 제품과 유사한 상품을 띄워준다. AI를 추천 시스템으로 사용하는 기업은 대체로 거대 플랫폼 사업자다.

이런 가운데 손 마사요시(孫正義) 소프트뱅크 회장이 7월 4일 문재인 대통령을 만나 AI의 성장성을 세 차례나 강조하는 등 주요 인사의 AI 예찬론이 이어지고 있다. 이런 발언은 AI에 대한 대중적 신뢰를 키운다. 현재 AI는 전가의 보도, 만능열쇠처럼 받아들여지기 시작했다. 사람이란 한번 신뢰를 가진 객체에 대한 판단을 쉽게 바꾸지 않는다. AI를 믿기 시작하면 그대로 우리 삶에 뿌리내릴 가능성이 크다는 뜻이다.

다만 사람은 짜장면이냐 짬뽕이냐의 간단한 선택 과정에서도 수많은 고민과 고려를 한다. 그날 컨디션과 전날 먹은 메뉴, 날씨, 순간의 기분 등 무수한 비합리적 근거를 활용한다. 시시각각 변하는 인간의 감성 영역에서 AI는 불완전한 존재다. 알파고가 이세돌 9단에 승리한 것은 이성적 사고와 판단만 작동하는 바둑이었기 때문에 가능한 일이었다.

의류 쇼핑몰의 추천을 어디까지 믿을 수 있을까. ‘하늘거리는’ ‘깃이 바로 선’ ‘반투명’ ‘실크 재질’ ‘음영 물방울’ 등 비구체적 검색어 빅데이터는 신뢰성의 문제를 안고 있다. 이를 통한 AI 추천 역시 믿기 어려울 수밖에 없다. 유효상 서울과학종합 대학원 교수는 “AI 추천 서비스는 사용자의 특성과 무관하게 공급자가 원하는 결과를 노출하는 마케팅 용도로 발전할 가능성이 크다”며 “결국 사용자는 추천 결과와 알고리즘 구성을 어디까지 신뢰할 수 있느냐는 신뢰 문제를 노출할 것”이라고 내다봤다.

페이스북의 초기 성장을 이끈 차마스 팔리하피티야 소셜캐피털 최고경영자(CEO)도 미국 강연에서 페이스북을 “도파민이 움직이는 단기 피드백의 순환고리”라고 평가하며 “지구적으로 사회적 담론과 협력은 사라지고 왜곡된 정보와 거짓만 남았다”고 비판했다. 추천 서비스 덕분에 사용자는 직접 자신과 맞는 지인이나 원하는 제품을 찾아 헤매는 수고를 덜었지만, 정보의 편향성과 쏠림 현상이 커지는 부작용이 나타나고 있는 셈이다.

사실 추천 서비스의 알고리즘 기술도 불완전하다. AI는 궁극적으로 초개인화를 지향한다. 수많은 빅데이터와 개인의 검색 정보 등을 이용해 사용자에게 최적화된 값을 찾는다. 다만 이 한 개인에게 맞춰진 추천 알림은 한번 굳어지면 변하지 않는다.

예컨대 19세 고등학생 사용자가 대학입시·리그오브레전드·연애 등을 주요 검색어로 활용했다면, 이 사용자가 30세가 돼도 이 키워드는 잘 바뀌지 않는다. 사람의 관심사와 생각이 달라져도 AI 알고리즘은 이를 반영하지 못하는 것이다. AI 업체들은 이런 문제를 보완하기 위해 20대 초·중·후반, 30대 초·중·후반 등 나이대별로 그룹화한 결과를 사용자에게 제시한다. 그러나 이는 초개인화를 지향하는 AI 추천 서비스의 본질에 역행하는 대처법이다. 또 세대 성향 분석 등을 개인 서비스에 반영하는 것은 개인의 성향과 무관한 인위적 간섭이다.


‘디지털 넛지 효과’ 초래

 

 

개인정보와 사용자의 데이터를 상업적 목적으로 활용할 가능성도 커진다. 현재 구글은 개인의 G메일 서비스를 수익원으로 활용 중이다. 사용자가 작성하는 e메일 내용에 맞춰 관련 제품·서비스를 추천하는 식이다. 예컨대 호감 가는 이성에게 e메일을 작성하면 중요 키워드를 갈무리해 선물 사이트를 추천해준다. 해외 논문과 관련한 e메일 주고받으면 이 논문을 번역해줄 업체를 추천한다. 사용자의 개인적 활동을 광고 플랫폼으로 활용하고 있는 것이다.

선거철 댓글 부대나 블로그 바이럴 마케팅처럼 플랫폼 혹은 사용자들이 알고리즘을 이용해 인위적으로 추천 시스템을 조작할 가능성도 있다. 빅데이터를 확보하지 못했더라도 AI 알고리즘으로 포장한 서비스가 등장할 수도 있다. AI의 탈을 쓴 일종의 ‘디지털 넛지 효과’가 커질 수 있다. 넛지 효과란 남성 소변기 속 파리 그림처럼 제공자가 원하는 방향으로 사람들을 유도하는 방법을 뜻한다.

 

황보현우 하나벤처스 상무는 “국내에서는 네이버 정도를 제외하고는 데이터가 부족해 제대로 추천 알고리즘을 활용할 수 있는 업체가 없다”며 “온라인 쇼핑몰 판매자가 블로그 마케팅처럼 키워드를 사용해 자기가 원하는 제품을 추천 서비스의 상위로 올리는 등의 조작 가능성도 있다”고 설명했다.

AI 추천이 아직 한계가 있고, 여러 문제를 일으키고 있지만, AI에서 비롯된 문제의 책임은 오롯이 사용자가 져야 한다. 플랫폼 사업자의 빅데이터가 유출될 경우 그 피해는 데이터에 기여한 사용자가 입을 가능성이 크다. 자율주행차가 사고를 냈을 때 책임은 운전자가 진다.

해나 프라이 런던대 교수는 자신의 책 [안녕, 인간]에서 자동 운항 시스템 문제와 조종사의 미숙한 조정으로 2009년 발생한 에어프랑스 항공기 AF447편 추락 사고를 언급하며 “인간이 지나치게 많은 것을 객관화하고 자동화하려 해서 오히려 개인정보 침해와 같은 문제를 얻었다”고 지적했다. 프라이 교수는 알고리즘이란 어떤 목표에 달성하기 위해 거치는 여러 단계의 절차이기 때문에 인간과 기계학습 알고리즘 간에 분업이 필요하다는 주장도 펼친다.

올 초에는 영화 [신과 함께] 원작자 주호민씨의 유튜브 방송 댓글 기능이 차단되는 일이 벌어졌다. 유튜브가 어린이 제작자를 보호하기 위해 2월 28일부터 어린이 방송에 댓글 기능을 차단한 영향을 받은 것 아니냐는 관측이 힘을 얻었다. 유튜브 이미지 인식 시스템이 머리카락이 없는 주씨를 어린이로 인식했을 법하다는 것이다.

 

유튜브는 인건비 절감을 위해 이미지 인식과 이를 자동 분류하는 AI 알고리즘을 전향적으로 도입하고 있다. 이와 관련해 유튜브는 별도의 입장을 내놓지 않았다. 다만 AI가 단순 이미지 분석·분류 업무를 수행하는 데도 한계가 있음을 노출한 셈이다.


성인 사용자를 어린이로 인식하기도

 

 

이처럼 AI는 아직 가다듬어야 할 불완전한 도구다. 또 당장 부가가치를 생산하기보다는 비용을 아끼는 수단으로 활용될 가능성이 크다. 그런데도 꿈에 부푼 투자금이 대거 몰리고 있다.

미국에서는 한국의 제약·바이오 기업 거품 논란처럼 AI 기업에 대한 과잉 투자 논란이 일고 있다. 미국의 시장조사 전문기관 피치북에 따르면 AI 스타트업에 대한 투자는 지난해 310억 달러에 이르렀다. AI 기업을 뜻하는 ‘.ai’ 도메인을 사용하는 기업은 2배로 증가했다. 런던의 MMC벤처스가 2830개 기술 스타트업을 분석한 결과 AI 기술이 있는 스타트업은 다른 곳보다 투자금을 15~50% 더 받았다.

 

그러나 AI 스타트업 중 40%는 제품에 AI를 사용했다는 증거가 없었다. 미국 MIT가 발행하는 ‘MIT 슬로언(MIT sloan)’은 “AI 기업들은 수익성을 높일 명확한 길이 없다”며 “대부분 AI 알고리즘은 무료이거나 저렴한 가격에 제공되며 신생 기업은 일반적으로 데이터도 없다”고 지적했다.

이런 가운데 월스트리트저널(WSJ)은 최근 애플리케이션 개발 AI 플랫폼 스타트업 ‘Engineer.ai’에 대한 의혹을 폭로하기도 했다. 이 회사는 모바일 애플리케이션 등 프로그램 개발의 초기 과정을 AI가 대신하는 기술을 개발한 플랫폼 회사로 알려졌다. 코딩 지식이 없어도 프로그램을 개발할 수 있다고 홍보하며 소프트뱅크가 3000만 달러를 투자하는 등 글로벌 IT 기업들로부터 적지 않은 투자를 유치했다.

WSJ은 실제로는 대부분 개발 작업을 사람이 직접 한다는 의혹을 제기하며 AI 기술에 대한 의구심을 키웠다. Engineer.ai도 AI가 아닌, 개발 재하청 방식일 거란 의혹이 증폭됐다. 실제 미국 실리콘밸리에서는 일부 개발자들이 인건비가 저렴한 인도 등지의 개발자에게 개발 용역을 맡기고 월급을 타간 일이 발생해 문제가 된 바 있다. 이와 관련해 미국의 IT 전문 매체 ‘더버지(The Verge)’는 “신생 기업들은 AI라는 과대광고를 통해 실제 제공할 수 없는 기술을 구축하려 하며, 그 결과 더 많은 돈을 벌고 있다”고 비판했다.

고령화와 인구 감소로 일손 부족에 시달리는 일본에서는 은행·보험·통신사 등이 고객 상담 업무를 AI로 해결하려고 하고 있다. 일본은 미국·중국과 어깨를 견줄 정도로 AI 관련 특허출원 건수가 많으며, 노동집약적 분야를 중심으로 AI가 보편화한 국가다. 다만 일본 시장조사기관 MM종합연구소의 조사에 따르면 AI를 도입한 일본 기업의 23%가 ‘예상보다 해결할 수 있는 일이 적었다’고 응답하는 등 기대에 못 미치는 실정이다.


AI 스타트업 10곳 중 4곳 AI 사용 안 해


이런 한계는 추천·금융뿐만 아니라 의료·모빌리티 분야도 크게 다르지 않다고 전문가들은 말한다. 일본에서 손꼽히는 AI 연구자인 마쓰오유타카(松尾豊) 도쿄대 교수도 닛케이비즈니스에서 “많은 기업이 마케팅 목적으로 단순한 IT 활용을 AI 도입으로 바꿔 말할 뿐”이라며 “AI에 대한 논의가 무성하지만, 내용이 없는 거품에 지나지 않으며 (거품이) 언제 꺼져도 이상하지 않다”고 지적했다.


김유경 기자 neo3@joongang.co.kr

 

이코노미스트

취향 저격수 넷플릭스, 이제 취향의 폭 넓힌다?!

칼 대지 않고 몸속 질환을 발견하는 휴대기기!?

의존적일수록 '결정장애'가 될 확률이 높다?

2019 경제성장률도 하락, 위기 극복 방안은?

모르면 나만 손해! 소액결제 환불제도