Trend & Issue/@AI & Data

⊙당신의 감정을 읽는 '인공지능' 세상이 온다.

Paul Ahn 2009. 4. 10. 09:32

⊙당신의 감정을 읽는 '인공지능' 세상이 온다.

http://www.newstomato.com/ReadNews.aspx?no=614979

 

원격의료·우울증 진단 등에 활용 기대프라이버시·오남용 문제는 해결과제 

 

한 여자가 집에 들어서더니 힘든 일이 있었던 듯 흐느끼며 맥주를 마신다. 그를 한참 쳐다보던 로봇이 "울지 마세요. 까꿍!"하며 여자를 위로하고 웃음을 준다. 소프트뱅크가 만든 감정인식 로봇 '페퍼(Pepper)'의 광고 속 모습이다.

 

소프트뱅크는 "SF가 아닙니다"라며 페퍼를 홍보한다. 실제로 감정인식 로봇은 이미 생활 속에 들어왔다. 미즈호은행은 도쿄 소재 일부 지점에서 페퍼를 통해 간단한 고객응대를 하고 있다. 매월 1000대씩 한정판매되는 가정용 페퍼는 매번 1분 만에 매진되고 있다. 3년간 117만엔( 1200만원)에 달하는 높은 사용·유지비가 무색한 인기다.

 

최근에는 페퍼의 두뇌로 IBM 인공지능 컴퓨터 왓슨(Waston)을 탑재키로 결정하며 한층 업그레이드된 활약이 기대되고 있다. 최근에는 페퍼 이외에도 다양한 인공지능 감정인식 기술이 상용화를 기다리고 있다.


일본 소프트뱅크의 인공지능 로봇 '페퍼'는 사람의 감정을 인식하고 감정을 표현할 수 있다

사진은 광고 속 페퍼의 모습. 사진/유투브

 

지난해 말과 올 초 포춘과 워싱턴포스트(WP) 등 주요 외신들은 올해가 "감정인식 인공지능의 해가 될 것"이라고 점친 바 있다. 그리고 지난 7일 애플은 해당 기술을 개발하고 있는 업체인 이모션트(emotient)를 깜짝 인수한다는 소식을 밝혔다. 컴퓨터가 사람 얼굴을 읽는 것은 새로운 기술은 아니다. 이미 페이스북과 구글 등에서는 컴퓨터가 얼굴을 자동으로 인식해 태그를 달아주고 사진을 분류해주고 있다. 하지만 사진 속 주인공이 기쁜지 슬픈지를 파악하는 것은 또 다른 문제였다.

 

 

카메라 발전과 정교해진 머신러닝 기술 덕분

 

앤드류 무어 카네기멜론대 컴퓨터공학과 학장은 과학전문지 '사이언티픽아메리칸'의 객원블로그를 통해 감정인식 인공지능의 발달에는 "카메라 기술과 컴퓨터시각알고리즘의 영향이 컸다"고 설명했다.

 

사람의 얼굴 표정을 이해하기 위해서는 미묘한 변화를 모두 알아차릴 수 있어야 한다. 뺨 근육이 긴장되는지 이완되는지, 눈썹이 어떻게 움직이는지, 입모양은 어떤 모양으로 변화하고 있는지를 모두 파악하고 이해해야 하는데 얼마 전까지만 해도 카메라는 이 같은 세세한 변화를 인식할 수 없었다. 카메라 렌즈에는 사람 얼굴이 그저 한 덩어리의 살구색 혹은 핑크색으로 보였기 때문이다. 하지만 지금은 보급형 스마트폰에도 고해상도 카메라가 들어갈 정도로 기술이 발달해 표정을 읽는 것이 한층 수월해졌다.

 

또 컴퓨터의 연산능력과 메모리도 발달해 훨씬 더 복잡하고 정교한 기능을 수행하는 것이 가능해졌다. 시각알고리즘 자체도 훨씬 더 효율적이면서도 정확하게 운영할 수 있게 됐으며 실시간 피드백도 가능해졌다. 또한 머신러닝 기술이 발달하면서 기계가 인간 표정에 대한 대규모 데이터베이스(DB)를 학습하고 적용하는 일도 빨라졌다. 더 많은 데이터가 축적될수록 기계는 더 똑똑해지게 된다.

 

 

카네기대 연구팀·MS 등 다양한 곳에서 실험중

 

카네기멜론대 로봇연구소가 개발한 감정인식 프로그램 '인트라페이스(Intraface)'는 스마트폰 카메라를 통해 실시간으로 사용자의 기분을 분석한다. 슬픔·혐오·중립·놀람·기쁨 등 5가지 감정을 분석해 막대그래프로 정도를 표현한다. 연구진은 감정인식을 위해 먼저 기계에 일반적인 얼굴을 인식하고 추적하는 법을 가르쳤다. 이후에 개인 얼굴을 파악해 감정을 분석하는 알고리즘을 입력해 정확하고 효율적으로 개인의 감정을 추적할 수 있도록 했다.

 

무어 교수는 "거짓반응과 즉각적인 반응은 나타나는 타이밍이 다른데 컴퓨터가 그 시간까지 포착해낼 수 있다" "감정을 연기해 컴퓨터를 속이는 것은 쉽지 않을 것"이라고 말했다. 연구진은 임상실험으로 우울증 진단에 인트라페이스를 사용하고 있는데 음성과 표정의 미묘한 시간차를 인지해 우울증의 정도까지 파악하는 것으로 전해졌다.

 

마이크로소프트(MS)도 머신러닝 실험소인 '프로젝트 옥스퍼드'를 통해 감정인식 기술을 선보였다. 분노·멸시·공포·혐오·행복·슬픔·놀람·중립 등 8가지 감정을 분류해낼 수 있다. 합계가 1이 되도록 각각의 감정을 수치화한다. 홈페이지에 사진을 업로드 하면 사진 속 인물의 감정을 알려주는데 인물화도 사용할 수 있다. 묘한 미소로 유명한 레오나르도 다빈치의 '모나리자' MS의 감정인식 기술로 분석해 보면 44% 행복하고 55% 증립적인 것으로 나타났다. 이 밖에도 MS는 지난해 초 사진 속 얼굴을 인식하고 나이를 추측할 수 있는 소프트웨어를 공개하기도 했다.

 

마이크로소프트는  프로젝트 옥스퍼드를 통해 사진 속 인물의 감정을 분석하는 기술을 선보였다. 레오나르도 다빈치의 '모나리자'를 넣어본 결과  모나리자는 44% 행복감을 느끼고 55%는 중립적인 감정인 것으로 나타났다. 사진/마이크로소프트

 

이모션트는 주의집중(attention)·참여(engagement)·감정(sentiment) 3가지를 핵심성과지표(KPI)를 주축으로 사용자의 감정을 측정한다. 회사 측은 감정인식 결과를 바탕으로 광고와 홍보, 상품 등의 가치를 산출해 마케팅의 효율성을 높일 수 있다고 설명하고 있다.

 

이모션트는 혼다자동차와 프록터앤갬블(P&G) 등과 함께 홍보활동을 펼친 바 있다. 지난해 5월에는 하루에 10만명의 얼굴 이미지를 분류하고 측정할 수 있는 특허를 취득하기도 했다. 애플은 이모션트의 인수 목적을 밝히지는 않았으나 타임과 월스트리트저널(WSJ) 등 주요 외신은 사진 분류나 마케팅, 증강현실 및 인공지능 기술 등에 활용될 수 있을 것으로 전망했다.

 

현재는 판매가 중단된 기기지만 구글글래스를 통해서도 실시간으로 상대방의 감정을 포착할 수 있다. 독일 프라운호퍼연구소는 지난 2014년 구글글래스를 통해 상대방의 감정 상태는 물론 나이와 성별까지 측정할 수 있는 애플리케이션을 공개한 바 있다. 이밖에도 감정인식 기술을 연구·개발 중인 스타트업은 많다. 어펙티바(Affectiva)는 웹캠을 통해 코카콜라와 유니레버 등의 광고를 보는 소비자의 감정을 측정했으며 영국 업체인 크라우드이모션은 BBC의 인큐베이팅프로그램에 포함된 이후 '셜록' 등 드라마나 TV쇼에 대한 시청자 반응을 모니터링 하는 데 사용되고 있다.

 

 

인간과 기계의 원활환 의사소통 기대

 

감정인식 기술은 아직 시작단계지만 인간과 기계 사이의 의사소통이 훨씬 자연스러워지고 풍부해지도록 하는데 큰 역할을 할 전망이다. 지금까지 컴퓨터는 얼굴 표정을 읽을 수 없었기 때문에 문자 및 음성언어를 이해하고 해석하는 데에 집중해왔다. 하지만 사람과 사람이 얼굴을 맞대고 대화할 때에는 표정 변화나 제스처와 같은 비언어적 요소가 매우 중요한 역할을 한다. 컴퓨터가 인간의 표정을 읽을 수 있게 된다면 사람과 사람이 마주보고 말하듯이 인간과 기계가 소통할 수 있게 되는 것이다.

 

응용 가능성이 가장 기대되는 분야는 의료와 교육 부문 등이다. 기계가 보다 정확하게 사람의 감정 상태를 파악할 수 있다면 우울증 진료에 효과적으로 사용될 수 있다. 네이션지에 따르면 듀크대 의료연구팀은 자폐증 검사에도 관련 기술을 사용하고 있다. 또한 병·의원 접근도가 떨어지는 교외지역에서 원격의료를 시행할 때에도 환자의 통증 수준을 계량화해 알 수 있어 보다 정확한 진료가 가능해진다.

 

교육 현장에 감정인식 기술이 적용될 경우 많은 학생의 참여도를 높일 수 있을 전망이다. 수업에 집중하지 않고 있는 학생을 찾아내는 것은 물론 학생들의 수업 이해도와 참여도를 수치로 확인하는 것도 가능해질 수 있다. 의사소통이 가능한 가상의 친구는 학생들의 수업 참여도를 끌어올리기도 한다. 카네기멜론대에서 실물크기로 가상의 어린이를 수업에 적용하는 실험을 한 결과 가상의 친구가 학생들의 감정에 적절히 반응할 경우 학습 참여도가 높아지는 것으로 나타났다.

 

또한 운전자의 상태를 파악해 주의를 환기할 수 있으며 회의나 강연회에서 청중의 반응을 파악하는데 사용될 수도 있다. 이미 일부에서 활용하고 있는 것처럼 광고주나 마케터, 영화제작자 등이 상품에 대한 보다 정교한 반응을 얻도록 도움을 줄 수도 있다.

 

걸림돌은 '프라이버시' 등 윤리적 문제다. WP "예상하지 못하는 순간에도 눈앞에 있는 카메라가 당신의 기분이 어떤지 측정하는 것은 페이스북 사진에 태그가 달리는 것과는 또 다른 문제"라고 지적했다.

 

감정인식 기술이 가게의 도둑이나 테러리스트를 색출하는 데에 사용될 수도 있다. 이 경우 기술의 적용 범위는 범죄 이력을 바탕으로 한 포트폴리오와 대조해 범인을 찾아내는 데 그치지 않을 것이다. 가게에 들어서는 사람 중 수상한 감정을 보이는 사람, 거리에 있는 인파 중 특히 긴장돼 보이는 사람을 색출해 잠재적 범죄자 취급을 하게 되는 것으로 윤리적 타당성을 반문해봐야 할 일이다.

 

1970대에 이미 5000여개의 얼굴 근육의 움직임을 분석해 감정인식 기술의 토대를 마련했던 저명한 심리학자인 폴 에크만은 "감정인식 기술의 잠재력과 개인정보 침해에 대한 책임 사이에서 괴로움을 느낀다"고 토로한 바 있다. 그는 "균형감 있게 사용한다면 이점이 훨씬 많은 기술이지만 남용될 가능성이 매우 높다"며 정부 차원에서 개인정보 보호를 위한 규제를 마련해야 할 것이라고 지적했다.

 

2016-01-12

원수경 기자 sugyung@etomato.com