[트렌드 리포트] "AI는 정말 감정을 담을 수 없을까?"...英서 감정 표현 가능한 AI 아바타 개발
[트렌드 리포트] "AI는 정말 감정을 담을 수 없을까?"...英서 감정 표현 가능한 AI 아바타 개발
  • 임남현 기자 nhlim@dailyenews.co.kr
  • 승인 2024.04.26 16:51
  • 댓글 0
이 기사를 공유합니다

영국 스타트업 신시아, 배우처럼 몸짓, 억양 조절 가능한 AI 아바타 제작 성공해
신시아가 제작한 AI 아바타. (사진=신시아)

영국의 한 스타트업이 AI를 활용한 아바타, 일명 'AI 배우'를 만드는 데 성공했다고 25일(현지시간) 밝혔다.

TNW에 따르면 영국의 스타트업인 신시아(Synthesia)는 실제 배우 영상을 바탕으로 AI를 교육해 제작된 것으로 알려졌다. 이를 통해 사용자가 텍스트를 입력하면 아바타가 해당 내용을 읽어주는 것이다.

딥페이크는 머신러닝과 딥러닝을 기반으로 한 AI 합성 기술을 뜻한다. (사진=데일리e뉴스)

신시아의 기술은 일종의 딥페이크 영역에 해당한다.

딥페이크는 AI로 생성된 합성 조작물을 뜻하는 명칭이지만 일반적으로는 영상에 AI를 입혀 실제처럼 만드는 것으로 사용된다.

또한 머신러닝 및 딥러닝을 기반으로 삼는 기술 중 하나다. 

기존에는 사람의 얼굴을 컴퓨터 그래픽을 통해 변경하기 위해서는 프레임 하나하나를 확인하며 수정을 진행해야 했다. 

물론 프로그램을 통해 전체적인 효과, 일부 이미지 왜곡이나 변경이 가능하긴 했지만 이 역시 연결 장면에서는 제대로 대상을 인식하지 못하는 등의 문제가 발생했다.

기존 합성 영상은 사람이 직접 프레임을 확인하며 수정을 진행해야 하는 등의 번거로움이 있었다. (사진=pixabay)

그러나 머신러닝과 딥러닝은 인공 신경망을 기반으로 작동한다. 일정 수준이 넘어가면 훈련에 필요한 데이터를 자동으로 학습, 심화 과정을 거치며 결과물도 더 높은 품질로 제공한다.

최근에는 작업 시간까지 빨라지며 몇 분 만에 딥페이크 영상을 만들어내는 업체도 늘어났다. 

다만 이는 어디까지나 기준이 되는 영상에서 데이터를 추출하는 것인 만큼 사용자가 지정한 큰 틀을 벗어나지는 않는다.

예를 들어 사용자가 시상식에서 상을 받는 모습의 딥페이크 영상을 제작하고자 한다면, 기존 유명 시상식의 모습에 사용자의 얼굴과 음성을 입히는 것은 가능하다. 프로그램에 따라서는 지정한 대사를 읊게 하는 것도 가능은 하나 이에 따른 사용자의 감정적 반응까지 표현하는 건 어려운 일이다.

신시아의 AI 아바타는 입력된 대본을 바탕으로 스스로 감정을 예측해 이를 표현한다. (사진=신시아)

신시아의 AI 아바타가 주목받는 건 이 때문이다.

신시아의 아바타는 기존 딥페이크 프로그램과 같은 정교한 얼굴을 바탕으로 지정된 대본에 감정을 실어 표현하는 것이 가능하다. 

이 이바타는 회사 측이 자체적으로 개발한 '자동 감정 예측' 시스템을 통해 주어진 대본에서 톤, 몸짓, 얼굴 표정을 스스로 추론해 사용자에게 보여준다. 동일한 대본을 주더라도 상황과 감정을 다르게 해석해 새로운 장면을 생성한다.

말 그대로 디지털 배우인 셈이다.

신시아 측은 "이번 아바타는 확실히 자신의 감정을 표현할 뿐만 아니라 콘텐츠 속에 담긴 감정을 이해할 수 있는 첫 번째 아바타"라고 강조했다.

신시아의 AI 아바타는 아마추어 배우 수준의 감정을 표현 가능한 것으로 알려졌다. (사진=신시아)

하지만 신시아의 아바타는 아직 초기 단계에 머무는 만큼 뛰어난 배우의 모습보다는 아마추어 배우에 가까운 연기력을 보여주고 있다.

신시아의 프로그램을 체험해 본 TNW 측은 "감정을 다소 과장하는 성향이 있다"고 평가하기도 했다. 

뿐만 아니라 기술의 한계로 머리, 얼굴, 어깨에만 이미지가 한정된다는 점도 단점으로 꼽힌다. 사용자가 직접 카메라 앵글을 설정할 수 없어 표현의 한계가 생긴다.

신시아 측은 이런 한계점을 해결해 향후 교육, 프레젠테이션, 마케팅 분야 등에 자사의 아바타를 활용할 수 있도록 지속적인 개발을 이어가겠다는 입장을 밝혔다.

딥페이크는 가짜뉴스, 초상권 침해, 금융 사기 등 범죄에 이용될 수 있다. 사진은 AI가 제작한 딥페이크를 악용하려는 사용자의 모습. (사진=데일리e뉴스)

한편 신시아의 AI 배우를 비롯한 딥페이크 기술이 발전할수록 이에 대한 우려도 커지고 있다.

점차 손쉽게 정교한 영상을 만들 수 있는 환경이 갖춰지다 보니 허위 정보가 퍼질 위험이 높고 초상권, 저작권 등이 모호해지기 때문이다.

유명인들의 얼굴을 합성한 딥페이크 영상으로 가짜뉴스를 전달하는 사례가 대표적이다. 

이를 방지하기 위해 각 국가와 기업들도 딥페이크 탐지 모델을 마련하거나 관련 법안을 논의 중에 있다.

신시아 역시 "자사의 아바타가 부정적으로 활용되는 것을 막기 위해 현재 60건 이상의 불법 활용 사례를 금지, 제한 중이며 별도의 정기 감사를 거친다"고 밝혔다. 

[데일리e뉴스= 임남현 기자]



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 서울특별시 마포구 만리재로 14 르네상스타워 1506호
  • 대표전화 : 02-586-8600
  • 팩스 : 02-582-8200
  • 편집국 : 02-586-8600
  • 광고마케팅국 : 02-586-8601
  • 청소년보호책임자 : 임남현
  • 법인명 : (주)데일리경제뉴스
  • 제호 : 데일리e뉴스
  • 등록번호 : 서울 아 05140
  • 등록일 : 2018-04-25
  • 발행일 : 2018-05-01
  • 대표이사/발행인 : 김병호
  • 편집인 : 정수성
  • 「열린보도원칙」 당 매체는 독자와 취재원 등 뉴스이용자의 권리 보장을 위해 반론이나 정정 보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알려드립니다.
  • 고충처리인 김병호 02--586-8600 dailyenews@naver.com
  • 데일리e뉴스 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 데일리e뉴스. All rights reserved. mail to dailyenews@naver.com
ND소프트