Generation of empathetic robot facial expressions in diverse emotional situations다양한 상황에서 감정공감이 가능한 로봇의 표정 생성

Cited 0 time in webofscience Cited 0 time in scopus
  • Hit : 626
  • Download : 0
DC FieldValueLanguage
dc.contributor.advisorChung, Myung Jin-
dc.contributor.advisor정명진-
dc.contributor.authorPark, Jeong Woo-
dc.contributor.author박정우-
dc.date.accessioned2016-05-03T19:40:40Z-
dc.date.available2016-05-03T19:40:40Z-
dc.date.issued2015-
dc.identifier.urihttp://library.kaist.ac.kr/search/detail/view.do?bibCtrlNo=615672&flag=dissertationen_US
dc.identifier.urihttp://hdl.handle.net/10203/206923-
dc.description학위논문(박사) - 한국과학기술원 : 전기및전자공학과, 2015.2 ,[vii, 78 p. :]-
dc.description.abstract지난 십 수년 동안 로봇의 감정 표현에 관한 많은 연구가 진행되었다. 초기 연구는 로봇에서 얼굴 표정을 구현하는 것에 초점이 맞추어졌으며, 최근에는 로봇의 제스처 생성에 관한 연구가 주를 이룬다. 물론, 로봇의 제스처와 얼굴 표정 혹은 다른 표현 수단 (sound, voice, LED, wheel 등) 과의 동기화에 대한 연구도 진행되고 있다. 이러한 노력에도 불구하고 여전히 사람과 로봇의 감정 표현 사이에는 괴리감이 존재 한다. 본 논문은 다양한 상황에서 사람과 로봇의 상호 작용을 돕기 위하여 사람들이 공감할 수 있을만한 로봇의 표정을 생성하는 방법을 제안한다. 사람들이 로봇의 표정에 쉽게 공감하기 위해서는 우선 사람들의 표정을 잘 따라 할 수 있어야 한다. 그리고 애니매이션 캐릭터에서 알 수 있듯이 과장된 표정도 인식률 측면에서 도움이 된다. 기존 연구들의 가장 큰 문제는 로봇의 얼굴을 이용한 표현력을 더욱 증대 시키기 보다는 다른 모달리티를 이용하여 얼굴 표정을 보완하려고 하였다. 얼굴 표정을 만들기 위해 액츄에이터들은 목표지점으로 이동시키기만 하고 제스처, 목 움직임, LED 등으로 표현력을 증대 시키고자 하였다. 하지만 실제 감정 표현과 관련된 것은 다른 모달리티에 비해 얼굴 표정이 절대적이다. 그래서 본 논문에서는 단순히 표정과 관련된 액추에이터들을 목표 지점으로만 보내는 것이 아니라, 어떻게 보낼지 그리고 목표 지점에 도착 한 뒤의 움직임을 고려함으로써 사람들이 다양한 상황에서 나타낼 수 표정들을 로봇에서 구현 할 수 있도록 하였다. 제안하는 방법은 크게 두 부분으로 나뉘어진다. 첫째, 로봇 표정의 자연스러운 변화와 사람의 표정 다이나믹스를 로봇에서 구현하기 위하여 감정의 다이나믹스 모델을 만들었다. 이 때, 사람의 표정변화와 애니매이션 캐릭터의 움직임 생성 원리를 바탕으로 9 가지의 기본 감정 다이나믹스를 제안함으로써 동일한 감정에 대해서도 상황에 따라 로봇이 다른 다이나믹스를 가지는 표정을 만들 수 있도록 하였다. 다음으로, 로봇에서도 사람의 흐느끼는 표정, 우는 듯한 표정, 박장 대소하는 표정 등을 구현하였다. 이러한 표정은 다이나믹스의 변화만으로는 구현하기 힘들기 때문에 얼굴 움직임이라는 개념을 도입하고 적용하였다. 본 논문에서 제안된 방법의 효과를 검증하기 위하여 세 가지 실험을 수행하였다. 첫 번째 실험은 제안하는 모델의 적용 여부에 따른 로봇 표정 변화의 생동감 비교에 관한 것이다. 두 번째는 제안된 방법을 이용한 로봇의 표정과 사람의 표정 비교에 대한 것이다. 마지막 실험에서는 다양한 상황에서 제안된 방법의 적용 여부에 따라 어느 것이 더 사실적으로 표정을 만들어내는지 비교하였다. 위 세 가지 실험의 결과, 제안하는 방법을 사용하였을 때 로봇의 표정 변화가 더 자연스럽고, 사람의 표정도 잘 따라 하며, 감정이 발생할 수 있는 다양한 상황에서 사람들이 더 공감할 수 있는 표정을 만들어 낼 수 있음을 확인하였다.-
dc.languageeng-
dc.publisher한국과학기술원-
dc.subjectEmpathetic Facial Expressions-
dc.subjectFacial Dynamics-
dc.subjectFacial Actions-
dc.subjectDiverse Emotional Situations-
dc.subject공감할 수 있는 표정-
dc.subject얼굴 다이나믹스-
dc.subject얼굴 움직임-
dc.subject다양한 감정 상황-
dc.titleGeneration of empathetic robot facial expressions in diverse emotional situations-
dc.title.alternative다양한 상황에서 감정공감이 가능한 로봇의 표정 생성-
dc.typeThesis(Ph.D)-
dc.identifier.CNRN325007-
dc.description.department한국과학기술원 :전기및전자공학과,-
dc.contributor.localauthorChung, Myung Jin-
dc.contributor.localauthor정명진-
Appears in Collection
EE-Theses_Ph.D.(박사논문)
Files in This Item
There are no files associated with this item.

qr_code

  • mendeley

    citeulike


rss_1.0 rss_2.0 atom_1.0