Attention 기반 end-to-end 음성인식 개선을 위한 시각화 분석 = Visual analysis for attention-based end-to-end speech recognition improvement

Cited 0 time in webofscience Cited 0 time in scopus
  • Hit : 265
  • Download : 0
전통적인 음성인식 모델은 주로 음향 모델과 언어 모델을 사용하여 구현된다. 이 때 음향 모델을 학습시키기 위해서는 음성 데이터에 대한 정답 텍스트뿐만 아니라 음성인식에 사용되는 단어의 발음사전과 프레임 단위의 음소 정답 데이터가 필요하다. 이 때문에 모델을 훈련하기 위해서는 먼저 프레임 단위의 정답을 생성하는 등의 여러 과정이 필요하다. 그리고 음향 모델과 별도의 텍스트 데이터로 훈련한 언어 모델을 적용하여야 한다. 이러한 불편함을 해결하기 위하여 최근에는 하나의 통합 신경망 모델로 이루어진 종단간(end-to-end) 음성인식 모델이 연구되고 있다. 이 모델은 훈련에 여러 과정이 필요없고 모델의 구조를 이해하기 쉽다는 장점이 있다. 하지만 인식이 내부적으로 어떤 과정을 거쳐 이루어지는지 알기 어렵다는 문제가 있다. 본 연구에서는 어텐션 기반 종단간 모델을 시각화 분석하여 내부적인 작동 원리를 이해하고자 하였다. BLSTM-HMM 하이브리드 음성인식 모델의 음향모델과 종단간 음성인식 모델의 인코더를 비교하고, 신경망 레이어 별로 어떠한 차이가 있는지 분석하기 위해 t-SNE를 사용하여 시각화하였다. 그 결과로 음향모델과 종단간 모델 인코더의 차이점을 알 수 있었다. 또한 종단간 음성인식 모델의 디코더의 역할을 언어모델 관점에서 분석하고, 종단간 모델 디코더의 개선이 성능 향상을 위해 필수적임을 알 수 있었다.
Advisors
김회린researcherKim, Hoirinresearcher
Description
한국과학기술원 :전기및전자공학부,
Publisher
한국과학기술원
Issue Date
2019
Identifier
325007
Language
kor
Description

학위논문(석사) - 한국과학기술원 : 전기및전자공학부, 2019.2,[iii, 31 p. :]

Keywords

음성인식▼a종단간▼a시퀀스투시퀀스▼a시각화 분석▼at-SNE; Speech recognition▼aend-to-end▼asequence-to-sequence▼avisual analysis▼at-SNE

URI
http://hdl.handle.net/10203/266756
Link
http://library.kaist.ac.kr/search/detail/view.do?bibCtrlNo=843423&flag=dissertation
Appears in Collection
EE-Theses_Master(석사논문)
Files in This Item
There are no files associated with this item.

qr_code

  • mendeley

    citeulike


rss_1.0 rss_2.0 atom_1.0