USA Spain Brazil Russia France Germany China Japan

Artificial Intelligence driven Marketing Communications

 
Apr 26, 2019 10:56 AM ET

합성 연설 뇌 녹음에서 생성 된입니다. 신기술은 디딤돌 신경 음성 족 이다, 연구원은 말한다


iCrowd Newswire - Apr 26, 2019
Gopala Anumanchipalli, 박사, 현재 연구에서 뇌 활동을 기록 하는 데 사용 하는 형식의 intracranial 전극의 배열 예를 들고.
신용: UCSF
 
 

UC 샌프란시스코 신경 과학자에 의해 만들어진 최신의 뇌-기계 인터페이스 제어 가상 보컬로 두뇌 활동을 사용 하 여 자연 들리는 합성 연설을 생성할 수 있습니다-입술을 포함 한 해부학 상세한 컴퓨터 시뮬레이션 턱, 혀, 그리고 후 두입니다. 그대로 연설, 연구 참가자에 연구 되었다 하지만 기술 수 1 일 복원 마비 및 신경 손상의 다른 형태의 말하는 능력을 잃은 사람들의 목소리.

뇌졸중, 외상 성 두뇌 부상, 및 신경 퇴행 성 질환 파 킨 슨 병, 다 발성 경화 증, 루 경화 증 (ALS, 또는 루 게 릭 병) 등 말하는 능력의 결과 돌이킬 수 없는 손실에 자주. 심한 음성 장애를 가진 어떤 사람들 그들의 생각에 의해 문자 매우 작은 눈 또는 얼굴 근육의 움직임을 추적 하는 보조 장치를 사용 하 여 밖으로 철자를 배울. 그러나, 오류 발생, 힘들고 고통 스럽게 천천히, 일반적으로 자연적인 연설의 분 당 100-150 단어에 비해 분당 10 단어의 최대 허용은 텍스트 또는 합성된 음성 같은 장치 생산.

에드워드 장, 메릴랜드 연구실에서 개발 되 고 새로운 시스템-4 월 24 일 2019 자연에서 설명-그것이 그들의 두뇌의 연설의 활동에 의해 제어할 수 있는 사람의 음성의 합성된 버전을 만들 수 보여줍니다 센터. 미래에,이 방법은 수 있습니다.만 복원 하지 유창 통신 심한 음성 장애를 가진 개인에 게 저자는 말한다, 하지만 또한 스피커의 감정과 성격을 전달 하는 인간의 목소리의 연주 들을 재현할 수 있습니다.

“처음으로,이 학문은 설명 우리가 개인의 두뇌 활동에 따라 전체 음성된 문장을 생성할 수 있습니다” 장, 신경 수술의 교수와 신경 과학에 대 한 UCSF Weill 연구소의 회원 말했다. “이것은 기술로 이미 도달 시간입니다, 우리 음성 손실 가진 환자에 있는 임상 실행 가능한 장치를 구축 할 수 있어야 하는 원리의 짜릿한 증거.”

가상 보컬로 향상 자연 음성 합성

연구는 Gopala Anumanchipalli, 박사, 음성 과학자, 그리고 Josh Chartier, 장 실험실에서 생명 공학 대학원 학생에 의해 주도 했다. 최근 연구는 쌍 설명 처음으로 어떻게 인간의 두뇌의 연설 센터의 입술, 턱, 혀, 다른 보컬로 유창한 연설 생산 움직임 안무에 빌드합니다.

그 작품에서 Anumanchipalli Chartier 실현 이러한 두뇌 지구는 직접 말 소리의 음향 특성을 대표 하지 않습니다 때문에 이전 직접 두뇌 활동에서 음성 해독 하려고 제한 된 성공을 만난 적 있습니다만 오히려 지침 연설을 하는 동안 입과 목의 움직임을 조정 하는 데 필요한.

“보컬로의 움직임 및 생성 되는 음성 소리 사이의 관계는 복잡된 한,” Anumanchipalli 말했다. “우리는 권유이 음성 센터는 뇌에서 소리 보다는 오히려 움직임 인코딩하는, 만약 우리가 그 신호를 해독에 동일한 작업을 수행 하려고 한다.”

그들의 새로운 연구에서 Anumancipali Chartier 부탁 5 UCSF 간 질 센터에서 치료를 받고 자원 봉사자-전극 일시적으로 신경외과 대 한 준비 그들의 발작의 소스를 지도 하 고 그들의 머리에 이식 했다 그대로 음성 환자- 연구원은 동안 몇 백 문장을 소리내어 언어 생산에 관련 된 것으로 알려진 뇌 영역에서 활동을 기록 했다.

참가자의 음성의 오디오 녹음을 바탕으로, 연구원은 사용 언어 원리를 보컬로 움직임 그 소리를 생산 하는 데 필요한 엔지니어링: 여기 함께 입술을 누르면, 거기에 성 대 강화, 이동의 끝은 혀를 입천장에, 다음, 그것을 휴식 하 고.

해부학에 소리의이 상세한 매핑 허용 그들의 두뇌 활동에 의해 제어할 수 있는 각 참가자에 대 한 현실적인 가상 보컬로 만드는 과학자. 이 두 개의 “신경망” 기계 학습 알고리즘 구성: 가상 보컬로, 합성으로 이러한 보컬로 움직임을 변환 하는 합성기의 움직임으로 연설을 하는 동안 생산 하는 두뇌 활동 패턴을 변환 하는 디코더 참가자의 음성 근사치

이러한 알고리즘에 의해 생산 하는 합성 음성 합성 음성 직접 디코딩 스피커의 보컬 책자의 시뮬레이션을 포함 하지 않고 참가자의 두뇌 활동에서 연구원은 발견 보다 훨씬 더 이었다. 알고리즘 생산 기계 터크 아마존 플랫폼에서 실시 crowdsourced 전사 테스트에서 인간 청취자의 수백에 이해할 수 있던 문장.

자연적인 연설으로는 사자는 어구의 종류를 준비 하는 간병인의 경우 될 것 이라고 그들은 짧은 목록에서 선택 하는 단어의 주어졌다 또는 요청 환자 수도 완전 한 때 더 성공적 이었다. 사자는 정확 하 게 25 대안의 목록에서 합성된 단어의 69%를 파악 하 고 완벽 한 정확도로 문장의 43%를 복사할. 더 도전 50 단어 중에서 선택할 수, 하지만 그들은 여전히 완벽 하 게 합성된 문장의 21%를 이해할 수 사자 전반적인 정확도 47%로 떨어졌다.

“우리는 여전히 음성된 언어를 완벽 하 게 모방에 서 하는 방법을,” Chartier 인정 했다. “우리는 꽤 좋은 리듬과 억양 음성 및 스피커의 성별 및 정체성의 유지 뿐만 아니라 ‘쉬’와 ‘z’ 처럼 느린 음성 소리를 합성 하지만 더 갑작스러운 소리의 일부 처럼 ‘ b와 ‘ p의 약간 퍼지 얻을. 아직도, 우리가 여기에 생산 하는 정확도의 수준 것입니다 현재 사용할 수 있는 것에 비해 실시간 통신에 놀라운 개선. “

인공 지능, 언어학, 신경 과학 연료 사전

연구원은 현재 높은 밀도 전극 배열 실험 하 고 그들은 더 많은 고급 기계 학습 알고리즘 합성된 음성 더욱 향상 됩니다. 기술에 대 한 다음 주요 테스트 여부를 말할 수 없는 하는 사람 그들의 자신의 음성에 그것을 훈련 하 고 말을 하고자 하는 그들은 아무것도를 일반화 하기 위해 수 없이 시스템을 사용 하 여 배울 수를 결정 하는.

참가자 제안 연구팀은 해부학 기반된 시스템 해독 하 고 참가자의 두뇌 활동에서 소설 문장 거의 합성 수 팀의 연구 뿐만 아니라 문장 중에서 예비 결과 알고리즘에 훈련 되었다. 연구원은 한 참가자는 단순히 문장을 소리 없이 짖 어 대는 동안 기록 하는 뇌 활동 데이터와 알고리즘을 제공 하는 경우에 시스템 아직도 스피커의 음성에 mimed 문장의 가능한 합성 버전을 생산할 수 있게 했다.

연구원은 또한 발견 보컬 움직임에 대 한 신경 코드는 부분적으로 참가자, 걸쳐 겹쳐 그 한 연구 과제의 보컬로 시뮬레이션 기록 다른 참가자의 두뇌에서 신경 지시에 응답에 적응 될 수 있습니다. . 함께, 이러한 결과 신경 손상으로 인해 음성 손실 개인 연설 족 그대로 음성으로 사람의 목소리에 모델을 제어 하는 법을 배워야 수 있습니다 좋습니다.

“그들의 팔과 다리를 이동할 수 없습니다 사람들 배운 그들의 두뇌와 로봇 팔을 제어,” Chartier 말했다. “우리는 희망이 언젠가 음성 장애를 가진 사람들이이 두뇌 제어 인공 보컬로 사용 하 여 다시 말을 배울 수 있을 것입니다.”

추가 된 Anumanchipalli, “우리 함께 신경 과학, 언어학, 그리고 기계 학습 신경학을 돕는 쪽으로이 중요 한 이정표의 일부 해제 환자에서 전문 지식을 할 수 있어 자랑 스럽습니다.”

Contact Information:

University of California - San Francisco



Tags:    Korean, News, Research Newswire, United States, Wire