본문 바로가기

AI/STT, TTS9

Distil-Whisper Distil-Whisper GitHub - huggingface/distil-whisper: Distilled variant of Whisper for speech recognition. 6x faster, 50% smaller, within 1% word Distilled variant of Whisper for speech recognition. 6x faster, 50% smaller, within 1% word error rate. - GitHub - huggingface/distil-whisper: Distilled variant of Whisper for speech recognition. 6... github.com Whisper보다 6배 빠른 오픈소스 [Paper] [Models] [Col.. 2023. 11. 5.
Whisper JAX Whisper JAX - up to 70x faster than OpenAI Whisper Whisper를 그래픽 가속을 했더니 70배 빨라졌다고 합니다. https://github.com/sanchit-gandhi/whisper-jax GitHub - sanchit-gandhi/whisper-jax Contribute to sanchit-gandhi/whisper-jax development by creating an account on GitHub. github.com https://github.com/openai/whisper/discussions/1277 2023. 5. 1.
사람과 같은 수준의 TTS(Tex-to-Speech) 오픈소스 사람과 같은 수준의 TTS(Tex-to-Speech) 오픈소스를 찾고 있다면, 다음과 같은 프로젝트들을 추천해 드립니다. Mozilla TTS (Tacotron 2) 깃허브 주소: https://github.com/mozilla/TTS Mozilla TTS는 딥러닝 기반의 TTS 프로젝트로 Tacotron 2 모델을 사용합니다. 이 프로젝트는 오픈소스로 개발되어 있으며, 사용자들이 자신만의 TTS 모델을 훈련시킬 수 있도록 지원합니다. FastSpeech 2 깃허브 주소: https://github.com/ming024/FastSpeech2 FastSpeech 2는 기존 Tacotron 2와 같은 모델보다 더 빠른 합성 속도를 제공하는 프로젝트입니다. 이 프로젝트는 적은 데이터로도 효과적인 TTS를 생성.. 2023. 4. 3.
Tactron2 Mel 스펙트로그램 예측에서 Wavenet을 조건화하여 자연 TTS 합성 의 PyTorch 구현 . 이 구현에는 분산 및 자동 혼합 정밀도 지원이 포함되며 LJSpeech 데이터 세트를 사용합니다 . 분산 및 자동 혼합 정밀도 지원은 NVIDIA의 Apex 및 AMP 에 의존합니다 . 게시된 Tacotron 2 및 WaveGlow 모델을 사용한 오디오 샘플을 보려면 웹사이트를 방문하십시오 . https://github.com/NVIDIA/tacotron2 GitHub - NVIDIA/tacotron2: Tacotron 2 - PyTorch implementation with faster-than-realtime inference Tacotron 2 - PyTorch implementation with f.. 2023. 4. 3.