This media is not supported in your browser
VIEW IN TELEGRAM
🎙 MetaVoice-1B: 1.2B parameter base model trained on 100K hours of speech for #TTS (text-to-speech)
> Новейшая модель высококачественного клонирования голоса .
> 1.2B параметрическая модель.
> Обучена на 100 тысячах часов данных.
> Синтез коротких и длинных разговоров.
> Генерация эмоциональной речи.
> Лицензия Apache 2.0. 🔥
Простая, но надежная архитектура:
> Encodec (Multi-Band Diffusion) и GPT + Encoder Transformer LM.
> DeepFilterNet для очистки от артефактов MBD.
🌐page: https://themetavoice.xyz
🧬code: https://github.com/metavoiceio/metavoice-src
🧪demo: https://ttsdemo.themetavoice.xyz
📦model: https://huggingface.co/metavoiceio/metavoice-1B-v0.1
ai_machinelearning_big_data
> Новейшая модель высококачественного клонирования голоса .
> 1.2B параметрическая модель.
> Обучена на 100 тысячах часов данных.
> Синтез коротких и длинных разговоров.
> Генерация эмоциональной речи.
> Лицензия Apache 2.0. 🔥
Простая, но надежная архитектура:
> Encodec (Multi-Band Diffusion) и GPT + Encoder Transformer LM.
> DeepFilterNet для очистки от артефактов MBD.
🌐page: https://themetavoice.xyz
🧬code: https://github.com/metavoiceio/metavoice-src
🧪demo: https://ttsdemo.themetavoice.xyz
📦model: https://huggingface.co/metavoiceio/metavoice-1B-v0.1
ai_machinelearning_big_data
🔥28👍10❤5
Parler-TTS - это модели текст-в-речь (TTS), способные генерировать качественную, естественно звучащую речь в заданном стиле (пол, тон, тип речи и т. д.).
Все датасеты обучения, предварительная обработка, код обучения и веса выпускаются публично, что даст возможность сообществу строить на нашей работе и разрабатывать свои собственные модифицированные модели TTS. Обе модели обучались на 45 тысячах часов англоязычных аудиокниг.
Parler-TTS - это авторегрессионная модель, основанная на трансформерах, которая генерирует аудиотокены в причинно-следственном порядке. Код для инференса Parler-TTS оптимизирован для быстрой генерации благодаря совместимости с SDPA и Flash Attention 2.
Архитектура Parler-TTS состоит из трех частей: текстовый кодировщик (Flan-T5), декодер и аудиокодек DAC. Текстовый кодировщик преобразует текст в скрытые состояния, декодер генерирует аудиотокены на основе этих состояний, а аудиокодек восстанавливает аудиосигнал из аудиотокенов.
Модели:
Характеристиками речи (пол, темп речи, высота тона и реверберация) можно управлять непосредственно через текстовый промпт. Например:
# Clone repository and install dependences:
pip install git+https://github.com/huggingface/parler-tts.git
# Inference with random voice
import torch
from parler_tts import ParlerTTSForConditionalGeneration
from transformers import AutoTokenizer
import soundfile as sf
device = "cuda:0" if torch.cuda.is_available() else "cpu"
model = ParlerTTSForConditionalGeneration.from_pretrained("parler-tts/parler-tts-mini-v1").to(device)
tokenizer = AutoTokenizer.from_pretrained("parler-tts/parler-tts-mini-v1")
prompt = "Hey, how are you doing today?"
description = "A female speaker delivers a slightly expressive and animated speech with a moderate speed and pitch. The recording is of very high quality, with the speaker's voice sounding clear and very close up."
input_ids = tokenizer(description, return_tensors="pt").input_ids.to(device)
prompt_input_ids = tokenizer(prompt, return_tensors="pt").input_ids.to(device)
generation = model.generate(input_ids=input_ids, prompt_input_ids=prompt_input_ids)
audio_arr = generation.cpu().numpy().squeeze()
sf.write("parler_tts_out.wav", audio_arr, model.config.sampling_rate)y
@ai_machinelearning_big_data
#AI #Parler #ML #TTS
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍25🔥5❤4
OuteTTS-0.2-500M - улучшенная версия предыдущей модели синтеза речи, основанная на Qwen-2.5-0.5B и обученная на крупных и более качественных датасетах Emilia-Dataset, LibriTTS-R и Multilingual LibriSpeech. Контекст длиной 4096 токенов обеспечивает ~ 54 секунды генерации звука.
Новая версия получила изменения относительно версии 0.1:
⚠️ Для инференса GGUF-версии модели необходимо установить llama-cpp-python.
# Install from PyPI
pip install outetts
# Interface Usage
import outetts
# Configure the model
model_config = outetts.HFModelConfig_v1(
model_path="OuteAI/OuteTTS-0.2-500M",
language="en", # Supported languages in v0.2: en, zh, ja, ko
)
# Initialize the interface
interface = outetts.InterfaceHF(model_version="0.2", cfg=model_config)
# Optional: Create a speaker profile (use a 10-15 second audio clip)
speaker = interface.create_speaker(
audio_path="path/to/audio/file",
transcript="Transcription of the audio file."
)
# Optional: Load speaker from default presets
interface.print_default_speakers()
speaker = interface.load_default_speaker(name="male_1")
output = interface.generate(
text="%Prompt Text%%.",
temperature=0.1,
repetition_penalty=1.1,
max_length=4096,
# Optional: Use a speaker profile
speaker=speaker,
)
# Save the synthesized speech to a file
output.save("output.wav")
@ai_machinelearning_big_data
#AI #ML #TTS #OuteTTS
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍29🔥11❤6😁2👻1