英文

S2T-MEDIUM-MUSTC-MULTILINGUAL-ST

s2t-medium-mustc-multilingual-st是一个用于端到端多语言语音翻译的语音到文本转换器(S2T)模型。S2T模型是通过 this paper 提出并在 this repository 发布的。

模型描述

S2T是基于Transformer的序列到序列(encoder-decoder)模型,旨在进行端到端的自动语音识别(ASR)和语音翻译(ST)。它使用卷积下采样器将语音输入的长度缩减了3/4,然后将其输入编码器。模型使用标准自回归交叉熵损失进行训练,并自回归地生成转录/翻译。

拟用途及限制

该模型可用于将英语语音转化为法语文本的端到端翻译。可查看 model hub 以获取其他S2T检查点。

使用方法

由于这是一个标准的序列到序列Transformer模型,您可以使用generate方法通过将语音特征传递给模型来生成转录。

对于多语言语音翻译模型,eos_token_id被用作decoder_start_token_id,目标语言ID被强制作为第一个生成的标记。要将目标语言ID强制作为第一个生成的标记,请将forced_bos_token_id参数传递给generate()方法。以下示例展示了如何使用facebook/s2t-medium-mustc-multilingual-st检查点将英语语音翻译为法语和德语文本。

注意:Speech2TextProcessor对象使用 torchaudio 来提取滤波器组特征。请确保在运行此示例之前安装torchaudio软件包。

您可以使用pip install transformers"[speech, sentencepiece]"通过额外的语音依赖项进行安装,或者使用pip install torchaudio sentencepiece分别安装软件包。

import torch
from transformers import Speech2TextProcessor, Speech2TextForConditionalGeneration
from datasets import load_dataset
import soundfile as sf

model = Speech2TextForConditionalGeneration.from_pretrained("facebook/s2t-medium-mustc-multilingual-st")
processor = Speech2TextProcessor.from_pretrained("facebook/s2t-medium-mustc-multilingual-st")

def map_to_array(batch):
    speech, _ = sf.read(batch["file"])
    batch["speech"] = speech
    return batch

ds = load_dataset("patrickvonplaten/librispeech_asr_dummy", "clean", split="validation")
ds = ds.map(map_to_array)

inputs = processor(ds["speech"][0], sampling_rate=16_000, return_tensors="pt")

# translate English Speech To French Text
generated_ids = model.generate(
    input_ids=inputs["input_features"],
    attention_mask=inputs["attention_mask"],
    forced_bos_token_id=processor.tokenizer.lang_code_to_id["fr"]
)
translation_fr = processor.batch_decode(generated_ids)

# translate English Speech To German Text
generated_ids = model.generate(
    input_ids=inputs["input_features"],
    attention_mask=inputs["attention_mask"],
    forced_bos_token_id=processor.tokenizer.lang_code_to_id["de"]
)
translation_de = processor.batch_decode(generated_ids, skip_special_tokens=True)

训练数据

s2t-medium-mustc-multilingual-st是在 MuST-C 上进行训练的。MuST-C是一个多语言语音翻译语料库,其规模和质量有助于从英语到多种语言的端到端语音翻译系统的训练。对于每种目标语言,MuST-C包括来自英语TED演讲的数百小时音频录音,这些录音在句子级别上自动与手动转录和翻译进行了对齐。

训练过程

预处理

语音数据通过PyKaldi或torchaudio从WAV/FLAC音频文件中自动提取符合Kaldi规范的80通道log mel滤波器组特征。对每个示例应用了基于utterance的CMVN(倒谱均值和方差归一化)。

文本为小写并使用SentencePiece和词汇表大小为10,000进行标记化。

训练

该模型通过使用 SpecAugment 进行标准自回归交叉熵损失进行训练。编码器接收语音特征,解码器自回归生成转录。为了加速模型训练和获得更好性能,编码器进行了多语言ASR的预训练。对于多语言模型,目标语言ID标记用作目标BOS。

评估结果

MuST-C测试结果(BLEU分数):

En-De En-Nl En-Es En-Fr En-It En-Pt En-Ro En-Ru
24.5 28.6 28.2 34.9 24.6 31.1 23.8 16.0

BibTeX条目和引用信息

@inproceedings{wang2020fairseqs2t,
  title = {fairseq S2T: Fast Speech-to-Text Modeling with fairseq},
  author = {Changhan Wang and Yun Tang and Xutai Ma and Anne Wu and Dmytro Okhonko and Juan Pino},
  booktitle = {Proceedings of the 2020 Conference of the Asian Chapter of the Association for Computational Linguistics (AACL): System Demonstrations},
  year = {2020},
}