Skip to content

加载音频数据集

本节中我们将会使用🤗 Datasets来获取音频数据集。🤗 Datasets是一个下载和准备数据集的开源工具,包含了音频在内的各种模态数据。该工具集为Hugging Face Hub上公开的机器学习数据集提供了易用的接口。此外,🤗 Datasets还提供了专门为音频数据集而设的多种特性,帮助研究者和机器学习实践者更轻松地使用这些数据集。

首先,我们要确认已经安装了🤗 Datasets库:

Terminal window
pip install datasets[audio]

🤗 Datasets的其中一个重磅功能是可以使用load_dataset()函数达到仅用一行代码下载和准备数据集。

这里我们来加载和探索MINDS-14这一音频数据集。该数据集的内容是人们向某个网银系统提问的录音,包含了多种语言和方言。

为了加载MINDS-14数据集,我们需要复制该数据集在Hugging Face Hub上的identifier(PolyAI/minds14),并向load_dataset()函数传入该参数。这里我们只选取该数据集的澳大利亚子集(en-AU)的训练分集:

from datasets import load_dataset
minds = load_dataset("PolyAI/minds14", name="en-AU", split="train")
minds

输出:

Dataset(
{
features: [
"path",
"audio",
"transcription",
"english_transcription",
"intent_class",
"lang_id",
],
num_rows: 654,
}
)

该数据集包含了654个音频文件,每个都有对应的转录文字和其英语翻译,以及一个代表询问人目的的标签。“audio”列则包含了原始的音频数据。我们来仔细看看其中的一个样本:

example = minds[0]
example

输出

{
"path": "/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-AU~PAY_BILL/response_4.wav",
"audio": {
"path": "/root/.cache/huggingface/datasets/downloads/extracted/f14948e0e84be638dd7943ac36518a4cf3324e8b7aa331c5ab11541518e9368c/en-AU~PAY_BILL/response_4.wav",
"array": array(
[0.0, 0.00024414, -0.00024414, ..., -0.00024414, 0.00024414, 0.0012207],
dtype=float32,
),
"sampling_rate": 8000,
},
"transcription": "I would like to pay my electricity bill using my card can you please assist",
"english_transcription": "I would like to pay my electricity bill using my card can you please assist",
"intent_class": 13,
"lang_id": 2,
}

你可能注意到了”audio”列包含了好几个特征,它们分别是:

  • path:音频文件的路径(这里为*.wav)。
  • array:解码后的音频文件,以1维NumPy数组表示。
  • sampling_rate:音频文件的采样率(该样本为8000赫兹)。

intent_class则是分类的具体类别。我们可以使用int2str()方法将该数字转换为有意义的字符串:

id2label = minds.features["intent_class"].int2str
id2label(example["intent_class"])

输出:

"pay_bill"

在该样本的转录文字中,我们可以看到该音频的内容确实是某人在提一个关于账单的问题。

如果你只是想用该子集训练一个音频分类器,你可能不需要使用所有的特征。举个例子,lang_id标签在该子集中全部为同样的值;english_transcription标签和transcription几乎完全含有相同的内容,因此我们也可以舍弃该标签。

你可以使用🤗 Datasets的remove_columns()方法轻松地移除所有不相关的标签:

columns_to_remove = ["lang_id", "english_transcription"]
minds = minds.remove_columns(columns_to_remove)
minds

输出:

Dataset({features: ["path", "audio", "transcription", "intent_class"], num_rows: 654})

现在我们已经加载并检验了数据集的原始内容,让我们来听几个例子吧!我们可以使用Gradio中的Blocks功能和Audio功能从数据集中解码几个样本:

import gradio as gr
def generate_audio():
example = minds.shuffle()[0]
audio = example["audio"]
return (
audio["sampling_rate"],
audio["array"],
), id2label(example["intent_class"])
with gr.Blocks() as demo:
with gr.Column():
for _ in range(4):
audio, label = generate_audio()
output = gr.Audio(audio, label=label)
demo.launch(debug=True)

你也可以可视化你想要的样本。这里我们试着绘制第一个样本的波形图:

import librosa
import matplotlib.pyplot as plt
import librosa.display
array = example["audio"]["array"]
sampling_rate = example["audio"]["sampling_rate"]
plt.figure().set_figwidth(12)
librosa.display.waveshow(array, sr=sampling_rate)
<div class="flex justify-center">
<img src="https://huggingface.co/datasets/huggingface-course/audio-course-images/resolve/main/waveform_unit1.png" alt="Waveform plot">
</div>

动手试试吧!试着下载MINDS-14数据集中其他语言或方言的子集,聆听并可视化其中的一些样本,感受整个数据集的多样性。你可以在这里找到语言和方言的全部列表(仅英文)。