系统win10,python,pytorch
首先,录音是通过pyaudio,然后用wave保存成本地*.wav文件,
然后,分类模型每次是通过speech_array, _sampling_rate = torchaudio.load(path),在本地文件路径中获取刚录制的*.wav文件,输出tensor传给分类模型。或者其他读音频的库,librosa或soundfile
怎样省略中保存本地文件的过程啊,中间涉及以编码的知识,不太懂,求各路神仙指导一下,非常感激。
系统win10,python,pytorch
首先,录音是通过pyaudio,然后用wave保存成本地*.wav文件,
然后,分类模型每次是通过speech_array, _sampling_rate = torchaudio.load(path),在本地文件路径中获取刚录制的*.wav文件,输出tensor传给分类模型。或者其他读音频的库,librosa或soundfile
怎样省略中保存本地文件的过程啊,中间涉及以编码的知识,不太懂,求各路神仙指导一下,非常感激。
1、保存本地是pyaudio的输出方式,当然可以是stream,但是是否能和后面的库衔接呢?
2、torchaudio也是通过load(filename)的方式读取的啊!这个也没有好的对接方式啊!
3、本人认为通过本地*.wav的方式降低耦合型没有什么不好啊!个人认为最好不要省略,但是可以在用完清除中间文件。
有帮助请采纳!谢谢了!