fasterWhisper 和 MoneyPrinterPlus 无缝集成
MoneyPrinterPlus 之前使用的是各种云厂商的语音识别服务来进行语音的视频和字幕的识别工作。
但是很多小伙伴说云服务用不起。
那么没办法,MoneyPrinterPlus 上线最新版本,支持 fasterWhisper 本地语音识别模型。
赶紧来体验吧。
软件准备
当然,前提条件就是你需要下载 MoneyPrinterPlus 软件啦。
下载地址: https://github.com/ddean2009/MoneyPrinterPlus
用得好的朋友,不妨给个 star 支持一下。 在软件 v4.1 版本之后,MoneyPrinterPlus 已经支持 fasterWhisper 本地语音识别模型。
安装 fasterWhipser 的模型
fasterWhipser 服务直接由 MoneyPrinterPlus 调用。所以不需要第三方的 fasterWhisper 服务。
但是我们需要下载对应的 fasterWhipser 模型到 MoneyPrinterPlus 中。
fasterWhisper 模型下载地址:https://huggingface.co/Systran
可以看到里面有很多种模型,大家可以根据需要自行下载对应的模型。
怎么下载呢?
进入到 MoneyPrinterPlus 的 fasterwhisper 目录下:
执行 git clone 命令:
目前 MoneyPrinterPlus 支持下面几种模型名称:
所以你在 git clone 的时候,需要把 faster-whisper 仓库中的模型目录重命名为 MoneyPrinterPlus 支持的模型名称。
比如 faster-whisper-tiny, 对应的模型叫做 tiny,所以我们 git clone 的时候同时做了重命名操作:
上面的命令会在本地创建一个 tiny 的目录。目录里面包含了 faster-whisper-tiny 的所有模型内容。
在 MoneyPrinterPlus 中配置 faster-whisper
我们启动 MoneyPrinterPlus。
在基本配置区域:
可以配置本地语音识别模型。
model name 就是你下载下来的模型名字。
device type 可以选择 cpu,cuda 或者 auto。
compute type 支持'int8','int8_float16','float16'这几种类型。
配置好之后,在 AI 视频区域。
语音识别配置中我们选择本地模型,即可使用到 fasterWhisper 了。
同样的在视频混剪区域,我们也可以选择本地模型,即可使用到 fasterWhisper 了。
总结
因为是本地运行的 fasterWhisper,所以在运行中可能会出现一些环境的问题。大家可以参考 fasterWhisper 的说明来解决。
评论