一个简单的 Python 脚本,可以通过语音与本地大语言模型进行对话。本项目中 whisper 实现来自 mlx 官方示例库。
以下为 macOS 的安装过程,Windows 与 Linux 可以使用 speech_recognition 与 pyttsx3 来替代下文中的 macOS 的 hear/whisper 与 say 指令。
conda create -n VoiceAI python=3.11
conda activate VoiceAI
pip install -r requirements.txt
CMAKE_ARGS="-DLLAMA_METAL=on" pip install llama-cpp-python
# 安装音频处理工具
brew install portaudio
pip install pyaudio
从开源项目 hear 中下载安装包,解压文件夹后运行sudo bash install.sh
(需要管理员权限)。安装完成后可以直接通过控制台指令调用 macOS 的语音识别功能。注意要开启电脑设置里的键盘听写选项:设置 -> 键盘 -> 听写(开启开关)。在 macOS 上首次使用时还要在“设置 -> 隐私与安全性”允许 hear 模块运行。
模型文件存放于 models/
文件夹下,在脚本中通过变量 MODEL_PATH
指定。
推荐下载 TheBloke 与 XeIaso 的 gguf 格式模型,其中 6B 模型显存占用更小: