/voice-assistant

一个简单的 Python 脚本,可以通过语音与本地大语言模型进行对话。

Primary LanguagePythonApache License 2.0Apache-2.0

语音助手

一个简单的 Python 脚本,可以通过语音与本地大语言模型进行对话。本项目中 whisper 实现来自 mlx 官方示例库

macOS 安装指南

以下为 macOS 的安装过程,Windows 与 Linux 可以使用 speech_recognition 与 pyttsx3 来替代下文中的 macOS 的 hear/whisper 与 say 指令。

创建环境

conda create -n VoiceAI python=3.11
conda activate VoiceAI
pip install -r requirements.txt
CMAKE_ARGS="-DLLAMA_METAL=on" pip install llama-cpp-python

# 安装音频处理工具
brew install portaudio
pip install pyaudio

安装 hear 语音识别模块

从开源项目 hear下载安装包,解压文件夹后运行sudo bash install.sh(需要管理员权限)。安装完成后可以直接通过控制台指令调用 macOS 的语音识别功能。注意要开启电脑设置里的键盘听写选项:设置 -> 键盘 -> 听写(开启开关)。在 macOS 上首次使用时还要在“设置 -> 隐私与安全性”允许 hear 模块运行。

模型文件

模型文件存放于 models/ 文件夹下,在脚本中通过变量 MODEL_PATH 指定。 推荐下载 TheBloke 与 XeIaso 的 gguf 格式模型,其中 6B 模型显存占用更小: