- 安卓手机
- 推荐使用骁龙8系列及以上芯片的手机
按照部署llama.cpp到PC端获取并量化模型文件ggml-model-Q4_K_M.gguf
。
将量化后的模型文件传输到手机的/sdcard/Download
目录中。这里提供一种使用ADB(Android Debug Bridge)的方法,当然也可以使用其他方式:
adb push ggml-model-Q4_K_M.gguf /sdcard/Download
在手机上下载并安装合适的Termux版本,推荐使用v0.118.1版本。
打开Termux应用,并运行以下命令以授予Termux存储权限:
termux-setup-storage
在Termux中获取llama.cpp的源码并进行编译:
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make main
使用编译好的llama-cli工具进行推理:
./llama-cli -m /sdcard/Download/ggml-model-Q4_K_M.gguf --prompt "<用户>你知道openmbmb么<AI>"
现在您可以开始在安卓设备上使用MiniCPM模型进行推理了!
请注意,上述步骤中的某些命令可能需要根据您的具体环境进行调整,例如Termux的版本号或其他细节。