通过以下方法在安卓手机上运行 Ollama 及大模型,无需 Root 权限,具体方案如下:
- 通过 Termux 模拟 Linux 环境运行
- 核心工具:
- 安装 (安卓终端模拟器)()]。
- 借助
proot-distro
工具安装 Linux 发行版(如 Debian)()]。
- 操作步骤:
- 在 Termux 中运行命令安装依赖:
pkg update && pkg install proot-distro proot-distro install debian proot-distro login debian
- 在 Debian 环境中安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
- 启动服务并运行模型:
ollama serve & ollama run deepseek-r1:1.5b # 以 DeepSeek-R1 为例()]
- 在 Termux 中运行命令安装依赖:
- 直接使用预编译的 Ollama 二进制文件 (推荐)
- 适用场景:若手机性能较弱或不想配置复杂环境。
- 操作步骤:
- 在 Termux 中下载 Ollama 的 ARM64 版本:
pkg install ollama
- 直接运行模型:
参数与性能调优# 以下修改监听和允许跨域是远程访问必要参数 # 修改监听地址 export OLLAMA_HOST=0.0.0.0:11434 # 允许跨域访问 export OLLAMA_ORIGINS=* # 后台启动监听 ollama serve & # 拉取deepseek-r1:7b模型 ollama run deepseek-r1:7b
环境变量控制:
OLLAMA_FLASH_ATTENTION=1:启用注意力机制加速,提升模型推理速度。
OLLAMA_NUM_PARALLEL=16:设置并行处理请求数,优化多任务性能。
Ollama支持的其他环境变量主要包括:
OLLAMA_HOST:定义服务监听地址(如 0.0.0.0:11434)。
OLLAMA_KEEP_ALIVE:设置模型在内存中的存活时间(如 24h)。
OLLAMA_MAX_LOADED_MODELS:限制同时加载的模型数量(默认1)。
OLLAMA_NUM_THREADS=8 根据CPU核心数调整(如8核)。
OLLAMA_NUM_PARALLEL:设置并行请求处理数(默认1)。
OLLAMA_MODELS:自定义模型存储路径。
OLLAMA_METRICS_ENABLED=true 启用prometheus监控指标输出,访问http://localhost:11434/metrics。
- 在 Termux 中下载 Ollama 的 ARM64 版本:
- page assist的设置
- 性能与注意事项
- 硬件要求:
- 手机需支持 ARM64 架构(主流安卓机均兼容)。
- 运行 1.5B~8B 参数的模型需至少 4GB 内存。
- 局限性:
- 大模型(如 70B)因算力限制无法流畅运行。
- 需保持 Termux 后台常驻,避免进程中断]。
- 优化建议:
- 使用
&
后台运行命令(如ollama serve &
)。 - 优先选择量化版模型(如 4bit 精度)减少资源占用]。
- 使用
总结
通过 Termux + Linux 环境或直接运行二进制文件,可在安卓手机上部署 Ollama 并运行中小规模模型(如 DeepSeek-R1、Llama3-8B)。