字
字节笔记本
2026年2月22日
Ollama App:免费开源的 Ollama 移动端客户端
本文介绍 Ollama App,一个免费开源的 Ollama 移动端客户端,让你可以在手机和平板上轻松连接本地部署的 AI 模型,享受私密、安全的本地 AI 体验。
项目简介
Ollama App 是由 JHubi1 开发的开源项目,采用 Flutter 框架构建,支持 Android、Windows 和 Linux 多平台。该项目在 GitHub 上已获得 1.6k+ Stars 和 191 Forks,采用 Apache-2.0 开源协议。
重要提示:该应用本身不在设备上托管 Ollama 服务器,而是通过 API 端点连接到已有的 Ollama 服务。
核心特性
- 跨平台支持:Android、Windows、Linux 三端覆盖
- 现代化界面:简洁直观的用户界面,开箱即用
- 本地隐私:所有数据保持在本地网络,无需上传云端
- 语音模式:实验性的语音交互功能
- 多语言支持:支持国际化翻译
技术栈
| 技术 | 占比 | 说明 |
|---|---|---|
| Dart | 88.4% | Flutter 应用主要语言 |
| C++ | 5.7% | 原生插件开发 |
| CMake | 4.2% | 构建系统 |
安装指南
Android
- 访问 GitHub Releases 页面
- 下载最新版本的 APK 文件
- 安装并授予必要权限
Windows
- 下载安装程序(.exe)
- 运行安装程序(可能需要在 Windows Defender 中选择"更多信息" > "仍要运行")
- 应用数据存储位置:
C:\Users\[用户名]\AppData\Roaming\JHubi1\Ollama App
Linux
- 下载便携版可执行文件
- 解压后执行
./ollama启动 - 如遇依赖问题,运行:
bash
sudo apt-get update
sudo apt-get upgrade
sudo apt-get install packagekit-gtk3-module应用数据存储位置:/home/[用户名]/.local/share/ollama
初始配置
- 确保你已经在某台设备上运行了 Ollama 服务器
- 在 Ollama App 中输入服务器的 API 端点地址
- 连接成功后即可开始对话
详细配置指南可参考项目的 Wiki 页面。
使用截图
应用界面设计简洁现代,主要功能包括:
- 模型列表浏览和选择
- 聊天界面支持多轮对话
- 设置面板管理连接配置
- 语音模式(实验性功能)
参与贡献
Ollama App 使用 Flutter 框架开发,基于 Dart 编程语言。如果你希望参与贡献:
- Fork 项目仓库
- 阅读 贡献指南
- 提交 Pull Request
也欢迎帮助完善多语言翻译,让应用支持更多语言。
相关链接
- GitHub 仓库: https://github.com/JHubi1/ollama-app
- Ollama 官网: https://ollama.com
- Wiki 文档: https://github.com/JHubi1/ollama-app/wiki
- 问题反馈: https://github.com/JHubi1/ollama-app/issues
总结
Ollama App 为 Ollama 用户提供了一个优秀的移动端解决方案,让你可以随时随地与本地 AI 模型交互。无论是想在手机上体验本地大模型,还是需要在移动设备上管理 Ollama 服务,这款开源应用都是一个值得尝试的选择。
分享: