字节笔记本

2026年2月22日

Ollama App:免费开源的 Ollama 移动端客户端

本文介绍 Ollama App,一个免费开源的 Ollama 移动端客户端,让你可以在手机和平板上轻松连接本地部署的 AI 模型,享受私密、安全的本地 AI 体验。

项目简介

Ollama App 是由 JHubi1 开发的开源项目,采用 Flutter 框架构建,支持 Android、Windows 和 Linux 多平台。该项目在 GitHub 上已获得 1.6k+ Stars191 Forks,采用 Apache-2.0 开源协议。

重要提示:该应用本身不在设备上托管 Ollama 服务器,而是通过 API 端点连接到已有的 Ollama 服务。

核心特性

  • 跨平台支持:Android、Windows、Linux 三端覆盖
  • 现代化界面:简洁直观的用户界面,开箱即用
  • 本地隐私:所有数据保持在本地网络,无需上传云端
  • 语音模式:实验性的语音交互功能
  • 多语言支持:支持国际化翻译

技术栈

技术占比说明
Dart88.4%Flutter 应用主要语言
C++5.7%原生插件开发
CMake4.2%构建系统

安装指南

Android

  1. 访问 GitHub Releases 页面
  2. 下载最新版本的 APK 文件
  3. 安装并授予必要权限

Windows

  1. 下载安装程序(.exe)
  2. 运行安装程序(可能需要在 Windows Defender 中选择"更多信息" > "仍要运行")
  3. 应用数据存储位置:C:\Users\[用户名]\AppData\Roaming\JHubi1\Ollama App

Linux

  1. 下载便携版可执行文件
  2. 解压后执行 ./ollama 启动
  3. 如遇依赖问题,运行:
bash
sudo apt-get update
sudo apt-get upgrade
sudo apt-get install packagekit-gtk3-module

应用数据存储位置:/home/[用户名]/.local/share/ollama

初始配置

  1. 确保你已经在某台设备上运行了 Ollama 服务器
  2. 在 Ollama App 中输入服务器的 API 端点地址
  3. 连接成功后即可开始对话

详细配置指南可参考项目的 Wiki 页面

使用截图

应用界面设计简洁现代,主要功能包括:

  • 模型列表浏览和选择
  • 聊天界面支持多轮对话
  • 设置面板管理连接配置
  • 语音模式(实验性功能)

参与贡献

Ollama App 使用 Flutter 框架开发,基于 Dart 编程语言。如果你希望参与贡献:

  1. Fork 项目仓库
  2. 阅读 贡献指南
  3. 提交 Pull Request

也欢迎帮助完善多语言翻译,让应用支持更多语言。

相关链接

总结

Ollama App 为 Ollama 用户提供了一个优秀的移动端解决方案,让你可以随时随地与本地 AI 模型交互。无论是想在手机上体验本地大模型,还是需要在移动设备上管理 Ollama 服务,这款开源应用都是一个值得尝试的选择。

分享: