字节笔记本

2026年2月22日

Reins:免费开源的 Ollama 多平台移动客户端

本文介绍 Reins,一款免费开源的 Ollama 移动客户端,支持 iOS、Android、macOS、Linux 和 Windows 多平台。Reins 采用隐私优先的设计理念,让用户能够轻松在移动设备上与本地大语言模型进行对话。

项目简介

Reins 是由 İbrahim Çetin 开发维护的开源项目,基于 Flutter 框架构建,使用 Dart 语言编写(占比 81.4%)。该项目在 GitHub 上已获得 390+ stars 和 60 forks,采用 GPL-3.0 开源协议。

与其他 Ollama 客户端不同的是,Reins 提供了高度可定制的聊天配置功能,允许用户为每个对话单独设置系统提示词、选择模型、调整温度参数等,非常适合需要精细控制对话行为的用户。

核心特性

  • 多平台支持:iOS、Android、macOS、Linux、Windows 全平台覆盖
  • 可定制的聊天配置:为每个对话单独配置系统提示词、模型选择、温度、种子值、上下文大小、最大 token 数等参数
  • 模型切换:不中断当前聊天即可切换模型
  • 消息编辑与重生成:支持编辑已发送消息并重新生成回复
  • 自定义模型保存:将系统和聊天提示词保存为新模型供后续使用
  • 图片集成:支持在聊天中发送和接收图片(多模态)
  • 多对话管理:轻松管理和切换多个对话
  • 实时消息流:支持实时流式传输响应内容

技术栈

语言/技术占比用途
Dart81.4%主要开发语言(Flutter)
C++8.8%原生插件
CMake6.9%构建系统
Ruby1.1%脚本工具
Swift0.9%iOS/macOS 原生代码
C0.5%底层优化

安装指南

iOS / macOS

在 App Store 搜索 "Reins Chat for Ollama" 直接下载安装。

Linux

通过 Flathub 安装:

bash
flatpak install flathub dev.ibrahimcetin.reins

Android / Windows

访问 GitHub Releases 页面下载最新版本的安装包:

  • Android: 下载 .apk 文件
  • Windows: 下载 .exe.zip 文件

快速开始

前置要求

  • 已安装并运行 Ollama 服务(本地或远程服务器)
  • 确保移动设备与 Ollama 服务网络可达

配置步骤

  1. 启动应用:安装完成后打开 Reins
  2. 添加服务器:输入 Ollama 服务的地址(如 http://localhost:11434 或远程服务器 IP)
  3. 选择模型:从可用模型列表中选择要使用的 LLM
  4. 开始对话:点击新建对话即可开始聊天

高级配置

点击对话设置可以调整以下参数:

  • System Prompt:设置系统提示词定义 AI 角色
  • Temperature:控制回复的随机性(0-2)
  • Context Size:设置上下文窗口大小
  • Max Tokens:限制单次回复的最大 token 数
  • Seed:设置随机种子以获得可重复的结果

使用场景

场景 1:日常对话助手

使用默认配置与本地 LLM 进行日常对话,无需担心隐私泄露,所有数据都在本地处理。

场景 2:代码辅助编程

配置专门的系统提示词(如"你是一个专业的编程助手"),并调低温度参数以获得更确定的代码建议。

场景 3:创意写作

提高温度参数(如 1.0-1.5),让模型产生更具创意和多样性的文本内容。

场景 4:图像分析

发送图片给支持多模态的模型(如 LLaVA),进行图像描述、内容分析等操作。

隐私与安全

Reins 采用隐私优先的设计理念:

  • 本地优先:对话数据存储在本地设备
  • 无云端依赖:除连接自托管的 Ollama 服务外,无需连接第三方云服务
  • 开源透明:代码完全开源,可审计安全性

项目链接

许可证

本项目采用 GPL-3.0 开源许可证,允许自由使用、修改和分发,但要求衍生作品也必须开源。

总结

Reins 是目前功能最完善的 Ollama 移动客户端之一,其多平台支持和高度可定制的配置使其成为 Ollama 用户的理想选择。无论你是需要在手机上随时与 AI 对话,还是希望在桌面端获得更好的使用体验,Reins 都能满足需求。对于注重隐私的用户来说,本地部署加上开源客户端的组合更是不二之选。

分享: