免费调用互联网上本地部署的 DeepSeek‑R1 模型——从 FOFA 检索到 Ollama 服务的实操与安全防护

在当下大模型技术风靡的时代,越来越多的爱好者和开发者开始关注本地部署的大型语言模型工具,如 Ollama。或许你也发现,有些互联网上的电脑白嫖部署了 Ollama,并且其 11434 端口对外开放,允许远程调用。本文将介绍如何利用 FOFA 搜索到这些部署的 Ollama 接口,并通过 ChatBox 或 Cherry Studio 这类可视化工具进行交互;同时也会讲解如何防止自己的本地部署被别人远程利用。

1. 通过 FOFA 查询开放的 Ollama 接口

FOFA 是一款强大的网络空间搜索引擎,能够帮助我们筛选出全球范围内公开暴露的服务。对于部署了 Ollama 的机器来说,只要其服务配置不当(例如绑定到 0.0.0.0 且防火墙规则松散),就可能被 FOFA 搜索到。

1.1 搜索语法示例

例如,你可以使用如下 FOFA 查询语句来查找 11434 端口且返回状态码为 200 的目标:

port="11434" && status_code="200"

通过这种方式,你能初步定位到那些白嫖部署了 Ollama 服务的目标计算机。


2. 利用 ChatBox 或 Cherry Studio 进行交互

查询到开放接口后,你就可以尝试使用可视化客户端与这些接口进行交互。市面上常见的两款工具是 ChatBox 和 Cherry Studio。

2.1 ChatBox 的使用

ChatBox 是一个简洁的 AI 客户端,支持直接调用 Ollama 部署的模型进行文本对话。操作步骤大致如下:

  1. 下载并安装
    从 ChatBox 官网下载适合你操作系统的客户端版本并安装。
  2. 配置 API 接口
    在 ChatBox 的设置中,将 API 地址配置为目标机器的地址,例如:
    http://目标IP:11434/
    
    如果目标接口无需认证,则直接保存即可。
  3. 选择模型并开始对话

2.2 Cherry Studio 的使用

Cherry Studio 同样是一款功能强大的 AI 客户端,不仅支持对话,还能管理知识库和更多大模型应用。基本操作步骤如下:

  1. 安装 Cherry Studio
    访问 Cherry Studio 官网,下载并安装客户端。
  2. 配置 Ollama 接口
    在 Cherry Studio 客户端中,进入“设置” → “模型服务” → 选择 Ollama,将 API 地址设置为:
    http://目标IP:11434
    
    如果目标部署不需要 API 密钥,则直接保存;否则,请输入相应的凭证。
  3. 添加并验证模型
    进入模型管理页面,添加目标模型(例如“deepseek-r1:1.5b”),点击“检查连接”确保连接成功,界面提示“连接成功”后就可以开始使用。

3. 如何防止自己的本地部署被别人远程利用

如果你在本地部署了 Ollama 模型服务,但又不希望被别人随意访问(即“被白嫖”),可以参考以下几种安全措施,并按照新手步骤操作:

3.1 限制监听地址

操作步骤(以 Linux 为例):

  1. 查找配置文件
    找到 Ollama 服务的配置文件(例如 /etc/ollama/config.conf),查找类似 bind_address = 0.0.0.0 的设置。
  2. 修改绑定地址
    将绑定地址修改为 127.0.0.1,例如:
    bind_address = 127.0.0.1
    port = 11434
    
  3. 保存并重启服务
    保存配置文件后,运行:
    sudo systemctl restart ollama
    
    这样,服务只在本机上监听,外部无法直接访问。

3.2 配置防火墙规则

Windows 环境:

  1. 打开“控制面板” → “系统和安全” → “Windows Defender 防火墙”,点击“高级设置”。
  2. 创建一个新的入站规则,选择“端口”,指定 TCP 和端口号 11434。
  3. 选择“允许连接”,在“远程IP地址”中仅添加你信任的内网 IP 段(如 192.168.1.0/24)。
  4. 保存规则后,其它 IP 的访问请求将被拒绝。

Linux 环境(以 ufw 为例):

  1. 启用 ufw:
    sudo ufw enable
    
  2. 允许局域网内 IP 访问:
    sudo ufw allow from 192.168.1.0/24 to any port 11434
    
  3. 如果默认策略不是拒绝,可以添加拒绝规则:
    sudo ufw deny 11434
    
  4. 查看规则确认:
    sudo ufw status verbose
    

3.3 启用认证和访问控制

如果服务必须对外开放,可以在应用层加上身份验证:

  • 基于 Node.js/Express 的简单认证:
    使用 basic-auth 模块,在代码中添加认证中间件,只有输入正确用户名和密码的用户才能访问服务。
  • Web 服务器(Apache/Nginx)配置基本认证:
    利用 htpasswd 工具生成密码文件,然后在 Apache 的 .htaccess 或 Nginx 配置中启用基本认证。

3.4 使用反向代理等方式

       略

结语

通过本文,我们了解到如何利用 FOFA 搜索到互联网上那些“白嫖”部署了 Ollama 服务的电脑,再使用 ChatBox 或 Cherry Studio 这类可视化工具与它们进行交互体验。同时,我们也提供了详细的新手操作指南,告诉大家如何通过限制监听地址、配置防火墙、启用认证以及使用 VPN 或反向代理来保护自己的本地部署不被别人远程利用。

希望这篇文章对你有所帮助,既能让你在“白嫖”免费资源时学到技术,也能在保护自己服务安全方面提供参考。如果你有更多疑问或建议,欢迎在评论区交流!


评论