Decentralization? We're still early!

Project N.O.M.A.D.:代码开源且完全离线的全能知识堡垒

  • Project N.O.M.A.D.:代码开源且完全离线的全能知识堡垒

    發布人 Brave 2026-03-19 04:43

    在互联网高度发达的今天,我们习惯了随时随地搜索信息。但如果网络中断、电力受限,或者身处偏远地区,我们该如何获取知识?根据联合国国际电信联盟(ITU)的数据,全球仍有约 26 亿人缺乏可靠的互联网接入,这严重限制了他们获取教育和信息资源的机会。即便在发达地区,自然灾害、基础设施故障或网络审查也可能随时切断我们与数字世界的联系。

    Project N.O.M.A.D. (Node for Offline Media, Archives, and Data) 正是为了解决这一问题而生的开源项目。它由网络技术公司 Crosstalk Solutions 开发并维护,采用 Apache License 2.0 开源许可证发布,代码托管于 GitHub,官方网站为 projectnomad.us

    它的核心口号是:"永不下线的知识" (Knowledge That Never Goes Offline)。


    什么是 Project N.O.M.A.D.

    Project N.O.M.A.D. 是一个集成的、以"离线优先"为原则的知识与教育服务器。它像是一个数字化生存包,将关键工具、百科全书、教育课程甚至是本地 AI 助手打包进一个设备中。只需一次安装,你就可以在完全断网的环境下,通过浏览器访问丰富的信息资源。

    更具体地说,N.O.M.A.D. 的设计哲学是"下载一次,永久可用"——你在有网络的时候下载所需的内容和工具,之后即可在完全离线的状态下无限期使用。它不是一个简单的文件集合,而是一个拥有统一管理界面、自动化部署和容器编排能力的完整平台。你可以将它理解为一个"私有化的迷你互联网",将人类文明中最重要的知识浓缩进一台设备。

    N.O.M.A.D. 的核心使用场景包括:

    • 🏕️ 野外与离网生活 —— 在小木屋、房车(RV)、帆船或偏远营地中,携带完整的图书馆、AI 助手和离线地图
    • 🏥 紧急与灾难响应 —— 在自然灾害导致通信中断时,提供医疗指南、生存手册和百科知识
    • 🎓 教育公平 —— 为缺乏互联网的偏远地区学校提供完整的课程体系和学习追踪
    • 🔐 数据主权与隐私 —— 运行本地大语言模型、自建知识库,数据完全由自己掌控
    • 🛠️ 技术爱好者的家庭实验室 —— 自托管知识服务器,探索 AI、容器化和离线技术

    核心功能与能力

    N.O.M.A.D. 通过 Docker 容器化技术,整合了多款强大的开源工具。每个工具都运行在独立的 Docker 容器中,实现了模块化的隔离与管理——你可以根据需要选择性地安装或卸载任何组件,而不会影响其他服务的运行。以下是各核心模块的详细介绍:


    离线信息库 (Powered by Kiwix)

    内置离线版维基百科(Wikipedia)、医疗指南、生存手册和电子书,涵盖了人类文明的精华信息。

    Kiwix 是一款由非营利组织开发的离线内容阅读器,它使用一种名为 ZIM 的高效压缩格式来存储和分发海量网页内容。 其核心技术细节如下:

    • 📦 ZIM 格式 —— ZIM(Zeno IMproved)是一种为离线阅读而优化的开放文件格式。完整的英文维基百科 ZIM 文件约为 109GB(含图片),使用先进的压缩算法将数百万个网页条目打包进单个文件中。Kiwix 团队持续维护和更新这些 ZIM 文件,最近一次英文维基百科的更新工作在 2025 年 6 月完成。
    • 📚 丰富的内容库 —— 除维基百科外,Kiwix 库中还包含大量专业资源:
      • WikiMed(维基医学) —— 由维基百科 WikiProject Medicine 团队策划的离线医学百科全书,包含超过 73,000 篇医学和健康相关文章(最新版本为 2025 年 12 月归档)
      • Wikivoyage —— 涵盖全球超过 33,000 个目的地的离线旅行指南
      • Stack Overflow、TED 演讲、Project Gutenberg 电子书等多种知识资源
      • 各类生存手册、急救指南和实用技能教程
    • 🔍 搜索与浏览 —— Kiwix 内置全文搜索引擎,可在完全离线的情况下快速检索数百万条目。2025-2026 年的更新还带来了全新的深色/浅色主题系统(支持自动检测),以及改进的键盘快捷键和文件处理功能。
    • 📱 跨平台支持 —— Kiwix 可在 Windows、macOS、Linux、Android 和 iOS 上运行,同时提供 Firefox 和 Chrome 浏览器扩展(PWA 版本)。在 N.O.M.A.D. 中,它通过 Web 服务的形式供局域网内所有设备访问。

    N.O.M.A.D. 提供了一个内置的 Wikipedia 内容选择器、ZIM 库管理器和内容浏览器,让你可以按需选择和管理要下载的离线内容,而不必一次性下载全部资源。


    AI 助手 (Powered by Ollama + Qdrant)

    即便没有网络,你依然可以使用大语言模型(LLM)进行对话。它支持文档上传和语义搜索(RAG),让 AI 成为你的私人知识库管理员。

    这是 N.O.M.A.D. 最具技术含量的核心模块,由两大引擎协同驱动:

    🤖 Ollama —— 本地大语言模型运行时

    Ollama 是 2025-2026 年本地 LLM 领域事实上的标准工具。它在底层封装了高性能的 llama.cpp 推理引擎,并提供了简洁的命令行界面和 OpenAI 兼容的 REST API,让你无需关心模型量化、GPU 显存分配等复杂的技术细节,即可一键运行各种开源大语言模型。

    截至 2026 年,Ollama 支持运行的主流模型包括:

    模型参数规模特点
    Llama 4 / 3.3 (Meta)3B - 70B通用能力强,从轻量到高性能均有覆盖
    Qwen 3 / 3.5 (阿里巴巴)多种规格Qwen 3 7B 在 HumanEval 代码基准测试中取得 76.0 分(8B 以下模型最高分);Qwen 3.5 为多模态家族
    DeepSeek671B 总参数(MoE 架构,37B 激活)混合专家架构,高性能推理
    GPT-OSS (OpenAI)20BOpenAI 开源权重模型,适合推理密集型任务和 Agent 管道
    Gemma 3 (Google)轻量级适合资源受限场景
    Mistral / Mixtral8x7B / 8x22BMoE 架构,平衡效率与性能

    Ollama 近期的重要更新包括:2025 年 7 月推出 macOS 和 Windows 原生桌面客户端;支持 MCP(Model Context Protocol)集成,可对接外部工具;新增结构化输出(JSON Schema 约束)和函数调用(Tool Calling)支持;2026 年新增 Windows ARM64 原生构建。

    模型运行的速度取决于你的硬件配置。以 NVIDIA RTX 4090(24GB VRAM)为例,在 q4_K_M 量化下:小型模型(7B 以下)可达 50-80+ tokens/秒,中型模型(13B-30B)约 20-50 tokens/秒,大型模型(70B+)约 5-20 tokens/秒。

    🧠 Qdrant —— 向量搜索引擎(语义检索核心)

    Qdrant 是一个用 Rust 编写的高性能向量搜索引擎,是 N.O.M.A.D. 实现 RAG(检索增强生成)功能的关键组件。截至 2026 年 3 月,Qdrant 已获得超过 2.5 亿次下载和 29,000 颗 GitHub Stars,并在最新一轮融资中获得 5,000 万美元 B 轮投资。

    RAG 的工作原理简述:

    1. 📄 文档上传 —— 你将 PDF、文本等文档上传至 N.O.M.A.D.
    2. 🔢 向量化 —— 系统使用 Ollama 提供的嵌入模型(Embedding Model),将文档内容转换为高维数学向量
    3. 💾 存储 —— 这些向量被存入 Qdrant 数据库,并建立高效的 HNSW 索引
    4. 查询 —— 当你向 AI 提问时,系统先将你的问题向量化,然后在 Qdrant 中搜索语义最相关的文档片段
    5. 🧩 增强生成 —— 将检索到的相关片段作为上下文注入 LLM 的提示词中,AI 便能基于你的私有文档给出准确回答

    这种架构意味着,你可以将自己的技术手册、操作规程、培训材料等专业文档加载进去,AI 助手便能基于这些特定内容回答问题——而不仅仅依赖模型预训练时学到的通用知识。正如有用户评价的那样:"加载 PDF 后,信息在几秒内就被 LLM 整合进来,成为全局知识库的一部分。"

    Qdrant 的 2025-2026 年技术亮点包括:GPU 加速的 HNSW 索引构建(大幅提升数据摄入速度)、混合检索(结合语义向量和关键词匹配的双重搜索)、内联存储和多种量化选项(1.5-bit / 2-bit / 4-bit)优化存储效率,以及 Qdrant Edge——专为边缘设备设计的轻量级嵌入式向量搜索引擎(适用于机器人、家庭助手等资源受限环境)。


    教育平台 (Powered by Kolibri)

    完整的可汗学院(Khan Academy)课程,支持进度跟踪和多用户管理,是偏远地区教学的理想选择。

    Kolibri 是由非营利组织 Learning Equality 开发的离线教育平台,截至 2026 年已在全球 220 多个国家和地区部署,超过 300 万名学习者通过它在没有互联网的条件下获取优质教育资源。最新版本于 2026 年 3 月 10 日发布。

    Kolibri 的完整能力远不止"可汗学院课程"这么简单:

    • 📚 海量多语言内容库 —— 内容涵盖 173 种以上语言,覆盖 K-12 全学段的 STEM(科学、技术、工程、数学)、公共卫生、网络安全、教师专业发展、编程和生活技能等多个领域。内容形式包括视频、电子书、交互式模拟、教育游戏和测验等。
    • 👩‍🏫 教师管理工具(Coach Dashboard) —— 教育者可以创建课程和测验,将学习资源分配给个人或小组,并通过实时仪表盘追踪每位学习者的进度——全部功能在离线环境下可用。
    • 🎯 个性化自主学习 —— 学习者可以按自己的节奏探索材料,在完成作业后获得即时反馈,系统还会根据学习历史推荐下一步学习内容。
    • 🔄 离线数据同步 —— 在 Kolibri 的"家庭-学校"模型中,学生可以带着预装了内容的平板回家学习。当他们回到学校时,学习数据会自动同步到学校的离线服务器上,教师便能在不依赖互联网的情况下提供跟进支持。
    • 🖥️ 低成本硬件兼容 —— Kolibri 可以在旧笔记本电脑或 Raspberry Pi 等低成本设备上运行,局域网中的任何设备(Linux、macOS、Windows、Android、iOS)都可以通过浏览器访问。

    实际部署案例:联合国儿童基金会(UNICEF)与乌干达政府合作,在该国偏远和服务不足的社区中部署 Kolibri 平台,解决了当地关键的教育挑战。加拿大不列颠哥伦比亚省的 BCcampus 项目(2025 年)也正将 80 多本开放教科书转换为 Kolibri 兼容格式,为该省偏远和农村社区中超过 20% 缺乏互联网连接的家庭提供离线学习资源。

    Kolibri 的完整生态系统包括:Kolibri(离线学习平台)、Kolibri Studio(基于 Web 的课程对齐工具)、Kolibri Content Library(内容库)和 Kolibri Content Pipeline(自动化内容聚合管道)。


    离线地图 (Powered by ProtoMaps)

    可下载的全球区域地图,支持基本的搜索与导航功能。

    Protomaps 是一个完全开源(BSD 许可证)的地图生态系统,它采用了一种革命性的方法来分发地图数据:将整个地图打包为单个 .pmtiles 文件。

    传统的地图服务(如 Google Maps、Mapbox)依赖复杂的服务器基础设施来分发数以千计的地图瓦片。Protomaps 则完全不同——它使用 PMTiles 开放归档格式,将金字塔结构的矢量地图数据打包进一个高效索引的单一文件中。 这意味着:

    • 🗺️ 真正的离线地图 —— 将地图文件下载到本地后,无需任何服务器即可渲染交互式、可缩放的地图。这使得在 Raspberry Pi、房车或帆船上运行完整的"私有 Google Maps"成为可能。
    • 🌍 灵活的区域选择 —— 完整的全球地图 .pmtiles 文件约 120GB,但你可以按需提取特定国家、城市或区域的数据,生成体积更小的文件。
    • 📊 基于 OpenStreetMap —— 地图数据来自 OpenStreetMap(OSM),Protomaps 的每日构建版本使用最新的 OSM 数据,以 ODbL 许可证分发。这保证了地图数据的开放性和时效性。
    • 🆓 完全免费与可控 —— 2025 年,Protomaps 完成了从"开放核心"到"完全开源"的转型,关闭了商业商店,所有之前的专有组件都已在 GitHub 上开源。项目获得了欧盟 NLnet 基金会(NGI0 Core Fund)的资助。

    Protomaps 支持 Web、React Native、Android 和 iOS 平台,被新闻业、地球科学和公共部门广泛采用,是 2026 年最活跃的开源地图项目之一。


    数据处理工具 (Powered by CyberChef)

    被称为"瑞士军刀"的数据处理工具,支持加密、解密、编码转换和数据分析。

    CyberChef 由英国政府通信总部(GCHQ)开发并以 Apache 2.0 许可证开源,是一款完全在浏览器中运行的数据转换与分析工具——你的输入数据和操作配方不会发送到任何服务器,这在离线安全分析场景中至关重要。 当前最新版本为 v10.22.1(2025 年 2 月发布)

    CyberChef 支持的操作类型极为丰富:

    • 🔐 加密与解密 —— AES、DES、Blowfish、RSA、甚至还原了历史上著名的 Enigma 密码机和 Typex 加密操作
    • 🔄 编码与转换 —— Base64、URL 编码、Hex、Unicode、HTML 实体、Braille 编码等数十种格式互转
    • 🔍 哈希与校验 —— MD5、SHA 系列、BLAKE2s/BLAKE2b
    • 📊 数据分析 —— 热力图(Heatmap Chart)、散点图(Scatter Chart)、十六进制密度图(Hex Density Chart)、序列图(Series Chart)
    • 🖼️ 隐写术 —— 提取 LSB(最低有效位)、提取 RGBA 通道、随机化色彩调色板、查看位平面(Bit Plane)
    • 🧮 其他实用工具 —— IPv6/X.509 解析、二进制/十六进制转储、数据压缩与解压、正则表达式操作

    CyberChef 的核心设计理念是"拖拽式操作链"(Recipe):你可以将多个操作拖拽排列成一条"流水线",输入数据会按顺序通过每个操作节点进行转换。它还支持自动执行(Auto-bake)、断点调试(Breakpoints)和流程控制(条件分支),使得复杂的数据处理任务变得直观而高效。

    适用人群包括:网络安全分析师、数据工程师、开发者、数学家,甚至密码谜题爱好者。


    本地笔记 (Powered by FlatNotes)

    支持 Markdown 格式的本地笔记系统,随时记录重要信息。

    FlatNotes 是一款极简主义的自托管笔记应用,其最大特色是"无数据库"设计——所有笔记以纯 Markdown 文件的形式存储在一个扁平文件夹中。 这带来了独特的优势:

    • 📝 双编辑模式 —— 同时支持原始 Markdown 编辑和所见即所得(WYSIWYG)编辑器,适应不同用户偏好
    • 🔍 全文搜索 —— 基于 Whoosh 搜索引擎的快速全文检索,搜索索引增量同步
    • 🏷️ 标签与 Wikilinks —— 支持标签分类和笔记间的 Wiki 链接,构建知识网络
    • 🔐 安全特性 —— 支持多种认证方式和双因素认证(2FA)
    • 🔗 分享与 API —— 可生成只读分享链接,提供 RESTful API 接口便于与其他工具集成
    • 📱 响应式设计 —— 移动端自适应,通过 Docker 部署(默认端口 8080)

    由于笔记以纯文本文件存储,你可以随时在 FlatNotes 之外使用任何文本编辑器查看和编辑这些文件——即使应用正在运行也不会冲突。这种透明的存储方式意味着备份操作只需简单地复制文件夹即可完成。


    系统基准测试

    内置硬件评分系统,帮助你了解设备的性能极限,并在社区排行榜上对比。

    N.O.M.A.D. 内置的基准测试工具会对你的硬件进行全面评估,生成一个综合的"NOMAD Score"(NOMAD 评分)。 具体细节如下:

    • 📊 社区排行榜 —— 测试完成后,你可以在 benchmark.projectnomad.us 上查看排名,与全球其他 N.O.M.A.D. 用户的硬件配置进行对比
    • 📈 真实数据参考 —— 截至目前,排行榜已收集了 92 份社区提交数据。平均 NOMAD Score 为 67 分,中位数为 75 分——这些数据可以帮助你评估自己的硬件是否满足特定使用需求
    • 🎯 性能预期管理 —— 通过基准测试结果,你可以直观了解在当前硬件上运行不同规模 AI 模型的预期表现,从而做出合理的配置选择

    它是如何运作的

    N.O.M.A.D. 本质上是一个管理控制中心 (Command Center)。它提供了一个直观的 Web 界面,负责所有工具的安装、配置和更新。

    • 极简安装 —— 基于 Debian 系统(要求 Ubuntu 22.04+ 或 Debian 12+),通过一行简单的终端指令即可完成部署。安装脚本会自动处理 Docker 引擎、数据库和 Web 管理界面的全部安装与配置工作——如果系统尚未安装 Docker,脚本会自动完成安装。
    • 🌐 无感访问 —— 安装完成后,局域网内的任何设备(手机、平板、电脑)只需通过浏览器访问服务器 IP 即可使用,无需安装客户端。这也意味着你不需要为服务器安装桌面环境——可以将它设置为一台"无头"(headless)服务器,仅通过其他设备的浏览器远程操作。
    • 🔧 模块化管理 —— 通过 Command Center 的 Web 界面,你可以一键安装、启用、禁用或卸载各个工具模块。所有的内容下载(如维基百科 ZIM 文件、地图数据、AI 模型等)也通过这个统一界面管理。
    • 📡 局域网服务 —— 连接一个 WiFi 路由器或无线接入点到你的 N.O.M.A.D. 设备上,其他设备就可以通过 WiFi 连接并访问所有服务。对于完全离网的场景,一套 "太阳能板 + 电池 + 迷你电脑 + WiFi 接入点" 的组合就能构成一个完整的离线知识站。

    技术架构简图:

    ┌─────────────────────────────────────────────┐
    │          N.O.M.A.D. Command Center          │
    │             (Web 管理界面)                    │
    ├─────────────────────────────────────────────┤
    │  Docker Engine  (容器编排层)                  │
    ├──────┬──────┬──────┬──────┬──────┬──────────┤
    │Kiwix │Ollama│Kolibri│Proto-│Cyber │FlatNotes │
    │      │  +   │      │ Maps │ Chef │          │
    │      │Qdrant│      │      │      │          │
    ├──────┴──────┴──────┴──────┴──────┴──────────┤
    │        Debian / Ubuntu 操作系统               │
    ├─────────────────────────────────────────────┤
    │          硬件 (x86 架构)                      │
    └─────────────────────────────────────────────┘

    硬件要求:从轻量到强大

    虽然 N.O.M.A.D. 核心框架非常轻量(最低 2GB 内存即可运行),但由于它集成了本地 AI 工具,硬件需求会根据你的使用场景而变化。Project N.O.M.A.D. 运行在任何 x86 架构的 Linux 计算机上,不绑定任何硬件厂商,设计上尽可能保持硬件无关性。

    官方推荐的三个硬件层级如下:


    💰 预算层(约 $200)—— 入门离线知识库

    适合:离线百科查阅、地图、教育平台,以及运行小型 AI 模型的基本对话

    配置项推荐
    设备类型翻新/二手迷你 PC(如 Dell OptiPlex Micro、Lenovo ThinkCentre Tiny、HP EliteDesk Mini)
    CPU2GHz 双核以上
    内存8-16GB DDR4(这类企业退役设备通常已预装内存,性价比极高)
    存储256GB SSD 以上(建议 SSD 以获得流畅的浏览体验)

    💡 提示:搜索"refurbished mini PC 16GB"可以找到大量来自企业批量退役的高性价比设备,DDR4 系统通常已预装内存,相比购买 DDR5 新内存可节省数百美元。


    ⚡ 中端层(约 $400-600)—— 流畅的 AI 对话体验

    适合:运行中等规模 AI 模型(7B-13B 参数),流畅的文档问答和代码生成

    配置项推荐
    CPURyzen 5 / Intel i5 或更高
    内存16-32GB
    GPU入门级独立显卡(如 NVIDIA RTX 3060 6GB/12GB),或具有较大共享内存的 APU
    存储512GB - 1TB SSD

    🚀 顶级层(约 $800+)—— 完整的 N.O.M.A.D. 体验

    这是社区排行榜上最受欢迎的配置层级,可以运行大型 AI 模型并获得接近云端的响应速度。

    配置项推荐
    CPU建议配置 Ryzen 7/i7 处理器以上
    内存32GB 以上
    GPUNVIDIA RTX 3060 以上显卡
    存储1TB+ NVMe SSD

    VRAM(显存)越大,运行的 AI 模型就越聪明、越快速。

    💡 顶级方案:Ryzen AI MAX+ 395 APU 迷你 PC 被社区誉为"终极 APU 构建"——在不使用独立显卡的紧凑迷你 PC 机型中实现了最大化的 AI 性能。

    📌 关键参考:AI 模型的内存需求随参数规模急剧增长。1B-3B 参数模型最低需要 4GB 内存(建议 8GB);7B-13B 模型建议 16-32GB;30B+ 模型需要 32GB 以上(建议 64GB+)。如果你拥有足够大的 VRAM,模型可以完全加载到 GPU 中,获得数倍于纯 CPU 运行的速度提升。


    生态系统与衍生版本

    Project N.O.M.A.D. 已发展出一个活跃的生态系统,包括多个社区驱动的衍生版本:

    • 🏠 Homelab Edition(家庭实验室版) —— 由社区成员 DocwatZ 开发的容器原生分支,专为 NAS 系统和家庭实验室环境优化。它作为可移植的 Docker Compose 堆栈运行,支持 Unraid、TrueNAS SCALE 和任何标准 Docker 主机,并内置了家庭实验室监控功能。
    • 🍎 macOS 版本 —— 由社区成员 Aaron Bailey 开发的 macOS 兼容版本,让 Mac 用户也能体验 N.O.M.A.D. 的核心功能。
    • 🍌 Banana Project NOMAD —— PurpleBanana-ai 开发的另一个社区分支。
    • 🤝 活跃的社区 —— 项目拥有 Discord 社区,用户可以在这里获取帮助、分享硬件构建方案,并与其他 N.O.M.A.D. 用户交流经验。

    如果你正在寻找更轻量级的方案,基于 Raspberry Pi 的 "Internet in a Box" 是一个替代选择。Project N.O.M.A.D. 的定位则是"完整体验"——GPU 加速 AI、全面的内容库和专业的管理界面。


    隐私与安全

    • 🔒 真正的隐私 —— 除了初始安装和下载资源外,它不需要任何网络连接,且零内置遥测,不会上传你的任何数据。你的所有对话记录、上传的文档、笔记内容和使用数据都完全保留在本地设备上,绝不会发送到任何外部服务器。这是与所有云端 AI 服务(ChatGPT、Claude 等)最本质的区别。
    • ⚠️ 开放设计 —— 为了方便在紧急情况下快速使用,系统默认不设登录密码。因此,建议在可控的局域网内使用,不要直接暴露在公网上。如果你需要在更广泛的网络环境中部署,建议配合 VPN、防火墙规则或反向代理(如 Nginx/Caddy)来增加访问控制。FlatNotes 等部分组件支持独立的认证机制(包括 2FA),可以为敏感数据提供额外的保护层。
    • 🛡️ 数据主权 —— 在当前数据隐私法规日趋严格的背景下(如欧盟 GDPR、中国个人信息保护法等),N.O.M.A.D. 提供了一种极端但有效的合规方案:数据从未离开过你的物理设备,因此从根本上消除了数据跨境传输、第三方数据处理等合规风险。

    与类似项目的对比

    为了帮助你更好地理解 N.O.M.A.D. 的定位,以下是它与其他离线知识方案的简要对比:

    特性Project N.O.M.A.D.Internet in a Box单独部署 Kiwix
    本地 AI(LLM)✅ Ollama + RAG
    离线百科✅ Kiwix 集成✅ Kiwix 集成
    教育平台✅ Kolibri✅ Kolibri
    离线地图✅ ProtoMaps✅ OpenStreetMap
    数据处理工具✅ CyberChef
    统一管理界面✅ Command Center✅ 管理面板
    GPU 加速 AI
    目标硬件x86 PC / 工作站Raspberry Pi任意
    资源需求中-高

    小结

    Project N.O.M.A.D. 不仅仅是一个软件集合,它更像是一个数字时代的避难所。无论你是探险家、教育者,还是对数据主权有极端追求的技术爱好者,N.O.M.A.D. 都能确保在最极端的情况下,知识依然触手可及。

    在 AI 技术飞速发展但对云端依赖日益加深的今天,N.O.M.A.D. 代表了一种反向思潮:将最先进的技术带回本地,让个人重新掌控自己的数据和知识基础设施。它不是要取代互联网,而是为你提供一张终极安全网——无论外部世界发生什么变化,你的知识堡垒始终矗立,永不下线。


    📌 快速参考链接

    Brave 回复 2 days, 19 hours ago 1 成員 · 0 回复
  • 0 回复

歡迎留言回复交流。

Log in to reply.

讨论開始
00 回复 2018 年 6 月
現在