2025年4月10日

📌 **1. 如何在你的 Mac 上本地运行 DeepSeek 和其他 LLMs**
🔗 [原文链接](https://www.cultofmac.com/how-to/run-deepseek-locally-on-mac)

**摘要:** 想出于隐私考虑,在你的 Mac 上本地运行 DeepSeek 或其他 AI 大型语言模型 (LLMs) 吗?本指南将教你如何免费实现这一目标。

**正文:**

像 ChatGPT、Google 的 Gemini 以及 Apple Intelligence 这样的 AI 服务虽然功能强大,但它们普遍存在一个显著的局限性——即必须依赖持续的互联网连接才能运作。如果你高度重视个人隐私,并且追求更优的运行性能,那么在本地设备上运行诸如 DeepSeek、Gemma、Llama 3 或 Phi-3 等大型语言模型(Large Language Models, LLMs)无疑是一个极具吸引力的选择。本篇指南旨在详细介绍如何利用一款名为 Ollama 的免费、开源工具,在你的 Mac 电脑上轻松部署并运行这些先进的 AI 模型。

**本地运行 LLMs 的优势:**

* **隐私保护:** 所有数据处理均在本地完成,你的输入(提示)和 AI 的输出(生成内容)都不会被发送到外部服务器,确保了敏感信息的安全。
* **离线可用:** 无需网络连接即可使用,摆脱了对互联网稳定性的依赖。
* **潜在性能优势:** 对于配备了高性能硬件(尤其是 Apple Silicon 芯片)的 Mac 而言,本地运行可能比通过网络调用云端服务响应更快。
* **成本效益:** Ollama 及许多开源 LLMs 都是免费的,无需支付 API 调用费用。

**如何使用 Ollama 在 Mac 上运行 LLMs:**

1. **安装 Ollama:**
* 访问 Ollama 官方网站 (`ollama.com`)。
* 下载适用于 macOS 的应用程序。
* 按照标准的 Mac 应用安装流程完成安装。过程通常非常简单直接。

2. **下载并运行模型 (通过终端 Terminal):**
* Ollama 主要通过命令行界面进行交互。打开你的“终端”应用程序 (位于“应用程序” -> “实用工具”文件夹中)。
* 使用 `ollama run [model_name]` 命令来下载并运行指定的 LLM。例如:
* 要运行 DeepSeek 的代码优化版本:`ollama run deepseek-coder`
* 要运行 Meta 的 Llama 3 (8B 指令调优版):`ollama run llama3:8b-instruct`
* 要运行 Google 的 Gemma (2B 版本):`ollama run gemma:2b`
* 要运行 Microsoft 的 Phi-3 (迷你 4k 指令版):`ollama run phi3:mini-4k-instruct`
* 首次运行某个模型时,Ollama 会自动从其库中下载所需的模型文件。下载时间取决于你的网络速度和模型的大小(可能从几百MB到几十GB不等)。
* 下载完成后,Ollama 会在终端窗口内启动一个交互式聊天界面,你可以直接输入提示并与该 LLM 进行对话。输入 `/bye` 可以退出当前模型会话。

3. **探索更多模型:**
* 你可以在 Ollama 的官方网站的模型库页面找到一个庞大的、持续更新的可用模型列表,涵盖各种规模和特定任务优化的 LLMs。

4. **图形界面 (GUI) 替代方案:**
* 如果你不习惯使用终端,市面上也有一些第三方应用程序为 Ollama 或类似的本地 LLM 运行框架提供了图形用户界面。例如:
* **LM Studio:** 一个流行的选择,提供友好的界面来发现、下载、管理和运行各种本地 LLMs,并支持硬件加速。
* **GPT4All:** 另一个开源项目,旨在让普通用户也能轻松在个人电脑上运行聊天机器人模型。

**硬件要求考量:**

* **芯片:** 强烈推荐使用配备 Apple Silicon 芯片 (M1, M2, M3 系列) 的 Mac。这些芯片的统一内存架构 (Unified Memory Architecture, UMA) 非常适合 AI 计算,能让 CPU 和 GPU 高效共享内存,显著提升 LLM 的运行性能。
* **内存 (RAM):** 这是运行 LLMs 最关键的硬件因素之一。虽然最低 8GB RAM 或许可运行一些小型模型,但强烈建议配备 **16GB 或更多 RAM**。内存越大,能流畅运行的模型就越大、越复杂,性能也越好。运行大型模型时,RAM 消耗可能非常高。
* **存储空间:** LLM 模型文件可能相当大,确保你的硬盘有足够的可用空间来存储你想要使用的模型。

**总结:**

虽然设置过程涉及一些技术步骤,但像 Ollama 这样的工具已大大降低了在个人 Mac 上部署和运行强大 AI 模型的门槛。通过本地运行 LLMs,你不仅能享受到尖端 AI 技术带来的便利,更能牢牢掌控自己的数据隐私,实现真正的个性化、安全、高效的 AI 体验。对于关注隐私、希望离线使用或想充分利用 Mac 硬件性能的用户来说,这无疑是一个值得探索的方向。

作者 kelvin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注