手记

在您的Mac上运行本地语言模型的最详尽指南

大家好!想在你的Mac上运行LLM(大型语言模型)吗?这里有份指南!我们将介绍三个强大的工具,在你的Mac上运行LLM,不需要依赖云服务或昂贵的订阅。

无论你是编程新手还是有经验的开发者,你都能很快上手。这是评估不同开源模型,或者在自己的机器上搭建环境编写AI应用程序的好方法。

我们将从易于使用的过渡到需要编程的解决方案。

我们正在使用的一些产品:
  1. LM Studio:人人皆宜的用户友好型AI平台
  2. Ollama:高效且开发友好型
  3. Hugging Face Transformers:高级模型库

如果你想看这个教程的视频版本,就在这里!

那咱们就开始吧。

1. LM工作室:人人都能用的友好型AI

这里有一张图片的链接:图片链接

LM Studio 是初学者和专家的理想起点。它提供了一个非常直观的界面,用于探索和使用各种AI模型,非常方便。

开始使用LM Studio之旅

  1. 访问lmstudio.ai并下载适用于您 Mac 的版本。
  2. 将下载的文件拖拽到您的 Applications 文件夹中,以此来安装 LM Studio。
  3. 启动 LM Studio 并根据提示进行安全设置。

描述图片内容或添加说明。

探索模型

在主页中,点击“加载一个模型”或从“新亮点”列表中选择模型。

  1. 我们将在本教程中使用 "llama2 3B" 模型。点击以下载它。
  2. 下载后,点击 "加载模型" 来激活它。


如下图所示:这是一张示例图片。

使用聊天界面功能

  1. 加载好模型后,你就可以在聊天界面开始与它互动了。
  2. 试着问个问题,比如“告诉我一个关于Python的搞笑笑话。”

  1. 注意模型的反应和性能指标(如每秒token数和上下文使用情况)。

这是一张图片,点击这里查看:

利用API服务器

LM Studio 还提供了一个兼容 OpenAI 的 API 服务器,便于与您的应用程序集成。

  1. 点击左侧边栏中的服务器图标。
  2. 点击“启动服务器程序”按钮启动服务器程序。

    复制提供的服务器地址(通常为 http://localhost:1234)。

你可以看到一系列可用的端点:

    GET http://localhost:1234/v1/models
    POST http://localhost:1234/v1/chat/completions
    POST http://localhost:1234/v1/completions
    POST http://localhost:1234/v1/embeddings

切换到全屏 / 退出全屏

你现在可以使用这个地址,通过Postman这样的工具或你自己的代码向模型发送请求。这里有一个使用Postman的简单示例:

  1. 发起一个新的POST请求到 http://localhost:1234/v1/chat/completions
  2. 将请求体设置为如下JSON格式:
{
  // 内容根据具体需求定义
}
    {
            "model": "lmstudio-community/Qwen2.5-14B-Instruct-GGUF/Qwen2.5-14B-Instruct-Q4_K_M.gguf",
            "messages": [
                {
                    "role": "system",
                    "content": "你是一个乐于助人的搞笑高手,对Python非常了解"
                },
                {
                    "role": "user",
                    "content": "给我讲一个关于Python的搞笑笑话。"
                }
            ],
            "response_format": {
                "type": "json_schema",
                "json_schema": {
                    "name": "joke_response",
                    "strict": "true",
                    "schema": {
                        "type": "object",
                        "properties": {
                            "joke": {
                                "type": "string"
                            }
                        },
                        "required": [
                            "joke"
                        ]
                    }
                }
            },
            "temperature": 0.7,
            "max_tokens": 50,
            "stream": false
        }

全屏显示,退出全屏

发送请求,然后观察模型的回复。

LM Studio非常适合快速测试各种模型,并以最少的设置将它们集成到您的项目中。

2. Ollama:既高效又便于开发者使用:

Ollama(奥拉马)是一个轻便且功能强大的工具,非常适合喜欢通过命令行操作的开发者,用于部署大语言模型 (LLM)。

安装OLLAMA:

  1. 访问Ollama网站,然后下载Mac版。
  2. 将下载的文件拖放到您的 Applications 文件夹中以安装 Ollama。
  3. 启动 Ollama 并按提示处理安全问题。

从终端使用 Ollama

  1. 打开终端窗口,例如使用快捷键Ctrl+Alt+T。
  2. 运行 Ollama list 来查看可用的模型。

点击此处查看图片

  1. 要下载并运行模型程序,可以使用:Ollama run <model-name>
    比如:Ollama run qwen2.5-14b,其中<model-name>是模型的具体名称,如qwen2.5-14b

    模型加载完成后,你就可以直接在终端里和它互动。

查看图片:点击这里

奥拉命令和功能介绍

  • 你可以使用 /? 查看当前模型会话中的可用命令。
  • 你可以使用 /bye 结束模型会话。
  • 你可以使用 --verbose 选项来详细运行模型。

用Ollama的API

Ollama 还提供了一个 API,以便与您的应用程序集成:

  1. 确保 Ollama 正在运行(您会在菜单栏中看到它的图标)。
  2. http://localhost:11434/api/generate 发送 POST 请求到。

比如使用 Postman 的时候,可以这样做:

    {
          "model": "qwen2.5:14b",
          "prompt": "讲一个关于Python编程语言的搞笑笑话给我听",
          "stream": false
    }

全屏;退出全屏

点击图片查看详细信息

Ollama Python库

对于Python开发者来说,Ollama提供了一个方便的库。

  1. 安装库包:pip install ollama
  2. 在你的Python脚本中使用它,例如:
    import ollama
    response = ollama.chat(model='qwen2.5:14b', messages=[
      {
        'role': '身份',  # 身份更符合此处的语境,而不是“角色”
        'content': '给我讲一个关于Golang的搞笑笑话!',  # 更自然地表达“Tell me a funny joke about Golang!”
      },
    ])
    print(response['message']['content'])

点击全屏按钮进入全屏模式,点击退出按钮退出全屏模式

如图所示

Ollama 在易用性和灵活性之间取得了很好的平衡,因此非常适合开发者用来构建 AI 驱动的应用程序。

3. Hugging Face Transformers,高级模型使用

Hugging Face Transformers 提供了一个强大的库,提供了许多模型的访问权限,并且让你对这些模型的使用有更多的掌控。

设置Hugging Face的Transformers

首先,创建一个新的Python虚拟环境:

运行命令 `python -m venv env` 创建一个名为env的虚拟环境。
运行命令 `source env/bin/activate` 激活这个虚拟环境。

全屏 退出全屏

  1. 安装需要用到的库:
    pip install: torch transformers accelerate
    # 安装这些包,它们是用于深度学习和自然语言处理的工具。

全屏 退出全屏

安装Hugging Face的命令行工具(CLI)。

请确保您已安装pip并具有Python环境。运行以下命令来升级安装Hugging Face Hub的命令行界面插件:

pip install -U huggingface_hub[cli]

进入全屏,退出全屏

进入Hugging Face,

请在命令行中输入以下内容来登录Hugging Face:

huggingface-cli login

然后按照提示完成登录过程。

进入全屏,退出全屏

(您需要在Hugging Face网站上获取一个user access token

使用基于Transformers的模型

以下是一个简单的例子:使用3.2版本的3B规模的LLaMA模型。

import torch
from transformers import pipeline

model_id = "meta-llama/Llama-3.2-3B-Instruct"
pipe = pipeline(
    "text-generation",
    model=model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)
messages = [
    {"role": "system", "content": "你是一个海盗聊天机器人,总是用海盗腔调回复!"},
    {"role": "user", "content": "你是谁?"},
]
outputs = pipe(
    messages,
    max_new_tokens=256,
)
print(outputs[0]["生成文本"][-1])

切换到全屏 退出全屏

Hugging Face Transformers 的优势

  1. 访问一个庞大的模型库
  2. 对模型参数的细致控制
  3. 针对特定任务进行模型微调
  4. 与流行的深度学习框架无缝集成

虽然Hugging Face Transformers需要更多的编码知识,但它提供了无与伦比的灵活性,并且可以访问最新的AI模型。

总结。

这是一张图片链接,点击可以查看图片。

我们已经发现了三个强大的工具,这些工具可以在您的 Mac 上本地运行 AI 模型的应用。

  1. LM Studio:非常适合初学者和快速实验
  2. Ollama:更适合喜欢命令行界面和简单API集成的开发者
  3. Hugging Face Transformers:最适合需要访问多种模型并进行精细控制的高级用户

每个工具都有其强项,选择应根据您的具体需求和专业技能。通过在本地运行这些模型,这样您可以更好地掌控自己的AI应用,同时保护您的数据隐私,同时避免云服务的费用。

在使用较大模型时,请先考虑您的 Mac 配置,因为这些模型可能需要较多资源。可以从较小的模型开始,随着您逐渐熟悉工具和硬件性能,再逐步尝试更大模型。

祝你编程愉快,享受探索 Mac 上的本地 AI 的世界!

如有任何问题或意见,欢迎随时联系或留言。

0人推荐
随时随地看视频
慕课网APP