
3 月 22 日,南京,聊聊生成式 AI 应用构建

Ollama 是开源跨平台大模型工具,让运行 Llama 3、DeepSeek-R1、Gemma 3 以及其他大语言模型变得更容易,现已发布最新版本 0.6.2。
Ollama 是一个开源的本地大语言模型运行框架,简化了利用 llama.cpp 后端运行各种 LLM 以及与其他桌面软件方便集成的过程,为普通用户提供简单易用的大语言模型(LLM)的本地部署和管理。
它支持多种先进的模型,如 LLaMA、DeepSeek、Mistral 等,并提供简单易用的界面和 API。Ollama 的特点包括轻量级设计、跨平台支持(Windows、Linux、macOS)、模型微调与自定义功能,以及高效的推理性能。
由于其便捷性和开源特性,Ollama 获得了大量用户的青睐,被广泛用于本地部署 DeepSeek 等大模型。
随着 ollama 0.6.2 的发布,现在已支持 AMD Strix Halo GPU,即 Ryzen AI Max+笔记本电脑/紧凑型台式机 SoC。
ollama 0.6.2 另一项重要更新是提供了一系列针对其 Gemma 3 LLM 支持的修复,包括支持 Gemma 3 的多张图片。
有关 ollama 0.6.2 版本的更多详情和下载,请访问 GitHub。
还没有评论,来说两句吧...