一、本地部署方案:Ollama轻松搭建
Ollama作为一款专业的LLM管理工具,具备以下优势:
支持多种主流操作系统 安装配置极其简单 模型管理灵活便捷
二、快速部署指南
获取安装包: 访问官网
https://ollama.com/download
下载适合自己系统的版本
2.空间管理技巧: 如果C盘空间紧张,可通过设置OLLAMA_MODELS
环境变量,将模型存储位置指向其他磁盘,如:D:Ollama
3.模型部署: 打开命令行,根据需求选择:
部署DeepSeek: ollama run deepseek-r1:14b
部署千问: ollama run qwen2.5-coder:14b
三、ANToolsPro配置要点
软件亮点:
支持多种API接入: DeepSeek官方: https://api.deepseek.com/v1/chat/completions
硅基流动: https://api.siliconflow.cn/v1/chat/completions
Ollama本地: http://localhost:11434/api/chat
实现流式输出,响应快速流畅 界面交互直观友好
(设置API参数)
(右上角弹出的AI助手就可以对其进行提问了)
获取方式
软件下载链接:https://www.alipan.com/s/v9ffGQVKAkj
(提取码: z16j)
首次使用时,点击授权按钮并扫码联系获取授权。支持临时授权试用和正式授权两种方式。
更多交流可以扫码加群
如失效可添加小编
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...