使用Ollama简单部署本地Qwen2

Ollama 是一个开源的、本地运行的 AI 聊天模型,允许在自己的设备上运行 LLM,无需依赖云服务。它支持多种 LLM。目前Ollama library已经支持Qwen2,可以直接使用。 首先安装ollama, 访问官网 下载 ollama 对应版...