使用cpu在ollama上运行qwen3-4b

时间:2025-12-11
1.下载Ollama

        浏览器打开https://ollama.com/download,选择windows版本

2.安装Ollama

    直接运行下载好的OllamaSetup.exe文件

3.下载模型,

    模型选择qwen3:4b,发送一条消息你好,Ollama自动开始下载模型,模型下载完后开始回答用户问题。

4.与qwen3对话。

    模型下载好后就可以直接对话了,发送你好,第一次相应时间是30秒,再发一次你好,响应时间是64秒,cpu占用率达到100%,CPU型号是11700,内存32G



使用同样的方式部署gemma3:4b,回答速度很快

【推荐】 从零训练 Gemma3
【推荐】 黑客最好用的渗透工具都在这里了!快来看看哪个是你喜欢的?
【推荐】 如何搭建一个属于自己的直播平台?
【推荐】 一文了解DeepSeek及应用场景