Ollama的本地化配置
2024-7-24 13:16
阅读:363
Ollama的本地化配置
1. 在Ollama的官网,下载并安装Ollama。
2. 安装完成后,点击Ollama的models选择待安装的大模型。
3. 找到gemma,并选择2b,复制ollama run gemma:2b。
4. Win+R并输入cmd,粘贴ollama run gemma:2b,开始该模型的安装。
该模型的大小的1.7G,用户可以根据吱声电脑的算力情况下载更大的模型包。
5. 安装后就可以实现本地对话。
转载本文请联系原作者获取授权,同时请注明本文来自李杰科学网博客。
链接地址:https://wap.sciencenet.cn/blog-554179-1443541.html?mobile=1
收藏
下一篇
当前推荐数:0
推荐到博客首页
网友评论0 条评论