#拉取模型ollama pull <model-name>#启动ollama serve
第二步、安装Ollama前端程序与本地LLMs聊天的Web界面克隆代码并启动git clone https://github.com/HelgeSverre/ollama-gui.gitcd ollama-guiyarn installyarn dev
启动后,界面如下:本地Web界面第三步、比简单更简单比简单更简单,通过 Ollama 轻松在你的电脑上运行 LLM第一步、选择模型列表,点击下载我选择了Chinese Llama 2 7B这个LLM全部开源,完全可商用的中文版 Llama2 模型及中英文 SFT 数据集,输入格式严格遵循 llama-2-chat 格式,兼容适配所有针对原版 llama-2-chat 模型的优化我们可以选择需要下载的LLM一键下载LLM还可以自定义模型位置,解决C盘没空间的问题自定义LLM的路径第二步、下载完成后,如图所示:本地大模型列表点击WebUI按钮第三步,Enjoy(图片来源网络,侵删)
0 评论