559 字
3 分钟
Ollama部署遇到的一些坑
  • updated time: 2024-08-17

image

于是开始跑超大参数的大模型,目前用着最顺手的ollama部署,类似docker的命令,以及其专为推理所作的优化,太爱了

  1. 相关ollama模型下载问题

    走的cloudflare,可以直连,速度很快

  2. ollama外网调用的设置问题

    1.  sudo vim /etc/systemd/system/ollama.service
      
    2. 开始只设置了,Page Assist插件正常使用,以及openai-translator等原生支持ollama的正常使用

      Environment="OLLAMA_HOST=0.0.0.0:11434"
      
    3. 后续提出需求,使用浏览器插件进行翻译,但openai-translator中只提供了openai的调用

    4. 配置修改后执行

      systemctl daemon-reload #重载daemon文件
      systemctl start ollama #启动ollama服务
      
    5. 若仍未生效,则执行

      ps aux | grep ollama #查看当前运行的ollama进程
      kill PID
      
  3. ollama的使用问题

    使用浏览器插件

    1. Page Assist - 本地 AI 模型的 Web UI - Chrome 应用商店 (google.com)
    2. openai-translator/openai-translator: 基于 ChatGPT API 的划词翻译浏览器插件和跨平台桌面端应用 - Browser extension and cross-platform desktop application for translation based on ChatGPT API. (github.com)
    3. 沉浸式翻译 - 双语对照网页翻译插件 | PDF翻译 | 视频字幕翻译 (immersivetranslate.com)(强力推荐,双语对照,非常好用)
  4. ollama模型文件目录

    /usr/share/ollama/.ollama/models/blobs

    把别的地方下载好的ollama文件丢过去就行。

    可以用python开个http服务器

    python -m http.server 8088 --bind 0.0.0.0

    然后wget直接拉整个文件夹

    wget -r -np -N -nH --cut-dirs=1 http://10.0.8.222:8088/

Ollama部署遇到的一些坑
https://blog.sfunction.top/posts/ollama部署遇到的一些坑/
作者
微茫之心
发布于
2024-07-19
许可协议
CC BY-NC-SA 4.0