带ollama的镜像:
docker run -d -p 8888:8080 \ -v /root/ollama:/root/.ollama \ -v /root/openwebui-test:/app/backend/data \ --restart always -e HF_HUB_OFFLINE=1 \ ghcr.io/open-webui/open-webui:ollama
不要Ollama:
docker run -d -p 8888:8080 -v /root/openwebui-test:/app/backend/data --restart always ghcr.io/open-webui/open-webui:main docker run -d -p 8888:8080 -v /root/openwebui-test:/app/backend/data --restart always dockerproxy.com/kevinchina/deeplearning:openwebui
ollama
ollama run qwen2.5:0.5b-instruct ollama ps
访问ollama接口:
https://gitcode.csdn.net/66277296c46af92642763e71.html
curl http://localhost:11434/api/generate -d '{ "model": "dolphin-phi", "prompt":"Why is the sky blue?" }'
升级:
打开vpn之后: docker pull ghcr.io/open-webui/open-webui:ollama 然后重新docker run
本文作者:Dong
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 CC BY-NC。本作品采用《知识共享署名-非商业性使用 4.0 国际许可协议》进行许可。您可以在非商业用途下自由转载和修改,但必须注明出处并提供原作者链接。 许可协议。转载请注明出处!