跳转到主要内容

Ollama LLM框架与Haystack的集成

项目描述

ollama-haystack

PyPI - Version PyPI - Python Version


目录

安装

pip install ollama-haystack

许可证

ollama-haystack 在Apache-2.0许可证的条款下分发。

测试

要运行测试,首先启动一个运行Ollama并拉取用于集成测试的模型的Docker容器。建议使用尽可能小的模型进行测试 - 请参阅https://ollama.ac.cn/library以获取Ollama支持的列表

docker run -d -p 11434:11434 --name ollama ollama/ollama:latest
docker exec ollama ollama pull <your model here>

然后运行测试

hatch run test

这里使用的默认模型是用于生成的orca-mini和用于嵌入的nomic-embed-text

项目详情


下载文件

下载适合您平台的应用程序。如果您不确定选择哪一个,请了解更多关于安装软件包的信息。

源代码分发

ollama_haystack-1.0.1.tar.gz (16.8 kB 查看哈希值)

上传时间 源代码

构建发行版

ollama_haystack-1.0.1-py3-none-any.whl (14.8 kB 查看哈希值)

上传时间 Python 3

由以下支持