跳转到主要内容

通过LLM访问llamafile localhost模型

项目描述

llm-llamafile

PyPI Changelog Tests License

通过LLM访问llamafile localhost模型

安装

将此插件安装在与LLM相同的环境中。

llm install llm-llamafile

使用

确保您在localhost上有一个正在运行的llamafile,在端口8080上提供与OpenAI兼容的API端点。

然后您可以使用llm像这样与该模型交互

llm -m llamafile "3 neat characteristics of a pelican"

开发

要本地设置此插件,首先检出代码。然后创建一个新的虚拟环境

cd llm-llamafile
python3 -m venv venv
source venv/bin/activate

现在安装依赖项和测试依赖项

llm install -e '.[test]'

要运行测试

pytest

项目详情


下载文件

下载适合您的平台文件。如果不确定选择哪个,请了解有关安装包的更多信息。

源分发

llm_llamafile-0.1.tar.gz (6.2 kB 查看哈希值)

上传时间:

构建分发

llm_llamafile-0.1-py3-none-any.whl (6.5 kB 查看哈希值)

上传时间: Python 3

由以下支持