通过LLM访问llamafile localhost模型
项目描述
llm-llamafile
通过LLM访问llamafile localhost模型
安装
将此插件安装在与LLM相同的环境中。
llm install llm-llamafile
使用
确保您在localhost
上有一个正在运行的llamafile
,在端口8080上提供与OpenAI兼容的API端点。
然后您可以使用llm
像这样与该模型交互
llm -m llamafile "3 neat characteristics of a pelican"
开发
要本地设置此插件,首先检出代码。然后创建一个新的虚拟环境
cd llm-llamafile
python3 -m venv venv
source venv/bin/activate
现在安装依赖项和测试依赖项
llm install -e '.[test]'
要运行测试
pytest
项目详情
下载文件
下载适合您的平台文件。如果不确定选择哪个,请了解有关安装包的更多信息。
源分发
llm_llamafile-0.1.tar.gz (6.2 kB 查看哈希值)
构建分发
llm_llamafile-0.1-py3-none-any.whl (6.5 kB 查看哈希值)
关闭
llm_llamafile-0.1.tar.gz的哈希值
算法 | 哈希摘要 | |
---|---|---|
SHA256 | e7fee71cac12f1b3230b47f1aa15e8872c8efd764ac886a90a20ab11e72e7549 |
|
MD5 | e2a236b41fedf564a67864789b5bbcf8 |
|
BLAKE2b-256 | cb911b7e844fddccd7e1b03ffecb2bfd70bb2eca0383d19604df21015cded932 |
关闭
llm_llamafile-0.1-py3-none-any.whl的哈希值
算法 | 哈希摘要 | |
---|---|---|
SHA256 | 85feab4b87c24f060a920101c1700a7fb00ea8b9b6b0ee9bf423c8e83286e5e2 |
|
MD5 | 6ceb7f3aa91e133f80149e76c6ca99c8 |
|
BLAKE2b-256 | 11cd500b8c2ecf640ca13178ceebfb1de6576b4ee642022b7c41634e4dde0a44 |