跳转到主要内容

用于与大型语言模型通信的Jupyter内核

项目描述

ipy-llm-kernel

ipy-llm-kernel 是一个Jupyter内核,允许你用英语输入并从大型语言模型 (LLM) 获取响应。

img_1.png

它可以使用 OpenAI的chatGPTAnthropic的ClaudeHelmholtz' blabladorOllama。您需要OpenAI API、Anthropic、Google 或 Helmholtz 账户才能使用它。使用Ollama是免费的,但需要在本地运行Ollama服务器。

[!注意] 当您通过BiA-Bob使用OpenAI、Google Gemini、Anthropic 或任何其他端点时,您将受相应公司或组织的服务条款约束。您输入的提示将被传输到他们的服务器,并可能在那里进行处理和存储。请确保不要提交任何敏感、机密或个人信息。此外,使用这些服务可能需要付费。

使用方法

启动 jupyter lab 后,选择LLM内核。

img.png

然后您可以输入英语并像上面展示的那样接收LLM的响应

生成图像

如果您的提示要求生成图像,它可能为您生成此图像。目前,仅支持OpenAI/Dall-E3。您需要OpenAI API密钥才能使用此功能。

img.png

安装

首先,您还应该创建一个名为“IPY_LLM_KERNEL_MODEL”的环境变量,并输入一个模型名称,具体取决于您想使用哪个服务提供商。例如:

  • llama3:8b
  • blablador:alias:large
  • claude-3-5-sonnet-20240620
  • gpt-4o-2024-08-06

然后,启动一个新的终端,使用pip安装ipy-llm-kernel。建议将其安装到conda/mamba环境中。如果您之前从未使用过conda,请先阅读此指南

pip install ipy-llm-kernel

之后,再运行以下命令

python -m ipy_llm_kernel install

您可以通过打印已安装核的列表来检查是否已安装

jupyter kernelspec list

您可以使用此命令来卸载它们

jupyter kernelspec uninstall llm-kernel

开发

如果您想为ipy-llm-kernel做出贡献,您可以像这样以开发模式安装它

git clone https://github.com/haesleinhuepf/ipy-llm-kernel.git
cd ipy-llm-kernel
pip install -e .

类似项目

有一些类似的项目

问题

如果您遇到任何问题或想提供反馈或建议,请创建一个问题,并提供详细的描述和标签@haesleinhuepf。

项目详情


下载文件

下载适用于您平台的文件。如果您不确定选择哪个,请了解更多关于安装包的信息。

源代码分发

ipy_llm_kernel-0.2.0.tar.gz (9.3 kB 查看散列)

上传时间 源代码

构建分发

ipy_llm_kernel-0.2.0-py3-none-any.whl (7.9 kB 查看散列)

上传时间 Python 3

由以下组织支持