用于与大型语言模型通信的Jupyter内核
项目描述
ipy-llm-kernel
ipy-llm-kernel 是一个Jupyter内核,允许你用英语输入并从大型语言模型 (LLM) 获取响应。
它可以使用 OpenAI的chatGPT、Anthropic的Claude、Helmholtz' blablador 和 Ollama。您需要OpenAI API、Anthropic、Google 或 Helmholtz 账户才能使用它。使用Ollama是免费的,但需要在本地运行Ollama服务器。
[!注意] 当您通过BiA-Bob使用OpenAI、Google Gemini、Anthropic 或任何其他端点时,您将受相应公司或组织的服务条款约束。您输入的提示将被传输到他们的服务器,并可能在那里进行处理和存储。请确保不要提交任何敏感、机密或个人信息。此外,使用这些服务可能需要付费。
使用方法
启动 jupyter lab
后,选择LLM内核。
然后您可以输入英语并像上面展示的那样接收LLM的响应
生成图像
如果您的提示要求生成图像,它可能为您生成此图像。目前,仅支持OpenAI/Dall-E3。您需要OpenAI API密钥才能使用此功能。
安装
首先,您还应该创建一个名为“IPY_LLM_KERNEL_MODEL”的环境变量,并输入一个模型名称,具体取决于您想使用哪个服务提供商。例如:
llama3:8b
blablador:alias:large
claude-3-5-sonnet-20240620
gpt-4o-2024-08-06
然后,启动一个新的终端,使用pip安装ipy-llm-kernel
。建议将其安装到conda/mamba环境中。如果您之前从未使用过conda,请先阅读此指南。
pip install ipy-llm-kernel
之后,再运行以下命令
python -m ipy_llm_kernel install
您可以通过打印已安装核的列表来检查是否已安装
jupyter kernelspec list
您可以使用此命令来卸载它们
jupyter kernelspec uninstall llm-kernel
开发
如果您想为ipy-llm-kernel
做出贡献,您可以像这样以开发模式安装它
git clone https://github.com/haesleinhuepf/ipy-llm-kernel.git
cd ipy-llm-kernel
pip install -e .
类似项目
有一些类似的项目
问题
如果您遇到任何问题或想提供反馈或建议,请创建一个问题,并提供详细的描述和标签@haesleinhuepf。