PyTorch库,包含transformer模型和组件
项目描述
Curated Transformers
逐块构建的最先进transformer
Curated Transformers是PyTorch的transformer库。它提供由一组可重用组件组成的最新模型。Curated Transformer的突出特点是
- ⚡️ 支持最先进的transformer模型,包括Falcon、Llama和Dolly v2等LLM。
- 👩🎨 每个模型都由一组可重用的构建块组成,提供许多好处
- 实现一个功能或错误修复会惠及所有模型。例如,所有模型都支持通过
bitsandbytes
库进行4/8位推理,并且每个模型都可以使用PyTorch的meta
设备来避免不必要的分配和初始化。 - 向库中添加新模型的工作量很小。
- 您想尝试一种新的transformer架构吗?一个带有旋转嵌入的BERT编码器?您可以在短时间内完成。
- 实现一个功能或错误修复会惠及所有模型。例如,所有模型都支持通过
- 💎 所有公共API的持续类型注释
- 从您的IDE中获得出色的编码支持。
- 与现有的类型检查代码很好地集成。
- 🎓 适用于教育,因为构建块易于研究。
- 📦 最小依赖关系。
Curated Transformers已由Explosion进行生产测试,并将作为spaCy 3.7中的默认transformer实现。
🧰 支持的模型架构
支持的仅编码器模型
- ALBERT
- BERT
- CamemBERT
- RoBERTa
- XLM-RoBERTa
支持的仅解码器模型
- Falcon
- GPT-NeoX
- Llama 1/2
- MPT
生成器包装器
- Dolly v2
- Falcon
- Llama 1/2
- MPT
所有类型的模型都可以从Huggingface Hub加载。
spaCy的curated transformers集成由spacy-curated-transformers
包提供。
⏳ 安装
pip install curated-transformers
CUDA 支持
PyTorch 的默认 Linux 构建版本是使用 CUDA 11.7 支持构建的。在以下情况下,您应明确安装带有 CUDA 支持的构建版本:
- 如果您想在 Windows 上使用 Curated Transformers。
- 如果您想在 Linux 上使用 Ada 生成 GPU 的 Curated Transformers。标准的 PyTorch 构建支持 Ada GPU,但通过安装支持 CUDA 11.8 的 PyTorch,您可以获得相当大的性能提升。
在这两种情况下,您可以使用以下方式安装 PyTorch:
pip install torch --index-url https://download.pytorch.org/whl/cu118
🏃♀️ 使用示例
>>> import torch
>>> from curated_transformers.generation import AutoGenerator, GreedyGeneratorConfig
>>> generator = AutoGenerator.from_hf_hub(name="tiiuae/falcon-7b-instruct", device=torch.device("cuda"))
>>> generator(["What is Python in one sentence?", "What is Rust in one sentence?"], GreedyGeneratorConfig())
['Python is a high-level programming language that is easy to learn and widely used for web development, data analysis, and automation.',
'Rust is a programming language that is designed to be a safe, concurrent, and efficient replacement for C++.']
您可以在文档中找到更多使用示例。您也可以在 examples
目录中找到使用 Curated Transformers 的示例程序。
📚 文档
您可以在这里了解更多关于如何使用 Curated Transformers 的信息
🗜️ 量化
curated-transformers
通过利用 bitsandbytes
库 支持模型的动态 8 位和 4 位量化。
使用量化变体可以自动安装必要的依赖项
pip install curated-transformers[quantization]
项目详情
下载文件
下载适合您平台的文件。如果您不确定要选择哪个,请了解有关 安装包 的更多信息。
源分布
curated_transformers-2.0.1.tar.gz (289.0 kB 查看哈希值)
构建分布
关闭
curated_transformers-2.0.1.tar.gz 的哈希值
算法 | 哈希摘要 | |
---|---|---|
SHA256 | 3348e639d9247bf222bcd90cefded05b37c5dc0e798b0af6957e37a4aafd0f1d |
|
MD5 | d7ebd79c46a646f464745612ecd77b35 |
|
BLAKE2b-256 | f589ef25c717786a83d63bb47eb7092e8cf68732b1429ac01be91defebe94646 |
关闭
curated_transformers-2.0.1-py2.py3-none-any.whl 的哈希值
算法 | 哈希摘要 | |
---|---|---|
SHA256 | 5da92a4bf41a8a0bebca39b65ede4db49a7bc78467ca3c3ba7f84ecdcc8c45e5 |
|
MD5 | 335312bd95a0bb0d98524a612746fb82 |
|
BLAKE2b-256 | 1d1662dcf539c53ec0a7f27c308e4665aecd4e4eafa0c3b7d4fe544ab9409525 |