可解释人工智能工具(XAI)。XAI用于以用户可理解的方式发现和解释模型的预测。暴露了数据集、特征集和模型算法中的相关信息。
此版本被撤回的原因
这不是一个有效的版本!
项目描述
Intel® 可解释人工智能工具
此存储库提供了用于具有特定于AI模型可解释性要求的数据科学家和MLOps工程师的工具。
概述
Intel可解释人工智能工具旨在帮助用户检测和减轻公平性和可解释性问题,并在Intel硬件上运行最佳。存储库中有两个Python*组件
- 模型卡片生成器
- 创建包含模型性能和公平性指标的交互式HTML报告
- 解释器
- 通过简单的Python API运行后处理模型蒸馏和可视化方法,以检查TensorFlow*和PyTorch*模型的预测行为,包括以下模块
- 归因:可视化表格特征、像素和词标记的预测的负向和正向归因
- CAM(类激活映射):使用梯度加权的类激活CAM映射为CNN图像分类创建热图
- 度量:在机器学习工作流程中获得洞察力所需的测量和可视化
- 通过简单的Python API运行后处理模型蒸馏和可视化方法,以检查TensorFlow*和PyTorch*模型的预测行为,包括以下模块
入门
需求
- Linux系统或Windows上的WSL2(已在Ubuntu* 20.04/22.04 LTS上验证)
- Python 3.8, 3.9, 3.10
- 使用
apt-get install build-essential python3-dev
安装所需的操作系统包 - git(仅适用于“开发者安装”)
使用Poetry进行开发者安装
请使用以下说明,使用GitHub仓库的克隆版本安装Intel AI Safety Python库。如果您计划进行代码修改,可以使用此方法代替基本的pip install。
-
克隆此仓库并导航到仓库目录。
-
允许poetry在当前目录的
.venv
目录中创建虚拟环境。poetry lock
此外,您可以明确告诉poetry使用哪个Python实例
poetry env use /full/path/to/python
-
选择您要安装的
intel_ai_safety
子包和插件。a. 使用所有子包(例如
explainer
和model_card_gen
)和插件安装intel_ai_safety
poetry install --extras all
b. 仅使用
explainer
安装intel_ai_safety
poetry install --extras explainer
c. 仅使用
model_card_gen
安装intel_ai_safety
poetry install --extras model-card
d. 使用
explainer
及其所有插件安装intel_ai_safety
poetry install --extras explainer-all
e. 使用
explainer
及其PyTorch实现安装intel_ai_safety
poetry install --extras explainer-pytorch
f. 使用
explainer
及其PyTorch实现安装intel_ai_safety
poetry install --extras explainer-tensorflow
-
激活环境
source .venv/bin/activate
使用Poetry将软件包安装到现有环境中
创建并激活Python3虚拟环境
我们鼓励您使用Python虚拟环境(virtualenv或conda)进行一致的包管理。有两种方法可以实现这一点
-
选择要使用的虚拟环境:a. 使用
virtualenv
python3.9 -m virtualenv xai_env source xai_env/bin/activate
b. 或
conda
conda create --name xai_env python=3.9 conda activate xai_env
-
将软件包安装到当前环境中
poetry config virtualenvs.create false && poetry install --extras all
特定功能步骤
笔记本可能需要其相关文档中列出的其他依赖项。
验证安装
通过以下命令验证您的安装是否成功,这些命令将显示Explainer和模型卡片生成器的版本
python -c "from intel_ai_safety.explainer import version; print(version.__version__)"
python -c "from intel_ai_safety.model_card_gen import version; print(version.__version__)"
运行笔记本
以下链接包含Jupyter*笔记本,展示了如何在各种机器学习和用例中使用Explainer和模型卡片生成器API
支持
Intel Explainable AI Tools团队使用GitHub问题跟踪错误和增强请求。在提交建议或错误报告之前,请搜索现有的GitHub问题,以查看您的问题是否已被报告。
*其他名称和品牌可能属于他人所有。 商标
免责声明
这些脚本不适用于Intel平台的基准测试。有关特定Intel平台的性能和/或基准测试信息,请访问https://www.intel.ai/blog。
Intel致力于尊重人权,避免参与人权侵犯,这反映在Intel全球人权原则中。因此,通过访问本平台上的Intel材料,您同意您不会使用这些材料来制作或应用导致或促成违反国际公认人权的产品或应用。
许可证
Intel® Explainable AI Tools根据Apache许可证版本2.0许可。
数据集和模型
在Intel或通过本网站上的工具或代码访问的任何数据、数据集或模型被引用的情况下,此类数据、数据集和模型由指示为该内容来源的第三方提供。Intel不创建数据、数据集或模型,不提供对任何第三方数据、数据集或模型的许可,也不保证其准确性或质量。通过访问此类数据、数据集或模型,您同意与该内容相关的条款,并同意您的使用符合适用的许可。 数据集
英特尔明确声明,对任何数据、数据集或模型的准确性、充分性或完整性不承担任何责任,不对此类内容的任何错误、遗漏或缺陷承担责任,也不对任何依赖此类内容的行为承担责任。英特尔还明确声明,不对此类数据、数据集或模型的非侵权性提供任何保证。英特尔不对您使用此类数据、数据集或模型而产生的任何责任或损害承担责任。