阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

PyCaret-低代码ML库使用指南

36次阅读
没有评论

共计 6173 个字符,预计需要花费 16 分钟才能阅读完成。

导读 在本文中,我将演示如何使用 PyCaret 快速轻松地构建机器学习项目并为部署准备最终模型。

当我们研究监督的机器学习问题时,如果我们对结果感到满意,那么很容易看到随机森林或梯度提升模型如何执行并停止实验。如果您仅用一行代码就可以比较许多不同的模型,该怎么办? 如果您可以将数据科学过程的每个步骤 (从功能工程到模型部署) 减少到仅几行代码,该怎么办?

PyCaret- 低代码 ML 库使用指南
这正是 PyCaret 发挥作用的地方。PyCaret 是一个高级,低代码的 Python 库,它使仅需几行代码即可轻松比较,训练,评估,调整和部署机器学习模型。从本质上讲,PyCaret 基本上只是许多 Scikit-learn,Yellowbrick,SHAP,Optuna 和 Spacy 等数据科学库的大型包装。是的,您可以将这些库用于相同的任务,但是如果您不想编写大量代码,PyCaret 可以节省大量时间。

在本文中,我将演示如何使用 PyCaret 快速轻松地构建机器学习项目并为部署准备最终模型。

安装 PyCaret

PyCaret 是一个具有很多依赖项的大型库。我建议使用 Conda 为 PyCaret 创建一个虚拟环境,这样安装不会影响您现有的任何库。要在 Conda 中创建和激活虚拟环境,请运行以下命令:

conda create --name pycaret_env python=3.6 
conda activate pycaret_env

要安装仅具有所需依赖项的默认较小版本的 PyCaret,可以运行以下命令。

pip install pycaret

要安装完整版本的 PyCaret,您应该运行以下命令。

pip install pycaret[full]

一旦安装了 PyCaret,请停用虚拟环境,然后使用以下命令将其添加到 Jupyter。

conda deactivate 
python -m ipykernel install --user --name pycaret_env --display-name "pycaret_env"

现在,在浏览器中启动 Jupyter Notebook 之后,您应该能够看到将环境更改为刚创建的选项的选项。
PyCaret- 低代码 ML 库使用指南
> Changing the Conda virtual environment in Jupyter.

导入库

您可以在此 GitHub 存储库中找到本文的完整代码。在下面的代码中,我仅导入了 Numpy 和 Pandas 来处理此演示的数据。

import numpy as np 
import pandas as pd
读取数据

对于此示例,我使用了 Kaggle 上可用的“加利福尼亚住房价格”数据集。在下面的代码中,我将此数据集读入一个数据框,并显示了该数据框的前十行。

housing_data = pd.read_csv('./data/housing.csv')housing_data.head(10)

PyCaret- 低代码 ML 库使用指南
> First ten rows of the housing dataset.

上面的输出使我们对数据的外观有所了解。数据主要包含数字特征和一个分类特征,用于每个房屋与海洋的接近度。我们试图预测的目标列是“median_house_value”列。整个数据集总共包含 20,640 个观测值。

初始化实验

现在我们有了数据,我们可以初始化一个 PyCaret 实验,该实验将对数据进行预处理并为将在此数据集上训练的所有模型启用日志记录。

from pycaret.regression import * 
reg_experiment = setup(housing_data,  
                       target = 'median_house_value',  
                       session_id=123,  
                       log_experiment=True,  
                       experiment_name='ca_housing')

如下面的 GIF 中所示,运行上面的代码会对数据进行预处理,然后生成带有实验选项的数据框。
PyCaret- 低代码 ML 库使用指南
> Pycaret setup function output.

比较基准模型

我们可以立即比较不同的基线模型,以找到具有使用 compare_models 函数的最佳 K 折交叉验证性能的模型,如下面的代码所示。在下面的示例中,出于演示目的,我已将 XGBoost 排除在外。

best_model = compare_models(exclude=['xgboost'], fold=5)

PyCaret- 低代码 ML 库使用指南
> Results of comparing different models.

该函数将生成一个数据框,其中包含每个模型的性能统计信息,并突出显示性能最佳的模型的指标,在本例中为 CatBoost 回归器。

建立模型

我们还可以使用 PyCaret 在单行代码中训练模型。create_model 函数仅需要一个与您要训练的模型类型相对应的字符串。您可以在 PyCaret 文档页面上找到此功能的可接受字符串的完整列表以及相应的回归模型。

catboost = create_model('catboost')

PyCaret- 低代码 ML 库使用指南
create_model 函数使用训练后的 CatBoost 模型的交叉验证指标来生成上面的数据框。

超参数调整

现在我们有了训练有素的模型,我们可以通过超参数调整进一步优化它。只需一行代码,我们就可以调整该模型的超参数,如下所示。

tuned_catboost = tune_model(catboost, n_iter=50, optimize = 'MAE')

PyCaret- 低代码 ML 库使用指南
> Results of hyperparameter tuning with 10-fold cross-validation.

最重要的结果 (在这种情况下为平均指标) 以黄色突出显示。

可视化模型的性能

我们可以使用 PyCaret 创建许多图表,以可视化模型的性能。PyCaret 使用另一个称为 Yellowbrick 的高级库来构建这些可视化文件。

残留图

默认情况下,plot_model 函数将为回归模型生成残差图,如下所示。

plot_model(tuned_catboost)

PyCaret- 低代码 ML 库使用指南
> Residual plot for the tuned CatBoost model.

预测误差

通过创建预测误差图,我们还可以将预测值相对于实际目标值可视化。

plot_model(tuned_catboost, plot = 'error')

PyCaret- 低代码 ML 库使用指南
> Prediction error plot for the tuned CatBoost regressor.

上面的图特别有用,因为它为我们提供了 CatBoost 模型的 R²系数的直观表示。在理想情况下(R²= 1),当预测值与实际目标值完全匹配时,此图将仅包含沿虚线的点。

功能重要性

我们还可以可视化模型的功能重要性,如下所示。

plot_model(tuned_catboost, plot = 'feature')

PyCaret- 低代码 ML 库使用指南
> Feature importance plot for the CatBoost regressor.

从上面的图可以看出,在预测房屋价格时,位数中位数是最重要的特征。由于此特征对应于房屋建造区域的中位数收入,因此此评估非常合理。在高收入地区建造的房屋可能比低收入地区的房屋贵。

使用所有图评估模型

我们还可以创建多个图,以使用 validate_model 函数评估模型。

evaluate_model(tuned_catboost)

PyCaret- 低代码 ML 库使用指南
> The interface created using the evaluate_model function.

解释模型

interpret_model 函数是用于解释模型预测的有用工具。此函数使用一个称为 SHAP 的可解释机器学习库,我在下面的文章中介绍了该库。

仅需一行代码,我们就可以为模型创建一个 SHAPE 蜂群图。

interpret_model(tuned_catboost)

PyCaret- 低代码 ML 库使用指南
> SHAP plot produced by calling the interpret_model function.

根据上面的图,我们可以看到中位数收入字段对预测房屋价值的影响最大。

自动机器学习

PyCaret 还具有运行自动机器学习 (AutoML) 的功能。我们可以指定我们要优化的损失函数或度量,然后让库接管如下所示。

automlautoml_model = automl(optimize = 'MAE')

在此示例中,AutoML 模型也恰好是 CatBoost 回归变量,我们可以通过打印出该模型进行确认。

print(automl_model)

运行上面的 print 语句将产生以下输出:

< catboost.core.CatBoostRegressor at 0x7f9f05f4aad0 >
产生预测

预报模型功能允许我们通过使用来自实验的数据或新的看不见的数据来生成预测。

pred_holdouts = predict_model(automl_model) 
pred_holdouts.head()

上面的 predict_model 函数为交叉验证期间用于验证模型的保持数据集生成预测。该代码还为我们提供了一个数据框,其中包含针对 AutoML 模型生成的预测的性能统计信息。
PyCaret- 低代码 ML 库使用指南
> Predictions generated by the AutoML model.

在上面的输出中,“标签”列表示由 AutoML 模型生成的预测。我们还可以对整个数据集进行预测,如下面的代码所示。

new_data = housing_data.copy() 
new_data.drop(['median_house_value'], axis=1, inplace=True) 
predictions = predict_model(automl_model, data=new_data) 
predictions.head()
保存模型

PyCaret 还允许我们使用 save_model 函数保存经过训练的模型。此功能将模型的转换管道保存到 pickle 文件中。

save_model(automl_model, model_name='automl-model')

我们还可以使用 load_model 函数加载保存的 AutoML 模型。

loaded_model = load_model('automl-model') 
print(loaded_model)

打印出加载的模型将产生以下输出:

Pipeline(memory=None, 
         steps=[('dtypes', 
                 DataTypes_Auto_infer(categorical_features=[], 
                                      display_types=True, features_todrop=[], 
                                      id_columns=[], ml_usecase='regression', 
                                      numerical_features=[], 
                                      target='median_house_value', 
                                      time_features=[])), 
                ('imputer', 
                 Simple_Imputer(categorical_strategy='not_available', 
                                fill_value_categorical=None, 
                                fill_value_numerical=None, 
                                numer... 
                ('cluster_all', 'passthrough'), 
                ('dummy', Dummify(target='median_house_value')), 
                ('fix_perfect', Remove_100(target='median_house_value')), 
                ('clean_names', Clean_Colum_Names()), 
                ('feature_select', 'passthrough'), ('fix_multi', 'passthrough'), 
                ('dfs', 'passthrough'), ('pca', 'passthrough'), 
                ['trained_model', 
                 ]], 
         verbose=False) 

从上面的输出中可以看到,PyCaret 不仅在流水线的末尾保存了经过训练的模型,还在流水线的开始处保存了特征工程和数据预处理步骤。现在,我们在一个文件中有一个可用于生产的机器学习管道,我们不必担心将管道的各个部分放在一起。

模型部署

现在我们已经准备好可以生产的模型管道,我们还可以使用 deploy_model 函数将模型部署到诸如 AWS 的云平台。如果打算将模型部署到 S3 存储桶,则在运行此功能之前,必须运行以下命令来配置 AWS 命令行界面:

aws configure

运行上面的代码将触发一系列提示,提示您需要提供诸如 AWS Secret Access Key 之类的信息。完成此过程后,就可以使用 deploy_model 函数部署模型了。

deploy_model(automl_model, model_name = 'automl-model-aws',  
             platform='aws', 
             authentication = {'bucket' : 'pycaret-ca-housing-model'})

在上面的代码中,我将 AutoML 模型部署到了 AWS 中名为 pycaret-ca-housing-model 的 S3 存储桶中。从这里,您可以编写一个 AWS Lambda 函数,该函数从 S3 中提取模型并在云中运行。PyCaret 还允许您使用 load_model 函数从 S3 加载模型。

MLflow 用户界面

PyCaret 的另一个不错的功能是,它可以使用称为 MLfLow 的机器学习生命周期工具来记录和跟踪您的机器学习实验。运行以下命令将从本地主机在浏览器中启动 MLflow 用户界面。

!mlflow ui

PyCaret- 低代码 ML 库使用指南
> MLFlow dashboard.

在上面的仪表板中,我们可以看到 MLflow 可以跟踪您的 PyCaret 实验的不同模型的运行情况。您可以查看性能指标以及实验中每次运行的运行时间。

使用 PyCaret 的利与弊

如果您已经阅读了此书,则现在对如何使用 PyCaret 有了基本的了解。虽然 PyCaret 是一个很棒的工具,但它有其自身的优缺点,如果您打算将其用于数据科学项目,则应注意这一点。

优点:

低代码库。
非常适合简单的标准任务和通用机器学习。
为回归,分类,自然语言处理,聚类,异常检测和关联规则挖掘提供支持。
使创建和保存模型的复杂转换管道变得容易。
使可视化模型性能变得容易。

缺点:

到目前为止,由于 NLP 实用程序仅限于主题建模算法,因此 PyCaret 对于文本分类而言并不理想。
PyCaret 不是深度学习的理想选择,并且不使用 Keras 或 PyTorch 模型。
您无法执行更复杂的机器学习任务,例如使用 PyCaret(至少在版本 2.2.0 中)进行图像分类和文本生成。
通过使用 PyCaret,您将在某种程度上牺牲对简单和高级代码的控制。

概括

在本文中,我演示了如何使用 PyCaret 完成机器学习项目中的所有步骤,从数据预处理到模型部署。尽管 PyCaret 是有用的工具,但是如果您打算将其用于数据科学项目,则应了解其优缺点。PyCaret 非常适合使用表格数据进行通用机器学习,但是从 2.2.0 版本开始,PyCaret 不适用于更复杂的自然语言处理,深度学习和计算机视觉任务。但这仍然是一种节省时间的工具,谁知道,也许开发人员将来会增加对更复杂任务的支持?

如前所述,您可以在 GitHub 上找到本文的完整代码。https://github.com/AmolMavuduru/PyCaretTutorial

阿里云 2 核 2G 服务器 3M 带宽 61 元 1 年,有高配

腾讯云新客低至 82 元 / 年,老客户 99 元 / 年

代金券:在阿里云专用满减优惠券

正文完
星哥说事-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2024-07-25发表,共计6173字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中