我目前正在跟踪我的 MLflow 运行到本地文件路径 URI。我还想设置一个远程跟踪服务器与我的合作者共享。我想避免的一件事是将所有内容都记录到服务器,因为它可能很快就会被失败的运行淹没。
理想情况下,我想保留我的本地跟踪器,然后只能将有希望的运行发送到服务器。
将跑步从本地跟踪器复制到远程服务器的推荐方法是什么?
Bor*_*sky -1
要将经过训练的模型发布到远程 MLflow 服务器,您应该使用“register_model”API。例如,如果您使用的是 MLflow 的 spacy 风格,您可以按如下方式使用,其中“nlp”是经过训练的模型:
mlflow.spacy.log_model(spacy_model=nlp, artifact_path='mlflow_sample')
model_uri = "runs:/{run_id}/{artifact_path}".format(
run_id=mlflow.active_run().info.run_id, artifact_path='mlflow_sample'
)
mlflow.register_model(model_uri=model_uri, name='mlflow_sample')
Run Code Online (Sandbox Code Playgroud)
确保应设置以下环境变量。在下面的示例中使用了 S3 存储:
SET MLFLOW_TRACKING_URI=https://YOUR-REMOTE-MLFLOW-HOST
SET MLFLOW_S3_BUCKET=s3://YOUR-BUCKET-NAME
SET AWS_ACCESS_KEY_ID=YOUR-ACCESS-KEY
SET AWS_SECRET_ACCESS_KEY=YOUR-SECRET-KEY
Run Code Online (Sandbox Code Playgroud)