如何使用Boto3从AWS Glue数据目录获取一个/多个指定爬虫的指标?

如何使用Boto3从AWS Glue数据目录获取一个/多个指定爬虫的指标?

问题陈述 - 使用Python中的boto3库检索指定爬虫的指标。

示例 - 检索指定爬虫(crawler_for_s3_file_job)的指标。

更多Python相关文章,请阅读:Python 教程

解决此问题的算法/方法

步骤1 - 导入boto3和botocore exceptions以处理异常。

步骤2 - crawler_names 是必填参数。 这是一个列表,因此用户可以一次发送一个或多个爬虫名称以获取指标。

步骤3 - 使用boto3库创建AWS会话。 确保在默认配置文件中指定了 region_name 。 如果没有指定,则在创建会话时显式传递 region_name

步骤4 - 为Glue创建一个AWS客户端。

步骤5 - 现在使用 get_crawler_metrics 函数并传递crawler_names和CrawlerNameList参数。

步骤6 - 它返回爬虫的指标。

步骤7 - 如果在检查作业时出现问题,则处理通用异常。

示例

使用以下代码检索指定爬虫的指标 –

import boto3
from botocore.exceptions import ClientError

def retrieves_metrics_of_a_crawler(crawler_names:list)
   session = boto3.session.Session()
   glue_client = session.client('glue')
   try:
      crawler_details = glue_client.get_crawler_metrics(CrawlerNameList = crawler_names)
      return crawler_details
   except ClientError as e:
      raise Exception("boto3 client error in retrieves_metrics_of_a_crawler: " + e.__str__())
   except Exception as e:
      raise Exception("Unexpected error in retrieves_metrics_of_a_crawler: " + e.__str__())
print(retrieves_metrics_of_a_crawler(["crawler_for_s3_file_job"]))

输出

{'CrawlerMetricsList': [{'CrawlerName': crawler_for_s3_file_job,
'TimeLeftSeconds': 0.0, 'StillEstimating': False, 'LastRuntimeSeconds':
79.673, 'MedianRuntimeSeconds': 79.673, 'TablesCreated': 1,
'TablesUpdated': 0, 'TablesDeleted': 0}], 'ResponseMetadata':
{'RequestId': '680cf4ca-********0abe', 'HTTPStatusCode': 200,
'HTTPHeaders': {'date': 'Sun, 28 Feb 2021 11:38:08 GMT', 'content-type':
'application/x-amz-json-1.1', 'content-length': '216', 'connection':
'keep-alive', 'x-amzn-requestid': '680cf4ca-******************0abe'},
'RetryAttempts': 0}}

Python教程

Java教程

Web教程

数据库教程

图形图像教程

大数据教程

开发工具教程

计算机教程