如何使用 Boto3 获取单个爬虫的详细信息?
问题陈述 − 使用 Python 中的 boto3 库获取爬虫的详细信息。
示例 − 获取爬虫 crawler_for_s3_file_job 的详细信息。
解决此问题的方法/算法
步骤 1 − 导入 boto3 和 botocore 异常以处理异常。
步骤 2 − crawler_name 是必需参数。它是一个字符串,因此用户一次只能发送一个爬虫名称来获取详细信息。
步骤 3 − 使用 boto3 库创建 AWS 会话。确保在默认配置文件中提到了 **region_name**。如果没有提到,则在创建会话时显式传递 **region_name**。
步骤 4 − 为 Glue 创建 AWS 客户端。
步骤 5 − 现在使用 **get_crawler** 函数并传递 **crawler_name**。
步骤 6 − 它返回爬虫的元数据。
步骤 7 − 如果在检查作业时出现问题,请处理通用异常。
示例
使用以下代码来获取爬虫的详细信息:
import boto3 from botocore.exceptions import ClientError def get_one_crawler_details(crawler_name:str) session = boto3.session.Session() glue_client = session.client('glue') try: crawler_details = glue_client.get_crawler(Name= crawler_name) return crawler_details except ClientError as e: raise Exception("boto3 client error in get_one_crawler_details: " + e.__str__()) except Exception as e: raise Exception("Unexpected error in get_one_crawler_details: " + e.__str__()) print(get_one_crawler_details("crawler_for_s3_file_job"))
输出
{'Crawler': {'Name': 'crawler_for_s3_file_job', 'Role': 'glue-role', 'Targets': {'S3Targets': [{'Path': 's3://test/', 'Exclusions': []}], 'JdbcTargets': [], 'DynamoDBTargets': [], 'CatalogTargets': []}, 'DatabaseName': 'default', 'Classifiers': [], 'SchemaChangePolicy': {'UpdateBehavior': 'UPDATE_IN_DATABASE', 'DeleteBehavior': 'DEPRECATE_IN_DATABASE'}, 'State': 'READY', 'TablePrefix': 'prod_scdk_', 'CrawlElapsedTime': 0, 'CreationTime': datetime.datetime(2018, 9, 24, 20, 42, 7, tzinfo=tzlocal()), 'LastUpdated': datetime.datetime(2020, 4, 27, 14, 49, 12, tzinfo=tzlocal()), 'LastCrawl': {'Status': 'SUCCEEDED', 'LogGroup': '/aws-glue/crawlers', 'LogStream': 'crawler_for_s3_file_job', 'MessagePrefix': ************-90ad1', 'StartTime': datetime.datetime(2020, 4, 27, 14, 49, 19, tzinfo=tzlocal())}, 'Version': 15}, 'ResponseMetadata': {'RequestId': '8c7dcbde-***********************-774', 'HTTPStatusCode': 200, 'HTTPHeaders': {'date': 'Sun, 28 Feb 2021 11:34:32 GMT', 'content-type': 'application/x-amz-json-1.1', 'content-length': '805', 'connection': 'keep-alive', 'x-amzn-requestid': '8c7dcbde-**********************774'}, 'RetryAttempts': 0}}
广告