如何使用 Boto3 获取 AWS 账户中存在的所有爬虫列表
在本文中,我们将了解用户如何获取AWS账户中存在的所有爬网程序的列表。
示例
问题陈述:使用Python中的boto3库获取所有爬虫列表。
解决这个问题的方法/算法
第一步:导入boto3和botocore异常处理异常。
步骤2:此函数中没有参数。
步骤3:使用boto3lib创建AWS会话。确保在默认配置文件中提到region_name。如果未提及,则在创建会话时显式传递region_name。
第4步:为glue创建一个AWS客户端。
第5步:现在使用list_crawlers
步骤6:它返回AWSGlue数据目录中存在的所有爬网程序的列表。
第7步:如果在检查作业时出现问题,则处理通用异常。
示例代码
以下代码获取所有爬虫的列表-
import boto3 frombotocore.exceptionsimport ClientError def list_of_crawlers() session = boto3.session.Session() glue_client = session.client('glue') try: crawler_details = glue_client.list_crawlers() return crawler_details except ClientError as e: raise Exception("boto3 client error in list_of_crawlers: " + e.__str__()) except Exception as e: raise Exception("Unexpected error in list_of_crawlers: " + e.__str__()) print(list_of_crawlers())输出结果
{'CrawlerNames': ['crawler_for_s3_file_job', 'crawler_for_employee_data', 'crawler_for_security_data'], 'ResponseMetadata': {'RequestId': 'a498ba4a-7ba4-47d3-ad81-d86287829c1d', 'HTTPStatusCode': 200, 'HTTPHeaders': {'date': 'Sat, 13 Feb 2021 14:04:03 GMT', 'content-type': 'application/x-amz-json-1.1', 'content-length': '830', 'connection': 'keep-alive', 'x-amzn-requestid': 'a498ba4a-7ba4-47d3-ad81-d86287829c1d'}, 'RetryAttempts': 0}}