如何使用 Boto3 通过 AWS Glue 中存在的 S3 存储桶的多部分上传对象进行分页
问题陈述:使用Python中的boto3库对您账户中创建的AWSGlue数据目录中的S3存储桶的分段上传对象进行分页
解决这个问题的方法/算法
第一步:导入boto3和botocore异常处理异常。
第二步:prefix_name、max_items、page_size和starting_token是该函数的可选参数,而bucket_name是必需参数。
Prefix_name是用户想要分页的特定子文件夹
max_items表示要返回的记录总数。如果可用记录数>max_items,则响应中将提供NextToken以恢复分页。
page_size表示每页的大小。
starting_token有助于分页,它使用来自先前响应的标记。
步骤3:使用boto3lib创建AWS会话。确保在默认配置文件中提到region_name。如果未提及,则在创建会话时显式传递region_name。
步骤4:为S3创建一个AWS客户端。
步骤5:使用list_multipart_uploads创建包含S3存储桶对象版本详细信息的分页器对象。
步骤6:调用paginate函数并将max_items、page_size和starting_token作为PaginationConfig参数传递,bucket_name作为Bucket参数,prefix_name作为Prefix。
步骤7:它根据max_size和page_size返回记录数。
第8步:如果分页时出现问题,则处理通用异常。
示例代码
使用以下代码通过用户帐户中创建的S3存储桶的分段上传进行分页-
import boto3
frombotocore.exceptionsimport ClientError
def paginate_through_multipart_upload_s3_bucket(bucket_name, prefix_name=None, max_items=None:int,page_size=None:int, starting_token=None:string):
session = boto3.session.Session()
s3_client = session.client('s3')
try:
paginator = s3_client.get_paginator('list_objects')
response = paginator.paginate(Bucket=bucket_name, Prefix=prefix_name, PaginationConfig={
'MaxItems':max_items,
'PageSize':page_size,
'StartingToken':starting_token}
)
return response
except ClientError as e:
raise Exception("boto3 client error in paginate_through_multipart_upload_s3_bucket: " + e.__str__())
except Exception as e:
raise Exception("Unexpected error in paginate_through_multipart_upload_s3_bucket: " + e.__str__())
a = paginate_through_multipart_upload_s3_bucket('s3-test-bucket', 'testfolder',2,5)
print(*a)输出结果{'ResponseMetadata': {'RequestId': 'YA9CGTAAX', 'HostId': '8dqJW******************', 'HTTPStatusCode': 200, 'HTTPHeaders': {'x-amz-id-2': '8dqJW*********************, 'x-amz-request-id': 'YA9CGTAAX', 'date': 'Sat, 03 Apr 2021 08:16:05 GMT', 'content-type': 'application/xml', 'transfer-encoding': 'chunked', 'server': 'AmazonS3'}, 'RetryAttempts': 0}, 'Bucket': 's3-test-bucket', 'KeyMarker': '', 'UploadIdMarker': '', 'NextKeyMarker': '', 'Prefix': 'testfolder', 'NextUploadIdMarker': '', 'MaxUploads': 5, 'IsTruncated': False, 'Uploads': [
{'UploadId': 'YADF**************LK25',
'Key': 'testfolder/testfilemultiupload.csv',
'Intiated':datetime(2021,1,2),
'StorageClass': 'STANDARD'
'Owner':{
'DisplayName': 'AmazonServicesJob'
'Id': '********************'
}
], 'CommonPrefixes': None}