boto3

    0熱度

    1回答

    我正在嘗試爲aws RDS編寫一些單元測試。目前,啓動停止rds api調用還沒有在moto中實現。我試圖嘲笑boto3,但遇到各種奇怪的問題。我做了一些谷歌搜索,發現http://botocore.readthedocs.io/en/latest/reference/stubber.html 所以我試圖實施RDS的例子,但似乎表現得像普通客戶,即使我已經掐滅它的代碼。不知道發生了什麼事,或者我是

    1熱度

    1回答

    我有一個aws lambda函數,執行一個ffmpeg命令,並將完成的視頻上傳到S3,我設置了5分鐘的lambda超時,在控制檯中測試是正常的,但我在django中使用PYTHON SDK boto3.invoke調用超時,並且我看到每個執行函數S3會產生3條記錄,它表明lambda已經成功運行並上傳到S3,但爲什麼它會一直運行不停,直到5分鐘?有沒有人可以幫助我?非常感謝你。 client_la

    3熱度

    1回答

    我設置了一個似乎可以工作的DAX集羣。我可以用telnet連接到它。 這裏是我的我的腳本的一部分與DynamoDB dynamodb = boto3.resource('dynamodb', region_name='us-east-1') 工作,但它,我只添加有DAX端點 dynamodb = boto3.resource('dynamodb', region_name='us-east-1

    0熱度

    1回答

    python有沒有辦法讓我在python中更改整個對象路徑的內容類型,例如bucket/assets/img? 我的目標是編寫一個腳本,用一個腳本來更改路徑中所有對象的內容類型,而不是在GUI中手動執行它。 我讀過我必須將對象複製到新存儲區而不是更改當前存儲區中的元數據的位置。 任何幫助,將不勝感激!

    0熱度

    2回答

    AWS支持通過控制檯和CLI(docs)修改已安裝的EBS卷的類型(磁盤,SSD等)。但Boto3中的volume class似乎不支持AutoEnableIO和DryRun以外的其他操作modifies volume attributes。 有沒有方法可以用Boto3改變EBS卷的類型,我沒有看到或者從文檔拼湊在一起?

    0熱度

    1回答

    我試圖使用Python和Boto3獲取EC2實例的平臺名稱。但是,當我運行腳本時,它只會將Windows實例的平臺名稱顯示爲「Windows」,而在Linux平臺上運行的每個實例(Amazon Linux,Ubuntu,CentOS等)均顯示爲「無」。 這裏是我的腳本: import boto3 ec2 = boto3.resource('ec2') filters = [{'Name':'i

    0熱度

    2回答

    我正在尋求請求一個dynamodb表,但我無法弄清楚如何做一個GROUP BY和ORDER BY與Python 2.7 sdk boto3。 我已經閱讀並再次閱讀aws文檔和大部分堆棧主題,但是我沒有找到明確的答案,因爲我的請求相當複雜。 我會從我的表中有'permaname'GROUP BY'源'的所有項目,我會得到結果ORDER BY created_on DESC。 這是我做我的請求,我的那

    1熱度

    1回答

    我正在研究掃描所有S3存儲桶和文件的python腳本。我希望腳本記錄在政策文檔中暴露給公衆的每個文件,我的意思是它有:"Effect": "Allow"和"Principal" : "*"。所以我有這個線在我的代碼: bucket_policy = storageClient.get_bucket_policy(Bucket='mybucket-documents-2017') print(bu

    0熱度

    1回答

    美好的一天,每個人! 我正在使用boto3創建A記錄以指向我創建的負載平衡器。當我嘗試發送以下記錄: aws_response = route53.change_resource_record_sets( HostedZoneId=_hostedZoneId, ChangeBatch={ 'Comment': 'Creating a record',

    0熱度

    1回答

    try: conn = boto.connect_s3(access_key,secret_access_key) bucket = conn.get_bucket(bucket_name, validate=False) k1 = Key(bucket) k1.key = 'Date_Table.csv' # k = bucket.get_k