스크립트
from boto.s3.connection import S3Connection
from boto.s3.key import Key
import time
startime=time.time()
conn = S3Connection(XXX','XXX')
bucket = conn.create_bucket('terry-s3-performance-test')
for i in range(1,100):
k = Key(bucket)
k.key = "logfile%s" % i
k.set_contents_from_filename('logfile origin')
conn.close()
endtime = time.time()
print 'Elaped time %s'% (endtime-startime)
위의 스크립트를 멀티프로세스로 돌려서 테스트 해본 결과
16K 파일 기준으로 (클라이언트는 같은 region에 ec2에서 수행), 클라이언트당 15TPS 정도가 나옴. 클라이언트(프로세스)수를 늘려도, 개당 15TPS가 일정하게 유지됨. 아마도 QoS를 보장하는 기능이 있는듯함
'클라우드 컴퓨팅 & NoSQL > Amazon Web Service' 카테고리의 다른 글
Amazon 클라우드에서 S3 Read/Write 성능 높이는 방법-Partitioning (0) | 2013.03.20 |
---|---|
Amazon의 설치 배포 자동화 솔루션 Opsworks (0) | 2013.02.26 |
아마존의 SSD의 NoSQL 서비스 Dynamo (0) | 2012.12.07 |
Amazon S3 서비스 소개 (0) | 2012.12.06 |
EMR 특징 (1) | 2012.12.06 |