Chinaunix首页 | 论坛 | 博客
  • 博客访问: 134853
  • 博文数量: 34
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 700
  • 用 户 组: 普通用户
  • 注册时间: 2014-11-12 16:52
文章分类

全部博文(34)

文章存档

2015年(13)

2014年(21)

我的朋友

分类: Sybase

2014-12-19 12:43:26

本节将描述如何从一个或多个DynamoDB的表导出数据到S3的bucket中。在执行导出之前你需要提前创建好S3的bucket。
注意
如果你还没有使用过AWS Data Pipeline,在执行下面的流程前你需要先去创建两个IAM roles。更多信息,请移步Creating IAM Roles for AWS Data Pipeline
从DynamoDB中导出数据到S3
  1. 登陆到AWS管理员控制台,打开DynamoDB console。 .
  2. 在 Amazon DynamoDB Tables 页面, 点击 Export/Import.
  3. 在 Export/Import 页面, 选择你想导出的表,然后点击 Export from DynamoDB.
  4. 在 Create Export Table Data Pipeline(s) 页面,按下面流程操作:
    1. 在 S3 Output Folder 文本框中填写 Amazon S3 URI,导出文件将存放在S3中相应的文件夹下。例如: s3://mybucket/exports
      这个URI的规则应该是这样 s3://bucketname/folder :
      • bucketname 是S3中bucket的名称
      • folder 表示此bucket下文件夹的名称。如果这个文件夹不存在,它将被自动创建。如果你不指定这个名称,它将被自动授予一个名字,名字的规则是:s3://bucketname/region/tablename.
    2. 在 S3 Log Folder 文本框中输入一个S3 URI,导出过程的日志将被存储在相应的folder中。例如:s3://mybucket/logs/
      S3 Log Folder URI的格式和 S3 Output Folder的格式相同。
    3. 在 Throughput Rate 文本框中可选择一个百分比。这个比率表示在导出过程中会消耗读吞吐量的上限。例如,假设你要导出的表的读吞吐量是20,同时你设置的百分比是40%。那么导出时所消耗的吞吐量将不会超过8.
      如果你在导出多个表,这个 Throughput Rate 将会被应用到每个表中。
    4. Execution Timeout 文本框,输入导出任务的超时时长。如果导出任务在这个时长内还没执行完成,此任务会失败。
    5. Send notifications to 文本框,输入一个email地址。在 pipeline被创建后,你将会收到一封email邀请订阅Amazon SNS;如果你接受了此邀请,在每次执行导出操作时你都将会收到email通知。
    6.  Schedule 选项,选择下面其中一项:
      • One-time Export —导出任务将在pipeline被创建后立即执行。
      • Daily Export — 导出任务将会在你所指定的时刻执行,同时会在每天的那个时刻重复。
    7. Data Pipeline Role, 选择 DataPipelineDefaultRole.
    8. Resource Role, 选择 DataPipelineDefaultResourceRole
  5. 确认好以上设置然后点击 Create Export Pipeline.
你的 pipeline 现在将被创建;这个过程可能会花费几分钟完成。要查看当前状态,移步 Managing Export and Import Pipelines.
如果你选择的Schedule是 one-time export,导出任务将在pipeline 创建成功后立即执行。如果你选择的是daily export,导出任务将会在指定时刻执行,同时会在每天的那个时刻执行导出任务。
当导出任务结束,你可以到  来查看导出文件。这个文件将会在以你的表名命名的文件夹中,而文件名将会是这种格式: 。文件内部结构会在 中描述。
更多精彩信息请浏览
阅读(825) | 评论(0) | 转发(0) |
0

上一篇:体型Variant

下一篇:JAVA中IO流总结

给主人留下些什么吧!~~