cloudpackエバンジェリストの吉田真吾@yoshidashingo)です。

Redshiftに移行する際に既存のデータを投入したいことがあると思います。今日はそのやり方をメモ書き。

 

0. 前提

  • Redshiftのクラスタは作成済みである
  • EC2からRedshiftに接続できるように Cluster Security Group が設定済みである
  • EC2にawscli導入済みである

 

1. EC2からS3にデータをアップロードする

1.1 (準備)EC2にクレデンシャルを設定する

$ aws configure
AWS Access Key ID [None]: 
aws Secret Access Key [None]: 
Default region name [None]: us-east-1
Default output format [None]:

デフォルトリージョンがus-east-1の場合↑

1.2 (準備)S3にバケットを作る

$ aws s3 mb s3://test-bucket
make_bucket: s3://test-bucket/
$ aws s3 ls
2014-04-24 00:30:00 test-bucket

バケット名がtest-bucketの場合↑

1.3 S3にCSVファイルをアップロードする

$ aws s3 cp test.CSV s3://test-bucket/ &
upload: ./test.CSV to s3://test-bucket/test.CSV
[1]-  終了        aws s3 cp test.CSV s3://test-bucket/

CSVファイル名:test.CSV の場合↑

 

2. EC2からpsqlで接続する

2.1 (準備)psqlをインストールする

$ sudo yum install postgresql

2.2 psqlで接続する

$ psql -h my-dw-instance.xxxx.us-east-1.redshift.amazonaws.com -U awsuser -d mydb -p 5439
ユーザ awsuser のパスワード: 
mydb #

RedshiftクラスタのエンドポイントURL:my-dw-instance.xxxx.us-east-1.redshift.amazonaws.com 、ユーザー名:awsuser、データベース名:mydb、ポート番号:5439 の場合↑

 

3. CSVをインポートする

3.1 (準備)テーブルを作成する

mydb # create table test(
mydb(#  id integer,
mydb(#  test_date timestamp,
mydb(#  memo VARCHAR(64));
CREATE TABLE

テーブルを作成するときに各カラムの圧縮方式を指定することもできるが、後ほどCSVファイルをCOPYコマンドでインポートするときに、エンコードなしでテーブルが0件だと、ファイルを10万行読んで自動圧縮をしてくれるようなので今回はそちらに任せる。非常に便利な機能ですね。
自動圧縮ありでテーブルをロードする – Amazon Redshift

3.2 CSVファイルをアップロードする

mydb=# COPY test FROM 's3://test-bucket/test.CSV' CSV credentials 'aws_Access_key_id=;aws_secret_Access_key='
INFO:  Load into table 'test' completed, 100000000 record(s) loaded successfully.
COPY

※コマンド一行だとこんな感じ↓ただしパスワードは指定できないのでバックグラウンド実行できない。

$ psql -h my-dw-instance.xxxx.us-east-1.redshift.amazonaws.com -U awsuser -d mydb -p 5439 -c "COPY test FROM 's3://test-bucket/test.CSV' CSV credentials 'aws_Access_key_id=;aws_secret_Access_key=';"
ユーザ awsuser のパスワード:
INFO:  Load into table 'test' completed, 100000000 record(s) loaded successfully.
COPY

 

最後に

  • 今回はdw2.largeのシングルノードで試しました。上記で例に使ったテーブルよりもっとレコードレングスの長いテーブルを3つほど作って1億行ずつインポートしてみましたが、いずれも10分程度で完了しました。非常に楽ですね。
  • コマンド一行でバックグラウンド実行できないのは少し面倒。なんかいいやり方ないかな。

こちらの記事はなかの人(yoshidashingo)監修のもと掲載しています。
元記事は、こちら