1. sqoop 수행
임시테이블 만들어 데이터 import
sqoop import --connect jdbc:mysql://localhost/test --table CUSTOMER
--username test1 --password test -m 1 --create-hive-table
--hive-table CUSTOMER --as-avrodatafile --target-dir /tmp/test/customer
sqoop import --connect jdbc:mysql://localhost/test --table CUSTOMER
--username test1 --password test -m 1 --as-avrodatafile --target-dir /tmp/test/customer
2. avro 파일 export후 스키마 정보 추출
hdfs dfs -get /tmp/test/customer/part-m-00000.avro
java -jar avro-tools-1.8.1.jar getchema part-m-00000.avro > customer.avrc
3. 스키마 정보 upload
hdfs dfs -put customer.avrc /tmp/test
4. 자동으로 데이터 import (oozie 사용)
sqoop import --connect jdbc:mysql://localhost/test --table CUSTOMER
--username test1 --password test -m 1 --create-hive-table
--hive-table CUSTOMER --as-avrodatafile --target-dir /tmp/test/customer
sqoop import --connect jdbc:mysql://localhost/test --query 'select * from customer where $CONDITIONS' --username test1 --password test -m 1 --compression-code snappy
'NoSQL > Hive' 카테고리의 다른 글
hive table merge (1) | 2017.02.18 |
---|---|
hive skip line 설정 (0) | 2017.02.16 |
Hive authentification (0) | 2016.10.16 |
Hive authorization (0) | 2016.10.16 |
Hive DML (0) | 2016.10.15 |