1.  sqoop 수행


임시테이블 만들어 데이터 import


sqoop import --connect jdbc:mysql://localhost/test --table CUSTOMER 

--username test1 --password test -m 1 --create-hive-table 

--hive-table CUSTOMER --as-avrodatafile  --target-dir /tmp/test/customer


sqoop import --connect jdbc:mysql://localhost/test --table CUSTOMER 

--username test1 --password test -m 1 --as-avrodatafile  --target-dir /tmp/test/customer



2. avro 파일 export후 스키마 정보 추출


hdfs dfs -get /tmp/test/customer/part-m-00000.avro

java -jar avro-tools-1.8.1.jar getchema part-m-00000.avro > customer.avrc


3. 스키마 정보 upload


hdfs dfs -put customer.avrc /tmp/test



4. 자동으로 데이터 import  (oozie 사용)


sqoop import --connect jdbc:mysql://localhost/test --table CUSTOMER 

--username test1 --password test -m 1 --create-hive-table 

--hive-table CUSTOMER --as-avrodatafile  --target-dir /tmp/test/customer



sqoop import --connect jdbc:mysql://localhost/test --query 'select * from customer where $CONDITIONS' --username test1 --password test -m 1  --compression-code snappy


'NoSQL > Hive' 카테고리의 다른 글

hive table merge  (1) 2017.02.18
hive skip line 설정  (0) 2017.02.16
Hive authentification  (0) 2016.10.16
Hive authorization  (0) 2016.10.16
Hive DML  (0) 2016.10.15

+ Recent posts