启动Client
/usr/hadoop/sqoop-1.99.5-cdh5.5.1-bin-hadoop200/bin/sqoop.sh client
为客户端配置服务器:set server --host node3--port 12000 --webapp sqoop 【红色部分为 本机hostname 主机名和端口号】
sqoop:000> set server --host node3--port 12000 --webapp sqoop
使用 show version --all 查看服务器配置
sqoop:000> show version --all
1、 使用 show connector 查看sqoop的所有连接,sqoop1.99.5 所有的连接固定为四个,如下:
sqoop:000> show connector +----+------------------------+-----------------+------------------------------------------------------+----------------------+ | Id | Name | Version | Class | Supported Directions | +----+------------------------+-----------------+------------------------------------------------------+----------------------+ | 1 | kite-connector | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.kite.KiteConnector | FROM/TO | | 2 | kafka-connector | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.kafka.KafkaConnector | TO | | 3 | hdfs-connector | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.hdfs.HdfsConnector | FROM/TO | | 4 | generic-jdbc-connector | 1.99.5-cdh5.5.1 | org.apache.sqoop.connector.jdbc.GenericJdbcConnector | FROM/TO | +----+------------------------+-----------------+------------------------------------------------------+----------------------+
2、 在向hdfs导入导出数据时,需要依赖以上四个连接创建link (在1.99.4版本之后 用户不需要再创建连接)
首先 查看 当前的所有link
sqoop:000> show link +----+---------------------+--------------+------------------------+---------+ | Id | Name | Connector Id | Connector Name | Enabled | +----+---------------------+--------------+------------------------+---------+ | 1 | hdfs_link | 3 | hdfs-connector | true | | 2 | mysql_openfire_link | 4 | generic-jdbc-connector | true | +----+---------------------+--------------+------------------------+---------+
查看job
sqoop:000> show job +----+-------------------------+----------------+--------------+---------+ | Id | Name | From Connector | To Connector | Enabled | +----+-------------------------+----------------+--------------+---------+ | 1 | openfire_properties_job | 4 | 3 | true | +----+-------------------------+----------------+--------------+---------+
3、 创建 link
创建hdfs连接
sqoop:000> create link --cid 3 Creating link for connector with id 1 Please fill following values to create new link object Name: hdfs_link --设置连接名称 Link configuration HDFS URI: hdfs://ns1/ --HDFS访问地址 New link was successfully created with validation status OK and persistent id 2
创建 mysql 连接
sqoop:000> create link --cid 4 Creating link for connector with id 2 Please fill following values to create new link object Name: mysql_openfire_link --设置连接名称 Link configuration JDBC Driver Class: com.mysql.jdbc.Driver --驱动 JDBC Connection String: jdbc:mysql://mysql.server/database --JDBC连接 Username: sqoop --数据库用户 Password: ***** --数据库密码 JDBC Connection Properties: There are currently 0 values in the map: entry#protocol=tcp --之后按回车 New link was successfully created with validation status OK and persistent id 1
5、 创建job
sqoop:000> create job -f 2 -t 1 Creating job for links with from id 1 and to id 6 Please fill following values to create new job object Name: mysql_openfire--设置 任务名称 FromJob configuration Schema name:(Required)sqoop --库名:必填 Table name:(Required)sqoop --表名:必填 Table SQL statement:(Optional) --选填 Table column names:(Optional) --选填 Partition column name:(Optional) id --选填 Null value allowed for the partition column:(Optional) --选填 Boundary query:(Optional) --选填 ToJob configuration Output format: 0 : TEXT_FILE 1 : SEQUENCE_FILE Output format: 0 : TEXT_FILE 1 : SEQUENCE_FILE Choose: 0 --选择文件压缩格式 Compression format: 0 : NONE 1 : DEFAULT 2 : DEFLATE 3 : GZIP 4 : BZIP2 5 : LZO 6 : LZ4 7 : SNAPPY 8 : CUSTOM Choose: 0 --选择压缩类型 Custom compression format:(Optional) --选填 Output directory:hdfs:/ns1/sqoop --HDFS存储目录(目的地) Driver Config Extractors: 2 --提取器 Loaders: 2 --加载器 New job was successfully created with validation status OK and persistent id 1
查看job
sqoop:000> show job +----+-------------------------+----------------+--------------+---------+ | Id | Name | From Connector | To Connector | Enabled | +----+-------------------------+----------------+--------------+---------+ | 1 | openfire_properties_job | 4 | 3 | true | +----+-------------------------+----------------+--------------+---------+
常用命令列表
sqoop:001> show link 显示所有链接
sqoop:001> carete link --cid 1床架连接
sqoop:000> delete link --lid 1 删除link
sqoop:001> show job 显示所有job
sqoop:001> create job --f 2 --t 1 创建job ( 从link 2 向link 1导入数据)
sqoop:000> start job --jid 1 启动job
sqoop:000> status job --jid 1 查看导入状态
sqoop:000> delete job --jid 1 删除job
相关推荐
本文详细的介绍了sqoop应用中的一个例子,让你快速掌握sqoop入门
Apache Sqoop Cookbook,很多实例,非常容易上手,入门的好数值,虽然是原书,但通俗易懂
运行Hadoop伪分布式实例 30 启动YARN 35 附加教程: 配置PATH环境变量 37 使用Eclipse编译运行MapReduce程序(Hadoop-Eclipse-Plugin,建议) 38 使用Eclipse打包自己的MapReduce程序 51 不用Hadoop-Eclipse-...
第1章 初识Hadoop 1 第2章...279 第9章 构建Hadoop集群 321 第10章 管理Hadoop 367 第11章 关于Pig 397 第12章 关于Hive 447 第13章 关于HBase 497 第14章 关于ZooKeeper 529 第15章 关于Sqoop 571 第16章 实例学习 593
第二阶段(离线报表)(1)用户订单入oracle数据库,(2)通过sqoop把数据导入hadoop上。(3)使用mr和rdd对hadoop上的原始订单做etl清洗(4)建立hive表和sparkSQL内存表。为后期分析做基础(5)使用HQL实现业务指标分析,和...
学习时候的笔记 还有简单例子代码 111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111111
一个导入的例子 生成代码 其他序列化系统 深入了解数据库导入 导入控制 导入和一致性 直接模式导入 使用导入的数据 导入的数据与Hive 导入大对象 执行导出 深入了解导出 导出与事务 导出和SequenceFile 第16章 实例...
一个导入的例子 生成代码 其他序列化系统 深入了解数据库导入 导入控制 导入和一致性 直接模式导入 使用导入的数据 导入的数据与Hive 导入大对象 执行导出 深入了解导出 导出与事务 ...
hadoop 0.23的主要变化是使用了new MapReduce runtime, MapReduce 2,是一个基于新的分布式资源管理系统的YARN,第六章讲如何工作,第七章讲如何应用。 书中包括了更多的mapreduce资料,比如用maven打包MapReduce...
本书主要介绍Hadoop技术的相关知识,不但详细介绍了Hadoop、MapReduce、HDFS、Hive和Sqoop,还深入探讨了Hadoop的运维和调优,并包含了一个具有代表性的完整的基于Hadoop的商业智能系统的设计和实现。, 本书的最大...
Pig(基础脚本服务) ⽤类sql语⾔保证mr执⾏顺畅 pig latin 的执⾏环境 Hive(数据仓库存储) 基础数据仓库(ods gdm dw app dim) 基础ETL的运⾏实例 OLAP的数据存储(kylin) 各种数据的hive外表⽤于查询 对⽐impala Druid...
+ 大量复杂的计算和分析 缺点: 依赖于单机性能:CPU + RAM (摩尔定律) 难以处理海量数据 分布式计算 基本思想: 使用一组计算机协调完成一项工作 分布式系统开发:MPI(消息传递接口) 总共287个函数 MPI_Send( )...
第⼆阶段,主要是Linux&Hadoop⽣态体系的学习,对于Linux体系、Hadoop离线计算⼤纲、分布式数据库Hbase、数据仓库Hive、数据 迁移⼯具Sqoop、Flume分布式⽇志框架等要逐步去学习掌握。 推荐书籍: 《Big Data》 在...
使用hive(表描述在hive数据库的TBLS表中,表中的细分在COLUMNS_V2表中,表的id在CDS表中,存储HDFS上的路径在SDS表中) Linux文件/目录管理类命令 (文件系统目录切换) (显示文件和目录信息) (创建一个空文件...