如何在CentOS和Red Hat使用Hadoop安装Apache Hive

什么是Apache的Hive?Apache配置单元数据仓库软件,方便查询和管理驻留在分布式存储大型数据集。 Hive提供了一种机制,以项目结构到这些数据,并使用名为HiveQL一个类似于SQL的语言查询数据。 了解更多关于官方站点 该向导将帮助你如何在CentOS/RHEL中用Hadoop安装ApacheHive。

第1步:安装JAVA和Hadoop

Apache的配置单元所需的Java 6或更高版本。我们也需要我们的系统上安装ApacheHive之前先安装Hadoop。使用下面的链接进行安装 在CentOS/RHEL 5/6安装JAVA 在CentOS/RHEL 6安装Hadoop

第2步:下载Hive存档包

在Linux系统上成功配置的Hadoop后。让我们开始Hive设置。首先下载最新的Hive的源代码,并使用下面的命令提取存档。
# cd /opt/hadoop
# wget http://archive.apache.org/dist/hive/hive-0.12.0/hive-0.12.0-bin.tar.gz
# tar xzf hive-0.12.0-bin.tar.gz
# mv hive-0.12.0-bin hive
# chown -R hadoop hive

第3步:设置环境变量

Hive中提取的存档文件后,切换到以下环境变量的hadoop用户和设置。
# su - hadoop
$ export HADOOP_HOME=/opt/hadoop/hadoop
$ export HADOOP_PREFIX=/opt/hadoop/hadoop
$ export HIVE_HOME=/opt/hadoop/hive
$ export PATH=$HIVE_HOME/bin:$PATH

第4步:启动Hive

运行Hive之前,我们需要创建 /tmp/user/hive/warehouse ,并将它们设置chmod g+w ,HDFS之前在Hive创建一个表。使用下面的命令。
$ cd /opt/hadoop/hive
$ $HADOOP_HOME/bin/hadoop fs -mkdir /tmp
$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse
$ $HADOOP_HOME/bin/hadoop fs -chmod g+w /tmp
$ $HADOOP_HOME/bin/hadoop fs -chmod g+w /user/hive/warehouse
让我们开始使用Hive使用以下命令。
$ bin/hive

Logging initialized using configuration in jar:file:/opt/hadoop/hive/lib/hive-common-0.12.0.jar!/hive-log4j.properties
hive>

第5步:创建Demo表并测试

在这个阶段,你已经成功安装了Hive。让我们创建一个使用以下命令的示例表
hive>  CREATE TABLE demo1 (id int, name string);
OK
Time taken: 6.565 seconds
使用下面的命令创建表。
hive> SHOW TABLES;
OK
demo1
Time taken: 0.231 seconds, Fetched: 1 row(s)
使用下面的命令删除表。
hive> DROP TABLE demo1;
OK
Time taken: 2.393 seconds
了解更多关于SQL操作上的Hive上的Apache Hive官方网站
赞(52) 打赏
未经允许不得转载:优客志 » 系统运维
分享到:

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏