`
xfyzhy
  • 浏览: 15901 次
  • 性别: Icon_minigender_2
  • 来自: 北京
社区版块
存档分类
最新评论

hive初步了解

 
阅读更多


1、下载hive安装包
2、上传至linux服务器
3、拷贝安装包至hadoop用户主目录下
4、修改安装包所属组、所属用户为hadoop   这里用什么命令呢?(chown hadoop apache-hive-0.13.1-bin、chgrp hadoop apache-hive-0.13.1-bin)
5、添加hive-site.xml文件,这里一般拷贝hive-default.xml.template即可 cp hive-default.xml.template hive-site.xml
6、添加hive环境变量,配置HIVE_HOME 至.bashrc 中 source .bashrc


/home/hadoop/hive_testdata

CREATE TABLE test_1(id INT, name STRING, city STRING)  ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'

load data local inpath '/home/hadoop/hive_testdata' overwrite into table  test_1
执行mapreduce
hive支持像mysql一样的sql,但是hive一般只有查询和插入(load),没有更新,在执行select *的时候直接把hdfs中的数据输出,不会执行mapreduce,当执行其他的时候就会先去hadoop集群上面执行mapreduce,然后将结果展现出来

hadoop分为两部分:存储(hdfs),计算(mapreduce)
首先,hive的源数据一定是存储在hdfs上面的。
例如:

[hadoop@localhost ~]$ hadoop fs -ls /user/hive
Found 1 items
drwxr-xr-x   - hadoop supergroup          0 2015-01-08 21:04 /user/hive/warehouse
[hadoop@localhost ~]$ hadoop fs -ls /user/hive/warehouse
Found 1 items
drwxr-xr-x   - hadoop supergroup          0 2015-01-08 21:04 /user/hive/warehouse/test_1
[hadoop@localhost ~]$ hadoop fs -ls /user/hive/warehouse/test_1/
Found 1 items
-rw-r--r--   1 hadoop supergroup         21 2015-01-08 21:04 /user/hive/warehouse/test_1/hive_testdata
[hadoop@localhost ~]$ hadoop fs -ls /user/hive/warehouse/test_1/hive_testdata/
Found 1 items
-rw-r--r--   1 hadoop supergroup         21 2015-01-08 21:04 /user/hive/warehouse/test_1/hive_testdata
[hadoop@localhost ~]$ hadoop fs -cat /user/hive/warehouse/test_1/hive_testdata/
1       a       a1
2       b       b1
3       c       c1

那么在查询的时候,如果是select *,hive做的就比较简单,将hdfs中的数据合并并简单处理输出即可,不会走mapreduce
如果是其他相对复杂的查询,那么hive会将查询语句分解为mapreduce任务,然后将任务发送给集群,由mapreduce的jobtracker节点负责分发任务给tasktracker===
本来mapreduce也是集群方式,他主要分为jobtracker和tasktracker两类,jobtracker负责任务分发,tasktracker负责处理执行所分配到的任务

hive> select * from test_1;
OK
1       a       a1
2       b       b1
3       c       c1
Time taken: 0.781 seconds, Fetched: 3 row(s)
hive> select id from test_1 group by id;
Total jobs = 1
Launching Job 1 out of 1
Number of reduce tasks not specified. Estimated from input data size: 1
In order to change the average load for a reducer (in bytes):
  set hive.exec.reducers.bytes.per.reducer=
In order to limit the maximum number of reducers:
  set hive.exec.reducers.max=
In order to set a constant number of reducers:
  set mapred.reduce.tasks=
Starting Job = job_201412251631_0001, Tracking URL = http://localhost:50030/jobdetails.jsp?jobid=job_201412251631_0001
Kill Command = /home/hadoop/hadoop-1.2.1/libexec/../bin/hadoop job  -kill job_201412251631_0001
Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 1
2015-01-08 21:09:01,496 Stage-1 map = 0%,  reduce = 0%
2015-01-08 21:09:03,531 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 1.48 sec
2015-01-08 21:09:11,625 Stage-1 map = 100%,  reduce = 33%, Cumulative CPU 1.48 sec
2015-01-08 21:09:12,639 Stage-1 map = 100%,  reduce = 100%, Cumulative CPU 4.17 sec
MapReduce Total cumulative CPU time: 4 seconds 170 msec
Ended Job = job_201412251631_0001
MapReduce Jobs Launched:
Job 0: Map: 1  Reduce: 1   Cumulative CPU: 4.17 sec   HDFS Read: 237 HDFS Write: 6 SUCCESS
Total MapReduce CPU Time Spent: 4 seconds 170 msec
OK
1
2
3
Time taken: 21.549 seconds, Fetched: 3 row(s)

分享到:
评论

相关推荐

    初步了解hive sql.md

    hive是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。

    hive

    hive hive hive hive hive hive hive hive hive hive hive hive

    Hive3.1.2编译源码

    使用hive3.1.2和spark3.0.0配置hive on spark的时候,发现官方下载的hive3.1.2和spark3.0.0不兼容,hive3.1.2对应的版本是spark2.3.0,而spark3.0.0对应的hadoop版本是hadoop2.6或hadoop2.7。 所以,如果想要使用高...

    hive-jdbc hive jdbc驱动

    hive-jdbc

    Hive使用手册Hive使用手册

    1 Hive 概念与连接使用: 2 2 Hive支持的数据类型: 2 2.1原子数据类型: 2 2.2复杂数据类型: 2 2.3 Hive类型转换: 3 3 Hive创建/删除数据库 3 3.1创建数据库: 3 3.2 删除数据库: 3 4 Hive 表相关语句 3 4.1 Hive ...

    Hive表生成工具,Hive表生成工具Hive表生成工具

    Hive表生成工具,Hive表生成工具Hive表生成工具

    《Hive数据仓库案例教程》教学课件 第5章 Hive数据操作.pdf

    《Hive数据仓库案例教程》教学课件 第5章 Hive数据操作.pdf《Hive数据仓库案例教程》教学课件 第5章 Hive数据操作.pdf《Hive数据仓库案例教程》教学课件 第5章 Hive数据操作.pdf《Hive数据仓库案例教程》教学课件 第...

    Hive.sql,hive的元数据

    Hive.sql

    Hive 简明教程.pdf

    第二部分:如果想能写出高效的Hive 语句,必须要先了解Hive 执行原理,然后掌握一系列 的优化方法。所以第二部分主要内容是Hive 原理与优化。 第三部分:讲解Hive 的一系列技术细节,以满足技术人员想了解技术细节的...

    hive-3.1.1安装包

    Hive是一个基于Hadoop的数据仓库工具,它本身并不存储数据,部署在Hadoop集群上,数据是存储在HDFS上的. Hive所建的表在HDFS上对应的是一个文件夹,表的内容对应的是一个文件。它不仅可以存储大量的数据而且可以对...

    Hive总结.docx

    Hive原理/Hive SQL/Hive 函数/数据仓库分层和建模/Hive sql优化/数据倾斜

    Hive新手学习资料之Hive入门与实战.+Hive用户手册+hive函数大全中文版资源合集

    Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能。 hive是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储...

    hivesql语句练习

    5.安装hive和mysq完成后,将mysql的连接jar包拷贝到$HIVE_HOME/lib目录下 如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行) mysql -uroot -p #(执行下面的语句 *.*:所有库下的所有表 %:任何IP地址...

    Ambari下Hive3.0升级到Hive4.0

    Ambari下Hive3.0升级到Hive4.0,验证自测;

    Hive优化方法整理

    Hive优化方法整理 hive 数据倾斜 内连接

    hive构造测试数据方法

    hive造数据

    利用Hive进行复杂用户行为大数据分析及优化案例

    利用Hive进行复杂用户行为大数据分析及优化案例(全套视频+课件+代码+讲义+工具软件),具体内容包括: 01_自动批量加载数据到hive 02_Hive表批量加载数据的脚本实现(一) 03_Hive表批量加载数据的脚本实现(二) ...

    hive学习总结 思维导图.xmind

    由于 Hive 采用了类似SQL 的查询语言 HQL(Hive Query Language),因此很容易将 Hive 理解为数据库。其实从结构上来看,Hive 和数据库除了拥有类似的查询语言,再无类似之处。本文将从多个方面来阐述 Hive ...

    hive数仓、hive SQL 、 hive自定义函数 、hive参数深入浅出

    hive数仓、hive SQL 、 hive自定义函数 、hive参数深入浅出

Global site tag (gtag.js) - Google Analytics