企业🤖AI智能体构建引擎,智能编排和调试,一键部署,支持私有化部署方案 广告
[TOC] # Hive命令行 ## cli窗口查看hdfs文件系统 ~~~ hive> dfs -ls / ; ~~~ ## cli窗口查看本地路径 ~~~ hive> ! ls /opt; ~~~ ## 查看历史命令 在用户的家目录下 ~~~ [root@master ~]# cat .hivehistory ~~~ ## 语法结构 ~~~ hive [-hiveconf x=y]* [<-i filename>]* [<-f filename>|<-e query-string>] [-S] ~~~ 说明: 1. -i 从文件初始化HQL。 2. -e 从命令行执行指定的HQL 3. -f 执行HQL脚本 4. -v 输出执行的HQL语句到控制台 5. `-p <port> connect to Hive Server on port number ` 6. `-hiveconf x=y Use this to set hive/hadoop configuration variables`. ## 具体实例 ~~~ //查询指定的结果 hive -e "select * from collection.t_array"; //将查询的结果导入导入到一个文件 hive -e "select * from collection.t_array" >> t_3; //把sql写进这个sql文件,然后让hive调用这个文件 hive -f sql.txt ~~~ 我们把这个当做配置文件 ~~~ [root@master ~]# cat cof set mapred.reduce.tasks=4; ~~~ 然后启动下 ~~~ hive -i cof ~~~ 除了显示结果,还显示执行的sql ~~~ hive -v -e "select * from collection.t_array"; ~~~ 指定启动时候的配置参数 ~~~ hive -hiveconf mapred.reduce.tasks=4 ~~~ # Hive参数配置方式 Hive参数大全: `https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties` 开发Hive应用时,不可避免地需要设定Hive的参数。设定Hive的参数可以调优HQL代码的执行效率,或帮助定位问题。然而实践中经常遇到的一个问题是,为什么设定的参数没有起作用?这通常是错误的设定方式导致的。 对于一般参数,有以下三种设定方式: * 配置文件 * 命令行参数 * 参数声明 ## 配置文件 Hive的配置文件包括 * 用户自定义配置文件:`$HIVE_CONF_DIR/hive-site.xml ` * 默认配置文件:`$HIVE_CONF_DIR/hive-default.xml ` **用户自定义配置会覆盖默认配置** 另外,Hive也会读入Hadoop的配置,因为Hive是作为Hadoop的客户端启动的,Hive的配置会覆盖Hadoop的配置 **配置文件的设定对本机启动的所有Hive进程都有效** ## 命令行参数 启动Hive(客户端或Server方式)前,可以在命令行添加`-hiveconf param=value`来设定参数,例如: ~~~ bin/hive -hiveconf hive.root.logger=INFO,console ~~~ **这一设定对本次启动的Session(对于Server方式启动,则是所有请求的Sessions)有效** ## reduce个数设置 **参数声明:** 可以在HQL中使用SET关键字设定参数,例如: ~~~ set mapred.reduce.tasks=100; ~~~ **这一设定的作用域也是session级的** 每个reducer task任务处理的数据量。默认为1G ~~~ set hive.exec.reducers.bytes.per.reducer=<number> ~~~ 设置reducers task的最大个数 ~~~ set hive.exec.reducers.max=<number> ~~~ 设置reduce task的任务数 ~~~ set mapred.reduce.tasks=<number> ~~~ 设置本地模式,表示mapreduce只在本地跑,提升速度 ~~~ set hive.exec.mode.local.auto=true ~~~ ## 总结 **上述三种设定方式的优先级依次递增。即参数声明覆盖命令行参数,命令行参数覆盖配置文件设定。注意某些系统级的参数,例如log4j相关的设定,必须用前两种方式设定,因为那些参数的读取在Session建立以前已经完成了** ## 查看参数 查看所有参数 ~~~ hive> set; ~~~ 查看具体参数配置 ~~~ hive> set mapred.reduce.tasks; ~~~ ## hive数据仓库位置 Default数据仓库的最原始位置是在hdfs上,`/user/hive/warehouse`路径下 在仓库目录下,没有对默认的数据库default创建文件夹.如果某张表属于default数据库,直接在数据仓库目录下创建一个文件夹 可以在hive-default.xml中查询/user/hive/warehouse,然后可以修改这个路径,修改后,那么他存储的位置就会改变 ## 显示当前数据库 在hive-site.xml文件中添加如下配置信息,就可以实现显示当前数据库,以及查询表的头信息配置 ![](https://box.kancloud.cn/d0c5d0bbda71a0f88444e058c41ffeef_525x360.png) 在hive-site.xml文件中添加如下配置信息,就可以实现显示当前数据库,以及查询表的头部信息配置 ~~~ <property> <name>hive.cli.print.header</name> <value>true</value> </property> <property> <name>hive.cli.print.current.db</name> <value>true</value> </property> ~~~ ## 运行日志信息配置 hive的log默认存放在`/tmp/{username}/hive.log`目录下(当前用户名下) 修改hive的log存放日志到`/opt/module/hive/logs` 修改`hive/conf/hive-log4j.properties.template`文件名称为hive-log4j.properties 在hive-log4j.properties文件资料修改log存放位置 找到hive.log.dir ~~~ hive.log.dir=/opt/module/hive ~~~