# Hive 解释器
原文链接 : [http://zeppelin.apache.org/docs/0.7.2/interpreter/hive.html](http://zeppelin.apache.org/docs/0.7.2/interpreter/hive.html)
译文链接 : [http://www.apache.wiki/pages/viewpage.action?pageId=10030808](http://www.apache.wiki/pages/viewpage.action?pageId=10030808)
贡献者 : [片刻](/display/~jiangzhonglian) [ApacheCN](/display/~apachecn) [Apache中文网](/display/~apachechina)
## 重要的提醒
Hive Interpreter将被弃用并合并到JDBC Interpreter中。您可以使用具有相同功能的JDBC解释器使用Hive Interpreter。请参阅下面的设置和依赖关系示例。
### 属性
| 属性 | 值 |
| --- | --- |
| hive.driver | org.apache.hive.jdbc.HiveDriver |
| hive.url | jdbc:hive2://localhost:10000 |
| hive.user | hiveUser |
| hive.password | hivePassword |
### 依赖
| Artifact | Exclude |
| --- | --- |
| org.apache.hive:hive-jdbc:0.14.0 | |
| org.apache.hadoop:hadoop-common:2.6.0 | |
### 配置
| 属性 | 默认 | 描述 |
| --- | --- | --- |
| default.driver | org.apache.hive.jdbc.HiveDriver | JDBC驱动程序的类路径 |
| default.url | jdbc:hive2://localhost:10000 | 网址连接 |
| default.user | | **(可选)连接的**用户名 |
| default.password | | **(可选)连接**密码 |
| default.xxx | | **(可选)**驱动程序使用的其他属性 |
| ${prefix}.driver | | 驱动程序类路径 `%hive(${prefix})` |
| ${prefix}.url | | 的网址 `%hive(${prefix})` |
| ${prefix}.user | | **(可选)连接的**用户名`%hive(${prefix})` |
| ${prefix}.password | | **(可选)连接**密码`%hive(${prefix})` |
| ${prefix}.xxx | | **(可选)**驱动程序使用的其他属性`%hive(${prefix})` |
此解释器提供多种配置`${prefix}`。用户可以通过此前缀设置多个连接属性。它可以像`%hive(${prefix})`。
## 概述
在[Apache Hive](https://hive.apache.org/)™ 数据仓库软件便于查询和管理驻留在分布式存储大型数据集。Hive提供了一种机制来将结构投影到这些数据上,并使用类似SQL的语言HiveQL查询数据。同时,这种语言还允许传统的map/reduce程序员在HiveQL中表达这种逻辑不方便或低效时插入自定义映射器和缩减器。
## 如何使用
基本上可以使用
```
%hive
select * from my_table;
```
要么
```
%hive(etl)
-- 'etl' is a ${prefix}
select * from my_table;
```
默认情况下,您还可以运行多达10个查询。更改这些设置尚未实现。
### 应用Zeppelin动态表单
您可以在查询内使用[Zeppelin 动态表单](http://www.apache.wiki/pages/viewpage.action?pageId=10030585)。您可以同时使用`text input`和`select form`参数化功能。
```
%hive
SELECT ${group_by}, count(*) as count
FROM retail_demo.order_lineitems_pxf
GROUP BY ${group_by=product_id,product_id|product_name|customer_id|store_id}
ORDER BY count ${order=DESC,DESC|ASC}
LIMIT ${limit=10};
```
- 快速入门
- 什么是Apache Zeppelin?
- 安装
- 配置
- 探索Apache Zeppelin UI
- 教程
- 动态表单
- 发表你的段落
- 自定义Zeppelin主页
- 升级Zeppelin版本
- 从源码编译
- 使用Flink和Spark Clusters安装Zeppelin教程
- 解释器
- 概述
- 解释器安装
- 解释器依赖管理
- 解释器的模拟用户
- 解释员执行Hook(实验)
- Alluxio 解释器
- Beam 解释器
- BigQuery 解释器
- Cassandra CQL 解释器
- Elasticsearch 解释器
- Flink 解释器
- Geode/Gemfire OQL 解释器
- HBase Shell 解释器
- HDFS文件系统 解释器
- Hive 解释器
- Ignite 解释器
- JDBC通用 解释器
- Kylin 解释器
- Lens 解释器
- Livy 解释器
- Markdown 解释器
- Pig 解释器
- PostgreSQL, HAWQ 解释器
- Python 2&3解释器
- R 解释器
- Scalding 解释器
- Scio 解释器
- Shell 解释器
- Spark 解释器
- 系统显示
- 系统基本显示
- 后端Angular API
- 前端Angular API
- 更多
- 笔记本存储
- REST API
- 解释器 API
- 笔记本 API
- 笔记本资源 API
- 配置 API
- 凭据 API
- Helium API
- Security ( 安全 )
- Shiro 授权
- 笔记本 授权
- 数据源 授权
- Helium 授权
- Advanced ( 高级 )
- Zeppelin on Vagrant VM ( Zeppelin 在 Vagrant 虚拟机上 )
- Zeppelin on Spark Cluster Mode( Spark 集群模式下的 Zeppelin )
- Zeppelin on CDH ( Zeppelin 在 CDH 上 )
- Contibute ( 贡献 )
- Writing a New Interpreter ( 写一个新的解释器 )
- Writing a new Visualization (Experimental) ( 编写新的可视化(实验) )
- Writing a new Application (Experimental) ( 写一个新的应用程序( 实验 ) )
- Contributing to Apache Zeppelin ( Code ) ( 向 Apache Zeppelin 贡献( 代码 ) )
- Contributing to Apache Zeppelin ( Website ) ( 向 Apache Zeppelin 贡献(website) )