企业🤖AI智能体构建引擎,智能编排和调试,一键部署,支持私有化部署方案 广告
# 安装 ## 获取Airflow 安装最新稳定版Airflow的最简单方法是使用`pip` : ``` pip install apache-airflow ``` 您还可以安装Airflow的一些别的支持功能组件,例如 ``s3`` 或者 ``postgres``: ``` pip install apache-airflow [ postgres,s3 ] ``` 注意 GPL依赖 默认情况下获取Apache Airflow的其中一个依赖项是在GPL库中的('unidecode')。 如果在安装的时候出现问题,您可以通过设置`export SLUGIFY_USES_TEXT_UNIDECODE=yes`来强制使用非GPL库,然后继续正常地进行安装。请注意,每次升级都需要指定!另外也请注意,如果系统上已经存在*unidecode*,那么这个依赖关系仍将被使用。 ## 额外的扩展包 通过PyPI的 `apache-airflow` 命令下载的基本包只含有启动的基础部分内容。您可以根据您环境的需要下载您的扩展包。例如,如果您不需要连接Postgres,那么您就不需要使用yum命令安装 `postgres-devel`,或者在您使用的系统上面安装postgre应用,并在安装中的经历一些痛苦过程。。 除此之外,Airflow可以按照需求导入这些扩展包来使用。 如下是列举出来的子包列表和他的功能: | 包名 | 安装命令 | 说明 | | :------| :------ | :------ | | all | `pip install apache-airflow[all]` | 所有Airflow功能 | | all_dbs | `pip install apache-airflow[all_dbs]` | 所有集成的数据库 | | async | `pip install apache-airflow[async]` | Gunicorn的异步worker classes | | devel | `pip install apache-airflow[devel]` | 最小开发工具要求 | | devel_hadoop | `pip install apache-airflow[devel_hadoop]` | Airflow + Hadoop stack 的依赖 | | celery | `pip install apache-airflow[celery]` | CeleryExecutor | | crypto | `pip install apache-airflow[crypto]` | 加密元数据db中的连接密码 | | druid | `pip install apache-airflow[druid]` | Druid.io 相关的 operators 和 hooks | | gcp_api | `pip install apache-airflow[gcp_api]` | Google 云平台 hooks 和operators(使用`google-api-python-client` ) | | jdbc | `pip install apache-airflow[jdbc]` | JDBC hooks 和 operators | | hdfs | `pip install apache-airflow[hdfs]` | HDFS hooks 和 operators | | hive | `pip install apache-airflow[hive]` | 所有Hive相关的 operators | | kerberos | `pip install apache-airflow[kerberos]` | Kerberos集成Kerberized Hadoop | | ldap | `pip install apache-airflow[ldap]` | 用户的LDAP身份验证 | | mssql | `pip install apache-airflow[mssql]` | Microsoft SQL Server operators 和 hook,作为Airflow后端支持 | | mysql | `pip install apache-airflow[mysql]` | MySQL operators 和 hook,支持作为Airflow后端。 MySQL服务器的版本必须是5.6.4+。 确切的版本上限取决于`mysqlclient`包的版本。 例如, `mysqlclient` 1.3.12只能与MySQL服务器5.6.4到5.7一起使用。 | | password | `pip install apache-airflow[password]` | 用户密码验证 | | postgres | `pip install apache-airflow[postgres]` | Postgres operators 和 hook,作为Airflow后端支持 | | qds | `pip install apache-airflow[qds]` | 启用QDS(Qubole数据服务)支持 | | rabbitmq | `pip install apache-airflow[rabbitmq]` | rabbitmq作为Celery后端支持 | | s3 | `pip install apache-airflow[s3]` | `S3KeySensor` , `S3PrefixSensor` | | samba | `pip install apache-airflow[samba]` | `Hive2SambaOperator` | | slack | `pip install apache-airflow[slack]` | `SlackAPIPostOperator` | | vertica | `pip install apache-airflow[vertica]` | 做为Airflow后端的 Vertica hook 支持 | | cloudant | `pip install apache-airflow[cloudant]` | Cloudant hook | | redis | `pip install apache-airflow[redis]` | Redis hooks 和 sensors | ## 初始化Airflow数据库 在您运行任务之前,Airflow需要初始化数据库。 如果您只是在试验和学习Airflow,您可以坚持使用默认的SQLite选项。 如果您不想使用SQLite,请查看[初始化数据库后端](howto/initialize-database.html)以设置其他数据库。 配置完成后,您需要先初始化数据库,然后才能运行任务: ``` airflow initdb ```