Amazon AppFlow¶
Amazon AppFlow 是一种完全托管的集成服务,使您只需点击几下即可在 Salesforce、SAP、Zendesk、Slack 和 ServiceNow 等软件即服务 (SaaS) 应用程序与 Amazon S3 和 Amazon Redshift 等 AWS 服务之间安全地传输数据。借助 AppFlow,您可以按照您选择的频率(按计划、响应业务事件或按需)以企业规模运行数据流。您可以配置过滤和验证等数据转换功能,以便在流程本身中生成丰富的、可立即使用的数据,而无需额外的步骤。AppFlow 自动加密传输中的数据,并允许用户限制通过与 AWS PrivateLink 集成的 SaaS 应用程序通过公共互联网传输数据,从而减少安全威胁的暴露。
先决条件任务¶
要使用这些操作符,您必须执行以下几项操作
通过 pip 安装 API 库。
pip install 'apache-airflow[amazon]'详细信息请参考 Airflow® 的安装
设置连接.
通用参数¶
- aws_conn_id
引用 Amazon Web Services 连接 ID。如果此参数设置为
None
,则将使用默认的 boto3 行为,而无需查找连接。否则,请使用存储在连接中的凭据。默认值:aws_default
- region_name
AWS 区域名称。如果此参数设置为
None
或省略,则将使用 AWS 连接额外参数 中的 region_name。否则,请使用指定的值代替连接值。默认值:None
- verify
是否验证 SSL 证书。
False
- 不验证 SSL 证书。path/to/cert/bundle.pem - 要使用的 CA 证书包的文件名。如果您想使用与 botocore 使用的 CA 证书包不同的 CA 证书包,则可以指定此参数。
如果此参数设置为
None
或省略,则将使用 AWS 连接额外参数 中的 verify。否则,请使用指定的值代替连接值。默认值:None
- botocore_config
提供的字典用于构造 botocore.config.Config。此配置可用于配置 避免限制异常、超时等。
{ "signature_version": "unsigned", "s3": { "us_east_1_regional_endpoint": True, }, "retries": { "mode": "standard", "max_attempts": 10, }, "connect_timeout": 300, "read_timeout": 300, "tcp_keepalive": True, }
如果此参数设置为
None
或省略,则将使用 AWS 连接额外参数 中的 config_kwargs。否则,请使用指定的值代替连接值。默认值:None
注意
指定空字典
{}
将覆盖 botocore.config.Config 的连接配置
操作符¶
运行流程¶
要按原样运行 AppFlow 流程,请使用:AppflowRunOperator
。
tests/system/amazon/aws/example_appflow_run.py
run_flow = AppflowRunOperator(
task_id="run_flow",
flow_name=flow_name,
)
注意
支持的来源:Salesforce、Zendesk
运行流程完整版¶
要运行删除所有过滤器的 AppFlow 流程,请使用:AppflowRunFullOperator
。
tests/system/amazon/aws/example_appflow.py
campaign_dump_full = AppflowRunFullOperator(
task_id="campaign_dump_full",
source=source_name,
flow_name=flow_name,
)
注意
支持的来源:Salesforce、Zendesk
运行流程每日¶
要运行过滤每日记录的 AppFlow 流程,请使用:AppflowRunDailyOperator
。
tests/system/amazon/aws/example_appflow.py
campaign_dump_daily = AppflowRunDailyOperator(
task_id="campaign_dump_daily",
source=source_name,
flow_name=flow_name,
source_field="LastModifiedDate",
filter_date="{{ ds }}",
)
注意
支持的来源:Salesforce
运行流程之前¶
要运行过滤未来记录并选择过去记录的 AppFlow 流程,请使用:AppflowRunBeforeOperator
。
tests/system/amazon/aws/example_appflow.py
campaign_dump_before = AppflowRunBeforeOperator(
task_id="campaign_dump_before",
source=source_name,
flow_name=flow_name,
source_field="LastModifiedDate",
filter_date="{{ ds }}",
)
注意
支持的来源:Salesforce
运行流程之后¶
要运行过滤过去记录并选择未来记录的 AppFlow 流程,请使用:AppflowRunAfterOperator
。
tests/system/amazon/aws/example_appflow.py
campaign_dump_after = AppflowRunAfterOperator(
task_id="campaign_dump_after",
source=source_name,
flow_name=flow_name,
source_field="LastModifiedDate",
filter_date="3000-01-01", # Future date, so no records to dump
)
注意
支持的来源:Salesforce、Zendesk
跳过空运行的任务¶
要在某些 AppFlow 运行返回零记录时跳过任务,请使用:AppflowRecordsShortCircuitOperator
。
tests/system/amazon/aws/example_appflow.py
campaign_dump_short_circuit = AppflowRecordsShortCircuitOperator(
task_id="campaign_dump_short_circuit",
flow_name=flow_name,
appflow_run_task_id="campaign_dump_after", # Should shortcircuit, no records expected
)
注意
支持的来源:Salesforce、Zendesk