我正在探索 Argo 来协调处理大数据。我希望通过 REST 调用启动一个工作流,该工作流在具有所需处理资源的许多机器之间划分大型数据集。从架构的角度来看,我将如何实现这一点?是否有 REST api 或一些我可以使用的 Node.js 库?
根据 Argo文档:
Argo 实现为 kubernetes 控制器和工作流自定义资源。Argo 本身不运行 API 服务器,并且对于所有 CRD,它通过引入新的API 组/版本( argorproj.io/v1alpha1 ) 和Kind ( Workflow )扩展了 Kubernetes API 服务器。当 CRD 在集群中注册时,通过在 kubernetes API 服务器中公开新端点来访问这些资源。
例如,要列出默认命名空间中的工作流,客户端将发出以下HTTP GET
请求:https://<k8s-api-server>/apis/argoproj.io/v1alpha1/namespaces/default/workflows
您可以在此链接后找到 Golang、Python、Java、Ruby、OpenAPI 的示例。
因此,您可以生成描述 Argo Workflow 资源的 YAML 文件,并将其发送到 Kubernetes API,如示例中所述。
我希望它有帮助。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句