GCP数据流-WriteToBigQuery()期间发生NoneType错误

dj20b22

我正在尝试使用Beam将csv文件中的数据从GCS传输到BQ,但是在调用WriteToBigQuery时出现NoneType错误。错误信息:

AttributeError: 'NoneType' object has no attribute 'items' [while running 'Write to BQ/_StreamToBigQuery/StreamInsertRows/ParDo(BigQueryWriteFn)']

我的管道代码:

import apache_beam as beam
from apache_beam.pipeline import PipelineOptions
from apache_beam.io.textio import ReadFromText


options = {
    'project': project,
    'region': region,
    'temp_location': bucket
    'staging_location': bucket
    'setup_file': './setup.py'
}


class Split(beam.DoFn):
    def process(self, element):
        n, cc = element.split(",")
        return [{
            'n': int(n.strip('"')),
            'connection_country': str(cc.strip()),
        }]


pipeline_options = beam.pipeline.PipelineOptions(flags=[], **options)

with beam.Pipeline(options=pipeline_options) as pipeline:
    (pipeline
        | 'Read from GCS' >> ReadFromText('file_path*', skip_header_lines=1)
        | 'parse input' >> beam.ParDo(Split())
        | 'print' >> beam.Map(print)
        | 'Write to BQ' >> beam.io.WriteToBigQuery(
            'from_gcs', 'demo', schema='n:INTEGER, connection_country:STRING',
            create_disposition=beam.io.BigQueryDisposition.CREATE_IF_NEEDED,
            write_disposition=beam.io.BigQueryDisposition.WRITE_TRUNCATE)
        )

我的csv看起来像这样:

在此处输入图片说明

在print()阶段的光束摘录如下所示:

在此处输入图片说明

感谢任何帮助!

伊尼戈

由于该print函数返回任何内容,因此没有错误,因此没有任何元素进入该WriteToBQ步骤。您可以使用以下方法修复它:

def print_fn(element):
    print(element)
    return element

{..}
        | 'print' >> beam.Map(print_fn) # Note that now I'm referencing to the fn
        | 'Write to BQ' >> beam.io.WriteToBigQuery(
{..}

另外,如果您要在Dataflow中运行此命令,print则不会出现,但可以使用logging.info()

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

数据流给查询带来错误

来自分类Dev

GCP数据流与云功能

来自分类Dev

数据流:使用BigQueryIO编写时发生SocketTimeoutException

来自分类Dev

数据流作业在更新后保留旧的错误状态

来自分类Dev

出现错误时跳过数据流组件

来自分类Dev

Magento中的非特定数据流导入错误

来自分类Dev

数据流作业模板创建错误了

来自分类Dev

GCP数据流-处理JSON花费的时间太长

来自分类Dev

Spring Cloud Dataflow与Apache Beam / GCP数据流说明

来自分类Dev

如何自定义GCP数据流模板?

来自分类Dev

创建用于多个 GCP 项目的数据流模板

来自分类Dev

数据流任务的OLEDB源中的错误无效数据包版本

来自分类Dev

数据框行迭代期间发生错误

来自分类Dev

数据流错误管道中断错误和503服务不可用错误

来自分类Dev

数据流错误-“ 500内部服务器错误”和“ 503服务不可用”

来自分类Dev

在SSIS数据流(VS2008 BIDS)中记录错误描述

来自分类Dev

io.c(605)处的rsync协议数据流(代码12)中的错误[Receiver = 3.0.9]

来自分类Dev

使用针对BigQueryTableInserter的addShutdownHook上的SecurityException引发具有App Engine错误的数据流作业

来自分类常见问题

错误0xc0202049:数据流任务1:无法插入只读列

来自分类Dev

SSIS自定义数据流组件-重定向错误行

来自分类Dev

在数据流中将BigQuery联合表读取为源会引发错误

来自分类Dev

TwinCAT3-使用Matlab从ADS数据流读取时的时间戳记值错误

来自分类Dev

VS 16.5.X错误“项目系统数据流DataflowBlockSlim”

来自分类Dev

数据流导出到Bigquery:insertAll错误,无效的表引用

来自分类Dev

io.c(605)处的rsync协议数据流(代码12)中的错误[Receiver = 3.0.9]

来自分类Dev

在SSIS数据流(VS2008 BIDS)中记录错误描述

来自分类Dev

如何添加额外的列以处理SSIS数据流中的错误消息?

来自分类Dev

Gstreamer 1.8.3 rtpbin和rtpjpegpayload引发内部数据流错误

来自分类Dev

Apache Ignite:与数据流有关的序列化错误

Related 相关文章

  1. 1

    数据流给查询带来错误

  2. 2

    GCP数据流与云功能

  3. 3

    数据流:使用BigQueryIO编写时发生SocketTimeoutException

  4. 4

    数据流作业在更新后保留旧的错误状态

  5. 5

    出现错误时跳过数据流组件

  6. 6

    Magento中的非特定数据流导入错误

  7. 7

    数据流作业模板创建错误了

  8. 8

    GCP数据流-处理JSON花费的时间太长

  9. 9

    Spring Cloud Dataflow与Apache Beam / GCP数据流说明

  10. 10

    如何自定义GCP数据流模板?

  11. 11

    创建用于多个 GCP 项目的数据流模板

  12. 12

    数据流任务的OLEDB源中的错误无效数据包版本

  13. 13

    数据框行迭代期间发生错误

  14. 14

    数据流错误管道中断错误和503服务不可用错误

  15. 15

    数据流错误-“ 500内部服务器错误”和“ 503服务不可用”

  16. 16

    在SSIS数据流(VS2008 BIDS)中记录错误描述

  17. 17

    io.c(605)处的rsync协议数据流(代码12)中的错误[Receiver = 3.0.9]

  18. 18

    使用针对BigQueryTableInserter的addShutdownHook上的SecurityException引发具有App Engine错误的数据流作业

  19. 19

    错误0xc0202049:数据流任务1:无法插入只读列

  20. 20

    SSIS自定义数据流组件-重定向错误行

  21. 21

    在数据流中将BigQuery联合表读取为源会引发错误

  22. 22

    TwinCAT3-使用Matlab从ADS数据流读取时的时间戳记值错误

  23. 23

    VS 16.5.X错误“项目系统数据流DataflowBlockSlim”

  24. 24

    数据流导出到Bigquery:insertAll错误,无效的表引用

  25. 25

    io.c(605)处的rsync协议数据流(代码12)中的错误[Receiver = 3.0.9]

  26. 26

    在SSIS数据流(VS2008 BIDS)中记录错误描述

  27. 27

    如何添加额外的列以处理SSIS数据流中的错误消息?

  28. 28

    Gstreamer 1.8.3 rtpbin和rtpjpegpayload引发内部数据流错误

  29. 29

    Apache Ignite:与数据流有关的序列化错误

热门标签

归档