此外还需要注意 ODPS 入口对象参数位置是否填写正确。

如何手动指定 Tunnel Endpoint

可以使用下面的方法创建带有 Tunnel Endpoint 的 ODPS 入口(参数值请自行替换,不包含星号):

import os
from odps import ODPS
# 保证 ALIBABA_CLOUD_ACCESS_KEY_ID 环境变量设置为用户 Access Key ID,
# ALIBABA_CLOUD_ACCESS_KEY_SECRET 环境变量设置为用户 Access Key Secret,
# 不建议直接使用 Access Key ID / Access Key Secret 字符串
o = ODPS(
    os.getenv('ALIBABA_CLOUD_ACCESS_KEY_ID'),
    os.getenv('ALIBABA_CLOUD_ACCESS_KEY_SECRET'),
    project='**your-project**',
    endpoint='**your-endpoint**',
    tunnel_endpoint='**your-tunnel-endpoint**',

怎么配置 SQL / DataFrame 的执行选项?

ODPS SQL 的执行选项可在 这里 找到。设置时,可将该选项设置到 options.sql.settings,即

from odps import options
# 将 <option_name> 和 <option_value> 替换为选项名和选项值
options.sql.settings = {'<option_name>': '<option_value>'}

也可在每次调用执行时即席配置,该配置中的配置项会覆盖全局配置。

  • 当使用 odps.execute_sql 时,可以使用

    from odps import options
    # 将 <option_name> 和 <option_value> 替换为选项名和选项值
    o.execute_sql('<sql_statement>', hints={'<option_name>': '<option_value>'})
    
  • 当使用 dataframe.executedataframe.persist 时,可以使用

    from odps import options
    # 将 <option_name> 和 <option_value> 替换为选项名和选项值
    df.persist('<table_name>', hints={'<option_name>': '<option_value>'})
    
  • 改用 o.execute_sql('select * from <table_name>').open_reader()

  • 改用 DataFrameo.get_table('<table_name>').to_df()

  • 出现 ImportError,并且在 ipython 或者 jupyter 下使用

    如果 from odps import errors 也不行,则是缺少 ipython 组件,执行 pip install -U jupyter 解决。

    执行 SQL 通过 open_reader 只能取到最多1万条记录,如何取多余1万条?

    使用 create table as select ... 把SQL的结果保存成表,再使用 table.open_reader 来读取。

    上传 pandas DataFrame 到 ODPS 时报错:ODPSError: ODPS entrance should be provided

    原因是没有找到全局的ODPS入口,有三个方法:

  • 使用 room 机制%enter 的时候,会配置全局入口

  • 对odps入口调用 to_global 方法

  • 使用odps参数,DataFrame(pd_df).persist('your_table', odps=odps)

  • 在 DataFrame 中如何使用 max_pt ?

    使用 odps.df.func 模块来调用 ODPS 内建函数

    from odps.df import func
    df = o.get_table('your_table').to_df()
    df[df.ds == func.max_pt('your_project.your_table')]  # ds 是分区字段
    

    通过 DataFrame 写表时报 table lifecycle is not specified in mandatory mode

    Project 要求对每张表设置 lifecycle,因而需要在每次执行时设置

    from odps import options
    options.lifecycle = 7  # 或者你期望的 lifecycle 整数值,单位为天
    

    执行 SQL 时报 Please add put { “odps.sql.submit.mode” : “script”} for multi-statement query in settings

    请参考 SQL设置运行参数

    如何遍历 PyODPS DataFrame 中的每行数据

    PyODPS DataFrame 不支持遍历每行数据。这样设计的原因是由于 PyODPS DataFrame 面向大规模数据设计,在这种场景下, 数据遍历是非常低效的做法。我们建议使用 DataFrame 提供的 applymap_reduce 接口将原本串行的遍历操作并行化, 具体可参见 这篇文章 。如果确认你的场景必须要使用数据遍历, 而且遍历的代价可以接受,可以使用 to_pandas 方法将 DataFrame 转换为 Pandas DataFrame,或者将 DataFrame 存储为表后使用 read_table 或者 Tunnel 读取数据。

    为何调用 to_pandas 后内存使用显著大于表的大小?

    有两个原因可能导致这个现象发生。首先,MaxCompute 在存储数据时会对数据进行压缩,你看到的表大小应当是压缩后的大小。 其次,Python 中的值存在额外的存储开销。例如,对于字符串类型而言,每个 Python 字符串都会额外占用近 40 字节空间, 即便该字符串为空串,这可以通过调用 sys.getsizeof("") 发现。

    需要注意的是,使用 Pandas 的 info 或者 memory_usage 方法获得的 Pandas DataFrame 内存使用可能是不准确的,因为这些方法默认不计算 string 或者其他 object 类型对象的实际内存占用。使用 df.memory_usage(deep=True).sum() 获得的大小更接近实际内存使用,具体可参考 这篇 Pandas 文档

    为减小读取数据时的内存开销,可以考虑使用 Arrow 格式,具体可以参考 这里

  •