在本地运行时,我的 Jupyter notebook 能够像这样引用 Google BigQuery:
%%bigquery some_bq_table
SELECT *
FROM
`some_bq_dataset.some_bq_table`
因此,稍后在我的笔记本中,我可以将 some_bq_table 引用为 Pandas 数据框,如下所示:https ://cloud.google.com/bigquery/docs/visualize-jupyter
我想在 AWS SageMaker 上运行我的笔记本来测试一些东西。要使用 BigQuery 进行身份验证,似乎只有两种方法是使用 GCP(或本地)上的服务帐户或使用 env var 将 SDK 指向凭证 JSON(如此处所述:https : //cloud.google.com/文档/身份验证/入门)。
例如
export GOOGLE_APPLICATION_CREDENTIALS="/home/user/Downloads/[FILE_NAME].json"
是否有一种简单的方法可以从 SageMaker 连接到 bigquery?我现在最好的想法是从某处下载 JSON 到 SageMaker 实例,然后从 python 代码设置环境变量。
例如,我会这样做:
os.environ["GOOGLE_APPLICATION_CREDENTIALS"] = "/home/user/Downloads/[FILE_NAME].json"
但是,这不是很安全 - 我不喜欢将我的凭据 JSON 下载到 SageMaker 实例的想法(这意味着我必须将凭据上传到某个私有 s3 存储桶,然后将它们存储在 SageMaker 实例上)。不是世界末日,但我宁愿避免这种情况。
有任何想法吗?
慕妹3146593
相关分类