小编al-*_*ann的帖子

Firebase Analytics 事件记录的唯一标识

连接到 BigQuery 的 Firebase Analytics 和 BQ 表架构如下所述:

https://support.google.com/firebase/answer/7029846

我想了解如何唯一标识每个事件记录。

最初我认为一个组合

user_pseudo_idevent_timestamp

就是要独一无二。但我发现它并不独特......

我在“group by”子句中添加了:event_dateevent_nameevent_previous_timestampstream_id等,但没有任何帮助。

有人可以告诉我,这个事件记录有何独特之处吗?

firebase google-bigquery google-cloud-platform firebase-analytics

6
推荐指数
1
解决办法
2755
查看次数

用于从 SFTP 服务器进行无服务器日志提取(文件下载)的 Google Cloud Platform 解决方案

今天有一个问题,在我输入答案时被删除了(don\xe2\x80\x99不知道为什么)。由于答案很长,我决定复制/重新创建它并无论如何提供我的答案。也许这对某人有用。

\n
\n

这是原来的问题:

\n

我们有一个 SFTP 服务器,其中转储 Apache、Nginx、Wordpress 日志。我们希望将这些日志备份到 Cloud Storage,同时解析这些日志的内容并插入 BigQuery 表中。我通常使用 Cloud Functions(NodeJS 或 Python),我首先想到的是云函数作为首选解决方案。

\n

但是,Cloud Function 有一个触发器,如果​​我的目标是让程序持续监视/观察/侦听 SFTP 文件夹中的新文件,则该触发器没有意义。如果我的要求不太严格,我可以按计划触发它,比如每小时触发它来读取 SFTP 文件夹中的新文件。当新文件转储到 Cloud Storage 时,Cloud Functions 也会起作用,触发该函数解析日志文件并将其插入 BigQuery。

\n

如果我坚持持续侦听 SFTP 文件夹的要求,您能否建议一个更好的设计解决方案以及我需要组合哪些 GCP 服务(除了 Cloud Storage 和 BigQuery)才能实现这一目标?

\n

如果要求不太严格,我的解决方案是否足够好?\nP.S. 我刚刚发现 SFTP 凭据具有只读权限。所以通过添加后缀来重命名文件是没有问题的。我应该使用像 MemoryStore 这样的缓存来记住哪些文件已完成吗?

\n

sftp google-cloud-storage google-cloud-platform google-cloud-functions google-cloud-firestore

2
推荐指数
1
解决办法
999
查看次数