我对 Azure 数据湖存储与 HDFS 的不同之处感到困惑。有人可以用简单的术语解释一下吗?
我正在将 Azure Blob 存储升级到 DataLake Gen 2。我已经在 ADF 中创建了一些管道,其中存在启用了日志记录的删除活动,并且我已经为记录的文件提供了 Blob 容器的路径。
现在,当我尝试升级到 DataLake Gen 2 时,验证失败,提示“不兼容的功能软删除”。我在 ADF 管道中禁用了“启用日志记录”,删除了 blob 文件夹的路径,并从 blob 存储中删除了该文件夹。但是我仍然收到此验证失败的消息。
Azure Data Lake Store的一致性保证是什么?有没有人找到描述它的技术文档?
我特别感兴趣的是目录移动是否是原子的,目录列表是否一致,以及文件是否是写后读一致的.
刚刚完成MVA"Azure流分析实践"课程之一.但不知怎的,它不清楚这个概念,事件中心如何存储数据或者它存储数据的位置,无论是BLOB Store还是Data lake,或者我们可以改变这种类型的商店.