重现步骤:
我首先在管道中创建了一个复制数据,以将 CSV 文件从 Azure VM 简单传输到 Azure Blob 存储。我始终使用 IRPOC1 作为通过集成运行时的连接,并使用 SAS URI 和 SAS 令牌连接到我的 Blob 存储
验证并运行第一个复制数据后,我成功将 CSV 文件从虚拟机传输到 Blob 存储
我尝试在“复制数据”活动之后添加新的数据流
在我的数据流中,我的源是包含从虚拟机传输的 CSV 文件的 Blob 存储,我的接收器是连接成功的 Azure SQL 数据库
但是,当我运行验证时,我在数据流源上收到错误消息:
数据流不支持具有自承载集成运行时的链接服务。
我看到有人在 Microsoft Azure Document issues Github 上回复说我需要先使用 Copy Data 将数据传输到 Blob。然后使用来自该 blob 的数据源。这就是我所做的,但我仍然有同样的错误。您能让我知道如何解决这个问题吗?
我正在尝试使用此 github 中找到的 BlobServiceClient 库中的 ls_files 函数(https://github.com/Azure/azure-sdk-for-python/blob/master/sdk/storage/azure-storage-blob/samples/ blob_samples_directory_interface.py)。但是,当我运行代码时,出现错误:
“BlobServiceClient”对象没有属性“ls_files”
这是我的代码:
import os, uuid, sys
from azure.storage.blob import BlobClient, BlobServiceClient, ContainerClient, PublicAccess, __version__
from azure.storage.blob.blockblobservice import BlockBlobService
import re
account_name = ACCOUNT_NAME
account_key = ACCOUNT_KEY
connect_str = CONNECTION_STRING
account_url = ACCOUNT_URL
container_name = CONTAINER_NAME
file_path = FILE_PATH
block_blob_service = BlockBlobService(account_name = account_name, account_key = account_key)
blob_service_client = BlobServiceClient(account_url = account_url, connect_str = connect_str, container_name = container_name)
def list_filenames_in_blob(blob):
file_names = blob_service_client.ls_files(file_path)
return file_names
def run_action():
try:
for blob in …Run Code Online (Sandbox Code Playgroud)