Asp.Net Azure Cloud - 获取文件大小需要很长时间

Rey*_*gle 5 .net c# cloud azure

我想获得父文件夹下可用的各种子文件夹下所有文件的大小总和。

我得到了大小,但计算结果大约需要 15 秒。

这是代码:

var storageAccount = CloudStorageAccount.Parse("connectionString");
var fileClient = storageAccount.CreateCloudFileClient();
var cloudFileShare = fileClient.GetShareReference("shareName");
var rootDirectory = cloudFileShare.GetRootDirectoryReference();
var directory = rootDirectory.GetDirectoryReference("folderName");

var size = directory.ListFilesAndDirectories().Select(x => (CloudFileDirectory)x).SelectMany(x => x.ListFilesAndDirectories()).Sum(x => ((CloudFile)x).Properties.Length);
Run Code Online (Sandbox Code Playgroud)

我可以进一步优化它以快速获得尺寸吗?

编辑1:

测试:

  • 场景 1:包含更多或更少文件的更多文件夹
  • 场景 2:文件夹更少,文件更多或更少

发现:

  • 无论文件数量如何(可能更多或更少),当文件夹数更多时需要很长时间
  • 当文件夹数量较少时,它工作正常,而不管文件数量(可能更多或更少)

Roa*_*ner 0

检查您的 LINQ 查询:

var size = directory
           .ListFilesAndDirectories()
           .Select(x => (CloudFileDirectory)x)
           .SelectMany(x => x.ListFilesAndDirectories())
           .Sum(x => ((CloudFile)x).Properties.Length);
Run Code Online (Sandbox Code Playgroud)

我可以看到一些初步的问题。首先,这假设根目录内的第一层仅存在目录。这可以从铸造中看出(CloudFileDirectory)xCloudFile如果找到a,这将引发异常。可扩展的解决方案应该处理这两种类型的文件。其次,此查询还假设每个子目录中仅存在文件,因此进行(CloudFile)x转换。这意味着这只会深入子目录的一层,并且不会递归任何子目录。如果找到任何子目录,这也会引发异常。我在下面概述了一些更具可扩展性的方法。

解决方案一:

使用CloudFileDirectory.ListFilesAndDirectories(),将所有文件组合成一个IEnumerable<IListFileItem>. 如果找到文件,则递归遍历每个项目并总结找到的 btyes;如果找到目录,则递归。

public static void FileShareByteCount(CloudFileDirectory directory, ref long bytesCount)
{
    if (directory == null)
    {
        throw new ArgumentNullException("directory", "Directory cannot be null");
    }

    var files = directory.ListFilesAndDirectories();

    foreach (var item in files)
    {
        if (item.GetType() == typeof(CloudFileDirectory))
        {
            var cloudFileDirectory = item as CloudFileDirectory;
            FileShareByteCount(cloudFileDirectory, ref bytesCount);
        }
        else if (item.GetType() == typeof(CloudFile))
        {
            var cloudFile = item as CloudFile;
            bytesCount += cloudFile.Properties.Length;
        }
    }
}
Run Code Online (Sandbox Code Playgroud)

用法一:

long bytesCount = 0;
FileShareByteCount(sampleDir, ref bytesCount);
Console.WriteLine($"Current file share usage: {bytesCount}");
Run Code Online (Sandbox Code Playgroud)

解决方案2:

使用 批量浏览文件共享CloudFileDirectory.ListFilesAndDirectoriesSegmented(),这允许您指定每个段要返回的文件数IEnumerable<IListFileItem>。与上面相同,如果找到文件,则递归遍历每一项并对找到的 btyes 求和;如果找到目录,则递归。

public static void FileShareByteCount(CloudFileDirectory directory, int? maxResults, ref long bytesCount)
{
    if (directory == null)
    {
        throw new ArgumentNullException("directory", "Directory cannot be null");
    }

    FileContinuationToken continuationToken = null;

    do
    {
        var resultSegment = directory.ListFilesAndDirectoriesSegmented(maxResults, continuationToken, null, null);

        var results = resultSegment.Results;

        if (results.Count() > 0)
        {
            foreach (var item in results)
            {
                if (item.GetType() == typeof(CloudFileDirectory))
                {
                    var cloudFileDirectory = item as CloudFileDirectory;
                    FileShareByteCount(cloudFileDirectory, maxResults, ref bytesCount);
                }
                else if (item.GetType() == typeof(CloudFile))
                {
                    var cloudFile = item as CloudFile;
                    bytesCount += cloudFile.Properties.Length;
                }
            }
        }

        continuationToken = resultSegment.ContinuationToken;

    } while (continuationToken != null);
}
Run Code Online (Sandbox Code Playgroud)

用法2:

long bytesCount = 0;
FileShareByteCount(directory, 100, ref bytesCount);
Console.WriteLine($"Current file share usage: {bytesCount}");
Run Code Online (Sandbox Code Playgroud)

注意:您可以使用 指定段的最大大小maxResults。微软文档指出:

一个非负整数值,指示一次要返回的最大结果数,每次操作的上限为 5000。如果该值为 null,则将返回可能的最大结果数,最多为 5000。