小编Ati*_*ska的帖子

Azure Windows门户:无法保存图像以创建VHD

我正在尝试在Azure市场上发布我的产品.

我正在使用我用来创建VM的Windows 2012 R2 Datacenter portal.azure.com.我按照运行sysprep,概括它然后创建容器的步骤.

在那之后,当我们运行save-azurermvmimage捕获图像时,我得到the capture action is only supported on a virtual machine with blob based disks. please use the image resource apis to create an image from a managed virtual machine 所以我无法在容器中获取图像URL.有什么我做错了吗?请指导!

powershell publish azure-storage azure-marketplace azure-management-portal

3
推荐指数
1
解决办法
1296
查看次数

使用 Google Drive V3 API 和服务帐户身份验证,WebViewLink 为空

我正在使用 google drive v3 api 上传文件,然后使用响应中的 web 视图链接在浏览器中预览它。但是网络视图链接即将变为空。当我使用 v2 时,我可以使用备用链接来完成。

我没有设置父引用,所以我假设根据文档,该文件存储在我的服务帐户的驱动器文件夹(根)中。由于我无法登录服务帐户,所以我与我现有的测试 gmail 帐户共享了该文件并共享了该文件。

我的问题是如何在浏览器中使用打开文件 System.Diagnostics.Process.Start(newFile.WebViewLink);

这是我的代码:

{
File fileInGoogleDrive = Utils.uploadToDrive(service, pathOfTheFileToBeUploaded, "root");

            Permission toShare = new Permission();
            toShare.EmailAddress = "xyz@gmail.com";
            toShare.Type = "user";
            toShare.Role = "reader";

            PermissionsResource.CreateRequest createRequest = service.Permissions.Create(toShare, fileInGoogleDrive.Id);
            createRequest.Execute();

            return fileInGoogleDrive.WebViewLink; //THIS IS NULL 
}
Run Code Online (Sandbox Code Playgroud)

这是上传代码:

public static File uploadToDrive(DriveService _service, string _uploadFile, string _parent = "root")
        {            

            if (!String.IsNullOrEmpty(_uploadFile))
            {     

            File fileMetadata = new File();
            fileMetadata.Name = System.IO.Path.GetFileName(_uploadFile);
            fileMetadata.MimeType = GetMimeType(_uploadFile);                    
            //fileMetadata.Parents = new List<FilesResource>() …
Run Code Online (Sandbox Code Playgroud)

.net c# google-drive-api service-accounts

2
推荐指数
1
解决办法
3195
查看次数

将集合转换为列表时出现参数错误

我有一个我想转换为列表的集合,但我得到了 Error in argument: u'(different_aois)'

ipdb> l = list(different_aois)
*** Error in argument: u'= list(different_aois)'
ipdb> type(different_aois)
<type 'set'>
ipdb> list(different_aois)
*** Error in argument: u'(different_aois)'
Run Code Online (Sandbox Code Playgroud)

python list set

2
推荐指数
1
解决办法
1145
查看次数

AWS产品API:什么是我们West 2的正确区域位置和URL

我正在使用boto3定价客户端来获得按需定价,因为boto3 ec2客户端没有按需定价,而是现货定价。

这给了我错误的说法Could not connect to the endpoint URL: "https://api.pricing.us-west-2.amazonaws.com/

以下是我们西2的正确区域名称或位置值是多少。我检查了这些区域,这是正确的区域。定价API是否不在俄勒冈州地区?

        pricing = boto3.client('pricing', region_name='us-west-2')
        response = pricing.get_products(
        ServiceCode='AmazonEC2',
        Filters=[
            {'Type': 'TERM_MATCH', 'Field': 'operatingSystem', 'Value': 'Linux'},
            {'Type':'TERM_MATCH', 'Field': 'location', 'Value': 'US West (Oregon)'}

        ],
        MaxResults=20
    )

    for price in response['PriceList']:
        resp = json.loads(price)
        on_demand = resp['terms']['OnDemand']
        print len(on_demand)
        print(on_demand)
Run Code Online (Sandbox Code Playgroud)

python amazon-ec2 ondemand amazon-product-api boto3

1
推荐指数
1
解决办法
151
查看次数

这个日期“2021-08-03T04:10:07.502-0700”是什么日期格式?

我遇到了时区为的日期格式,GMT但我不明白上述日期中微秒后的连字符部分是什么,以及解析两种方式的格式是什么?

因此,对于这个日期(不带连字符):,"2021-08-03T04:10:07.502"格式为YYYY-MM-dd'T'HH:mm:ss.SS

Q1:对于这个日期(带连字符):"2021-08-03T04:10:07.502-0700",格式为: ??

Q2:连字符是时区的一部分GMT吗?

Q3:如果日期是微秒后的连字符形式,如何添加X位数来寻址?

预期的Java代码:

String dateFormatWithHyphen = "?"; // replace ? with that format
DateFormat dateFormat = new SimpleDateFormat(dateFormatWithHyphen);
dateFormat.setTimeZone(TimeZone.getTimeZone("GMT"));
return dateFormat;
Run Code Online (Sandbox Code Playgroud)

java datetime date

1
推荐指数
1
解决办法
430
查看次数

线程“main”中出现异常 java.lang.NoClassDefFoundError: org/apache/hadoop/fs/StreamCapability。不存在版本问题

我正在尝试将数据从 aws s3 读取到 Java 中的 dataset/rdd 中。我在 IntelliJ 上运行 Java 中的 Spark 代码,因此也在 pom.xml 中添加了 Hadoop 依赖项

下面是我的代码和 pom.xml 文件。

    import org.apache.spark.api.java.JavaRDD;
    import org.apache.spark.sql.SparkSession;
    import org.apache.spark.api.java.JavaSparkContext;

    public class SparkJava {

        public static void main(String[] args){

            SparkSession spark  = SparkSession
                    .builder()
                    .master("local")
                    .config("spark.hadoop.fs.s3a.impl","org.apache.hadoop.fs.s3a.S3AFileSystem")                  
                    .config("spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version", "2")
                    .config("fs.s3n.awsAccessKeyId", AWS_KEY)
                    .config("fs.s3n.awsSecretAccessKey", AWS_SECRET_KEY)
                    .getOrCreate();

            JavaSparkContext sc = new JavaSparkContext(spark.sparkContext());
            String input_path = "s3a://bucket/2018/07/28";
            JavaRDD<String> s3aRdd = sc.textFile(input_path);
            long count  = s3aRdd.count();  // THIS IS CAUSING EXCEPTION
            System.out.print(count);
            System.out.print("Finished");         
        }
    }
Run Code Online (Sandbox Code Playgroud)

以下是 pom.xml 的依赖项

<dependencies> …
Run Code Online (Sandbox Code Playgroud)

java hadoop amazon-s3 apache-spark

-1
推荐指数
1
解决办法
5036
查看次数