我正在尝试在Azure市场上发布我的产品.
我正在使用我用来创建VM的Windows 2012 R2 Datacenter portal.azure.com.我按照运行sysprep,概括它然后创建容器的步骤.
在那之后,当我们运行save-azurermvmimage捕获图像时,我得到the capture action is only supported on a virtual machine with blob based disks. please use the image resource apis to create an image from a managed virtual machine
所以我无法在容器中获取图像URL.有什么我做错了吗?请指导!
powershell publish azure-storage azure-marketplace azure-management-portal
我正在使用 google drive v3 api 上传文件,然后使用响应中的 web 视图链接在浏览器中预览它。但是网络视图链接即将变为空。当我使用 v2 时,我可以使用备用链接来完成。
我没有设置父引用,所以我假设根据文档,该文件存储在我的服务帐户的驱动器文件夹(根)中。由于我无法登录服务帐户,所以我与我现有的测试 gmail 帐户共享了该文件并共享了该文件。
我的问题是如何在浏览器中使用打开文件 System.Diagnostics.Process.Start(newFile.WebViewLink);
这是我的代码:
{
File fileInGoogleDrive = Utils.uploadToDrive(service, pathOfTheFileToBeUploaded, "root");
Permission toShare = new Permission();
toShare.EmailAddress = "xyz@gmail.com";
toShare.Type = "user";
toShare.Role = "reader";
PermissionsResource.CreateRequest createRequest = service.Permissions.Create(toShare, fileInGoogleDrive.Id);
createRequest.Execute();
return fileInGoogleDrive.WebViewLink; //THIS IS NULL
}
Run Code Online (Sandbox Code Playgroud)
这是上传代码:
public static File uploadToDrive(DriveService _service, string _uploadFile, string _parent = "root")
{
if (!String.IsNullOrEmpty(_uploadFile))
{
File fileMetadata = new File();
fileMetadata.Name = System.IO.Path.GetFileName(_uploadFile);
fileMetadata.MimeType = GetMimeType(_uploadFile);
//fileMetadata.Parents = new List<FilesResource>() …Run Code Online (Sandbox Code Playgroud) 我有一个我想转换为列表的集合,但我得到了 Error in argument: u'(different_aois)'
ipdb> l = list(different_aois)
*** Error in argument: u'= list(different_aois)'
ipdb> type(different_aois)
<type 'set'>
ipdb> list(different_aois)
*** Error in argument: u'(different_aois)'
Run Code Online (Sandbox Code Playgroud) 我正在使用boto3定价客户端来获得按需定价,因为boto3 ec2客户端没有按需定价,而是现货定价。
这给了我错误的说法Could not connect to the endpoint URL: "https://api.pricing.us-west-2.amazonaws.com/。
以下是我们西2的正确区域名称或位置值是多少。我检查了这些区域,这是正确的区域。定价API是否不在俄勒冈州地区?
pricing = boto3.client('pricing', region_name='us-west-2')
response = pricing.get_products(
ServiceCode='AmazonEC2',
Filters=[
{'Type': 'TERM_MATCH', 'Field': 'operatingSystem', 'Value': 'Linux'},
{'Type':'TERM_MATCH', 'Field': 'location', 'Value': 'US West (Oregon)'}
],
MaxResults=20
)
for price in response['PriceList']:
resp = json.loads(price)
on_demand = resp['terms']['OnDemand']
print len(on_demand)
print(on_demand)
Run Code Online (Sandbox Code Playgroud) 我遇到了时区为的日期格式,GMT但我不明白上述日期中微秒后的连字符部分是什么,以及解析两种方式的格式是什么?
因此,对于这个日期(不带连字符):,"2021-08-03T04:10:07.502"格式为YYYY-MM-dd'T'HH:mm:ss.SS
Q1:对于这个日期(带连字符):"2021-08-03T04:10:07.502-0700",格式为: ??
Q2:连字符是时区的一部分GMT吗?
Q3:如果日期是微秒后的连字符形式,如何添加X位数来寻址?
预期的Java代码:
String dateFormatWithHyphen = "?"; // replace ? with that format
DateFormat dateFormat = new SimpleDateFormat(dateFormatWithHyphen);
dateFormat.setTimeZone(TimeZone.getTimeZone("GMT"));
return dateFormat;
Run Code Online (Sandbox Code Playgroud) 我正在尝试将数据从 aws s3 读取到 Java 中的 dataset/rdd 中。我在 IntelliJ 上运行 Java 中的 Spark 代码,因此也在 pom.xml 中添加了 Hadoop 依赖项
下面是我的代码和 pom.xml 文件。
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.sql.SparkSession;
import org.apache.spark.api.java.JavaSparkContext;
public class SparkJava {
public static void main(String[] args){
SparkSession spark = SparkSession
.builder()
.master("local")
.config("spark.hadoop.fs.s3a.impl","org.apache.hadoop.fs.s3a.S3AFileSystem")
.config("spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version", "2")
.config("fs.s3n.awsAccessKeyId", AWS_KEY)
.config("fs.s3n.awsSecretAccessKey", AWS_SECRET_KEY)
.getOrCreate();
JavaSparkContext sc = new JavaSparkContext(spark.sparkContext());
String input_path = "s3a://bucket/2018/07/28";
JavaRDD<String> s3aRdd = sc.textFile(input_path);
long count = s3aRdd.count(); // THIS IS CAUSING EXCEPTION
System.out.print(count);
System.out.print("Finished");
}
}
Run Code Online (Sandbox Code Playgroud)
以下是 pom.xml 的依赖项
<dependencies> …Run Code Online (Sandbox Code Playgroud)