我试图创建一个简单的JobScheduler作业,看看它是如何工作的.但我一直在运行时遇到这个异常,我无法弄明白,因为我一步一步地按照指南.
这是我的电话:
ComponentName componentName = new ComponentName(getApplicationContext(), TestService.class);
JobInfo jobInfo = new JobInfo.Builder(1, componentName).setPeriodic(300000)
.setRequiredNetworkType(JobInfo.NETWORK_TYPE_ANY).build();
JobScheduler tm =
(JobScheduler) getApplicationContext().getSystemService(Context.JOB_SCHEDULER_SERVICE);
tm.schedule(jobInfo);
Run Code Online (Sandbox Code Playgroud)
TestService不执行任何操作,然后扩展JobService.
我正在尝试运行在本地计算机上运行的PySpark脚本,该脚本可以正常运行。问题是我想从S3提取输入文件。
无论我尝试什么,尽管我似乎都找不到在哪里设置ID和密码。我找到了一些有关特定文件的答案,例如:通过Spark在本地读取S3文件(或更好的是:pyspark), 但是我想在整个代码中重用sql上下文时,为整个SparkContext设置凭据。
所以问题是:如何设置AWS Access密钥和机密来激发?
PS我尝试了$ SPARK_HOME / conf / hdfs-site.xml和环境变量选项。都没用...
谢谢