小编SCo*_*uto的帖子

在 scala 中读取放置在我的 Linux 节点上的配置文件

我正在尝试使用 Scala 中的类型安全配置库读取配置文件,但无法将 conf 文件放入资源文件夹中。

我的property/config文件格式如下

region=dev
numlines=2
Run Code Online (Sandbox Code Playgroud)

文件的名称是property.txt

代码如下所示

import com.typesafe.config._
val propertyFile = args(2)

val myConfigFile = new File(propertyFile)

val fileConfig = ConfigFactory.parseFile(myConfigFile)
val config = ConfigFactory.load(fileConfig)

val environment = config.getString("region")
val numberOfLinesToBeRemoved = config.getInt("numlines")
Run Code Online (Sandbox Code Playgroud)

scala apache-spark

1
推荐指数
1
解决办法
2805
查看次数

Scala类型不匹配; 发现:需要Int(0):Int

我写了下面的包装类Int.

    case class Wrapper[Int](value: Int) {
        def map(f: Int => Int): Wrapper[Int] = Wrapper(f(value))
        def flatMap(f: Int => Wrapper[Int]): Wrapper[Int] = f(value)
        def filter(f: Int => Boolean): Wrapper[Int] = Wrapper(if(f(value)) 0 else value)
    }
Run Code Online (Sandbox Code Playgroud)

当我编译代码时,我得到以下错误 -

    type mismatch; 
    [error]  found   : Int(0)
    [error]  required: Int
    [error]     def filter(f: Int => Boolean): Wrapper[Int] = Wrapper(if (f(value)) 0 else value)
    [error]                                                                         ^
    [error] one error found
Run Code Online (Sandbox Code Playgroud)

我找不到任何明显的错误原因.任何想法如何解决这个问题.

scala

0
推荐指数
1
解决办法
189
查看次数

从 Azure 存储 Blob 中批量删除“x”天前的对象

我希望从天蓝色存储 blob 中删除早于“x”天的所有文件。我正在尝试以下代码但不起作用:

$StorageAccountName = '<name>'
$StorageAccountKey = '<key>'

$Ctx = New-AzureStorageContext -StorageAccountName $StorageAccountName -StorageAccountKey $StorageAccountKey
Get-AzureStorageBlob -Container "reports" -Context $Ctx -Blob *.csv
where {$_.LastModified -le (get-date).AddDays(-30) } | Remove-AzureStorageBlob
Run Code Online (Sandbox Code Playgroud)

我引用了以下文档,但查询不适用于条件删除。关联

powershell azure azure-blob-storage

0
推荐指数
1
解决办法
3927
查看次数

Azure 数据工厂中的 Parquet 文件名

我正在使用 Azure 数据工厂的复制活动将数据从 Oracle DB 复制到 ADLS。此副本的结果是一个 parquet 文件,其中包含与我复制的表相同的数据,但生成的 parquet 文件的名称如下所示:

data_32ecaf24-00fd-42d4-9bcb-8bb6780ae152_7742c97c-4a89-4133-93ea-af2eb7b7083f.parquet
Run Code Online (Sandbox Code Playgroud)

我需要这个名字像这样存储:

TableName-Timestamp.parquet

如何使用 Azure 数据工厂做到这一点?

另一个问题:有没有办法在写入此文件时添加层次结构?例如,我使用相同的管道来写入多个表,并且我想为每个表创建一个新文件夹。如果我为每个要写入的表创建一个新的数据集,我就可以做到这一点,但我想知道是否有办法自动执行此操作(使用动态内容)。

提前致谢。

parquet azure-data-factory

0
推荐指数
1
解决办法
2458
查看次数

Scala 简单函数返回类型不匹配错误

我有一个向量列表。每个向量以 的形式表示一个范围Vector(Double,Double)。我想创建一个函数,给定一个输入数字,找到它包含在哪个向量中并返回该向量的索引。我不知道是否有更简单的方法来做到这一点,我是 Scala 的新手,但我的代码如下:

val vectors = #List of vectors ( List[scala.collection.immutable.IndexedSeq[Double]] )

def in_range(start: Double, end: Double, x : Double): Boolean = {(x>= start && x<end)}

def find_index(x:Double): Int = {
    for(i <- 0 to n){
     if( in_range(vectors(i)(0),vectors(i)(1),x)){ 
        return i
     }
}
Run Code Online (Sandbox Code Playgroud)

我收到以下错误:

<console>:28: error: type mismatch;
 found   : Unit
 required: Int
        for(i <- 0 to 10){
              ^
Run Code Online (Sandbox Code Playgroud)

scala

0
推荐指数
1
解决办法
52
查看次数

无法在 ubuntu 中启动 Spark-standalone

在本地计算机上独立启动 spark 时遇到问题。我正在遵循手册,这非常简单,但我仍然缺少一些东西

当我运行 start-master.sh 时,它显示以下错误:

couto@ubuntu:~/Downloads/spark-1.6.2-bin-hadoop2.4/sbin$ sh start-master.sh 
start-master.sh: 31: start-master.sh: [[: not found
start-master.sh: 31: start-master.sh: [[: not found
start-master.sh: 45: start-master.sh: 0: not found
start-master.sh: 52: /home/couto/Downloads/spark-1.6.2-bin-hadoop2.4/bin/load-spark-env.sh: [[: not found
starting org.apache.spark.deploy.master.Master, logging to /home/couto/Downloads/spark-1.6.2-bin-hadoop2.4/logs/spark-couto-org.apache.spark.deploy.master.Master-1-ubuntu.out
start-master.sh: 78: [: false: unexpected operator
Run Code Online (Sandbox Code Playgroud)

尽管如此,主人似乎运行正确:

在此处输入图片说明

但是,一旦我尝试启动从站,它就会显示以下错误,并且 spark 控制台中不包含从站。

couto@ubuntu:~/Downloads/spark-1.6.2-bin-hadoop2.4/sbin$ sh start-slave.sh spark://localhost:7077
start-slave.sh: 42: start-slave.sh: [[: not found
start-slave.sh: 42: start-slave.sh: [[: not found
start-slave.sh: 42: start-slave.sh: [[: not found
start-slave.sh: 52: /home/couto/Downloads/spark-1.6.2-bin-hadoop2.4/bin/load-spark-env.sh: [[: not found
start-slave.sh: 68: …
Run Code Online (Sandbox Code Playgroud)

apache-spark

-1
推荐指数
1
解决办法
6462
查看次数