小编Al *_*sen的帖子

导入错误:无法为使用 opencv 的超分辨率 Python 示例导入名称“dnn_superres”

我正在尝试从以下网站运行一个放大图像的示例:https : //towardsdatascience.com/deep-learning-based-super-resolution-with-opencv-4fd736678066

这是我正在使用的代码:

import cv2
from cv2 import dnn_superres

# Create an SR object
sr = dnn_superres.DnnSuperResImpl_create()

# Read image
image = cv2.imread('butterfly.png')

# Read the desired model
path = "EDSR_x3.pb"
sr.readModel(path)

# Set the desired model and scale to get correct pre- and post-processing
sr.setModel("edsr", 3)

# Upscale the image
result = sr.upsample(image)

# Save the image
cv2.imwrite("./upscaled.png", result)
Run Code Online (Sandbox Code Playgroud)

我已经从网站上下载了已经训练好的模型,名为“EDSR_x3.pb”,当我运行代码时,出现以下错误:

Traceback (most recent call last):
  File "upscale.py", line 2, in <module>
    from cv2 import dnn_superres
ImportError: cannot …
Run Code Online (Sandbox Code Playgroud)

python opencv neural-network opencv-contrib

8
推荐指数
4
解决办法
5753
查看次数

如何基于大文本提取字符n-gram

给定一个大文本文件,我想使用 Apache Spark 提取字符 n-gram(并行执行任务)。

示例输入(2 行文本):第 1 行:(Hello World,它)第 2 行:(美好的一天)

输出n-grams: Hel - ell -llo -lo_ - o_W - _Wo - Wor - orl - rld - ld, - d,_ - ,_i - _it - it_ - t_i - _is - ...等等。所以我希望返回值是一个 RDD[String],每个字符串都包含 n-gram。

请注意,新行被视为输出 n-gram 中的空白。为了清楚起见,我将每一行都放在括号中。另外,要清楚字符串或文本不是 RDD 中的单个条目。我使用 sc.textFile() 方法读取文件。

scala apache-spark

5
推荐指数
1
解决办法
2111
查看次数

在 Spark GraphX 中寻找最大边权重

假设我有一个边属性双值的图,我想找到我的图的最大边权重。如果我这样做:

val max = sc.accumulator(0.0) //max holds the maximum edge weight
g.edges.distinct.collect.foreach{ e => if (e.attr > max.value) max.value
= e.attr }
Run Code Online (Sandbox Code Playgroud)

我想问一下在master上做了多少工作,在executors上做了多少,因为我知道collect()方法把整个RDD带到了master上?是否发生并行?有没有更好的方法来找到最大边缘权重?

笔记:

g.edges.distinct.foreach{ e => if (e.attr > max.value) max.value =
e.attr } // does not work without the collect() method.
//I use an accumulator because I want to use the max edge weight later
Run Code Online (Sandbox Code Playgroud)

如果我想对两个图之间具有相同 srcId 和 dstId 的边的属性应用一些平均函数,最好的方法是什么?

scala apache-spark spark-graphx

4
推荐指数
1
解决办法
682
查看次数

Flink Streaming - 在Windows中应用功能

我也是flink和流媒体的新手.我想为每个分区应用一个特定的功能到流的每个窗口(使用事件时间).到目前为止我所做的是:

val env = StreamExecutionEnvironment.getExecutionEnvironment
env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime)

val inputStream = env.readTextFile("dataset.txt")
      .map(transformStream(_))
      .assignAscendingTimestamps(_.eventTime)
      .keyBy(_.id)
      .timeWindow(Time.seconds(windowSize),Time.seconds(slidingStep))

def transformStream(input: String): EventStream = {...}

case class EventStream(val eventTime: Long, val id: String, actualEvent: String)
Run Code Online (Sandbox Code Playgroud)

我想要做的是对每个窗口批处理的每个分区应用一般函数,可能应用复杂的处理算法或类似的东西.我已经看到该方法适用于DataStream API,但我不明白它是如何工作的.在Flink API中,它表示它在Scala中的使用方式如下:

inputStream.apply { WindowFunction }
Run Code Online (Sandbox Code Playgroud)

有人可以解释一下apply方法的用途或使用方法吗?Scala中的一个例子是可取的.apply方法是否符合我的要求?

java scala apache-flink flink-streaming

4
推荐指数
1
解决办法
2908
查看次数

代码点火器 - 使用where和like的MySQL查询

我已经搜索过每一个答案,但没有描述我想要的东西,或者我没有理解它们.所以这就是我的问题.我想要一个像这样的"复杂"查询:

select * from MyTable
where PropertyA='$propertyValue'
and (id like '%$someValue%' or name like '%$someValue%' or description like '%$someValue%') 
order by id desc limit 10 offset $offsetValue
Run Code Online (Sandbox Code Playgroud)

如何在代码点火器中编写此查询?$propertyValue, $someValue, $offsetValue都是php变量.当然我需要避免sql注入.我也在phpmyadmin测试了这个,我的查询工作正常.

php mysql codeigniter

3
推荐指数
1
解决办法
613
查看次数

Apache Flink - org.apache.flink.client.program.ProgramInvocationException

我使用Scala 2.11.7使用Apache FLink 1.0.3创建了一个应用程序,我想在本地测试它(单个jvm).所以我按照网站上的说明做了以下事情:

./bin/start-local.sh
tail log/flink-*-jobmanager-*.log
Run Code Online (Sandbox Code Playgroud)

它开始很好,我可以在localhost:8081看到web界面.然后,我尝试提交我的应用程序,但我得到一个例外或一个奇怪的消息.例如,当我键入以下任一命令时:

./bin/flink run ./myApp.jar
./bin/flink run ./myApp.jar -c MyMain
./bin/flink run ./myApp.jar -c myMain.class
./bin/flink run ./myApp.jar -c myMain.scala
./bin/flink run ./myApp.jar -c my.package.myMain
./bin/flink run ./myApp.jar -c my.package.myMain.class
./bin/flink run ./myApp.jar -c my.package.myMain.scala
Run Code Online (Sandbox Code Playgroud)

我得到以下异常:

------------------------------------------------------------
 The program finished with the following exception:

org.apache.flink.client.program.ProgramInvocationException: Neither a 'Main-Class', nor a 'program-class' entry was found in the jar file.
    at org.apache.flink.client.program.PackagedProgram.getEntryPointClassNameFromJar(PackagedProgram.java:571)
    at org.apache.flink.client.program.PackagedProgram.<init>(PackagedProgram.java:188)
    at org.apache.flink.client.program.PackagedProgram.<init>(PackagedProgram.java:126)
    at org.apache.flink.client.CliFrontend.buildProgram(CliFrontend.java:922)
    at org.apache.flink.client.CliFrontend.run(CliFrontend.java:301)
    at org.apache.flink.client.CliFrontend.parseParameters(CliFrontend.java:1192)
    at org.apache.flink.client.CliFrontend.main(CliFrontend.java:1243)
Run Code Online (Sandbox Code Playgroud)

当我输入以下任一命令时:

./bin/flink …
Run Code Online (Sandbox Code Playgroud)

scala apache-flink

3
推荐指数
2
解决办法
5225
查看次数