我正在关注Play Framework的教程,但我发生了一个问题,我写了这个对象:
package controllers
import play.api.mvc._
object Tickets extends Controller {
def ticketsAvailable = Action { request =>
val availableTickets = 1000
Ok(availableTickets.toString)
}
}
Run Code Online (Sandbox Code Playgroud)
然后添加路由:
GET /tickets/available/ controllers.Tickets.ticketsAvailable
Run Code Online (Sandbox Code Playgroud)
但是当我编译时,我收到此错误:
Tickets不是包控制器的成员,任何人都可以帮我一个如何解决这个问题的例子?
谢谢
我正在尝试使用imblearn
Python 中的包中的 SMOTE,但我的数据有很多缺失值,并且出现以下错误:
ValueError:输入包含 NaN、无穷大或对于 dtype('float64') 来说太大的值。
我查了一下这里的参数,好像没有处理缺失值的。
有没有办法生成带有缺失值的合成样本?
我运行的lightgbm
是分类功能:
X_train, X_test, y_train, y_test = train_test_split(train_X, train_y, test_size=0.3)
train_data = lgb.Dataset(X_train, label=y_train, feature_name=X_train.columns,
categorical_feature=cat_features)
test_data = lgb.Dataset(X_test, label=y_train, reference=train_data)
param = {'num_trees': 4000, 'objective':'binary', 'metric': 'auc'}
bst = lgb.train(param, train_data, valid_sets=[test_data], early_stopping_rounds=100)
Run Code Online (Sandbox Code Playgroud)
原来是错误:
如果self.handle不为None并且feature_name不为None并且feature_name!='auto':
ValueError:具有多个元素的数组的真值不明确。使用a.any()或a.all()
我检查了stackoverflow上的其他类似错误,这些错误主要与有关numpy
,然后我检查了文档并尝试将categorical_feature
索引替换为[0, 2, 5, ...]
(我的原始索引是分类功能的列名称),但仍然是相同的错误。
我也尝试用label
列索引替换,仍然出错。
有人可以帮忙吗?提前致谢。
我对这些定义感到困惑。在文档中,似乎join
是在key
定义之后,但是connect
不需要指定key
,其结果是connectedStream
。我们可以做什么conenctedStream
呢?有没有具体的例子,我们使用一个而不是另一个?
更多,connected stream
看起来如何?
提前致谢
我有一项工作需要在分区的 Spark 数据帧上运行,该过程如下所示:
rdd = sp_df.repartition(n_partitions, partition_key).rdd.mapPartitions(lambda x: some_function(x))
Run Code Online (Sandbox Code Playgroud)
结果rdd
是pandas.dataframe
,
type(rdd) => pyspark.rdd.PipelinedRDD
type(rdd.collect()[0]) => pandas.core.frame.DataFrame
Run Code Online (Sandbox Code Playgroud)
并rdd.glom().collect()
返回结果如下:
[[df1], [df2], ...]
Run Code Online (Sandbox Code Playgroud)
现在我希望将结果转换为spark dataframe,我所做的方式是:
sp = None
for i, partition in enumerate(rdd.collect()):
if i == 0:
sp = spark.createDataFrame(partition)
else:
sp = sp.union(spark.createDataFrame(partition))
return sp
Run Code Online (Sandbox Code Playgroud)
但是,结果可能很大,rdd.collect()
可能会超出驱动程序的内存,所以我需要避免collect()
操作。有办法解决这个问题吗?
提前致谢!
我Flink
在本地集群上运行,编译我运行的包后
flink run -c com.gurustreams.flink.EntryPoint \
/Users/jeremy.zhang/workspace/guru-streams/flink/target/scala-2.11/guru-streams-flink-assembly-0.0.1.jar \
--stream-name KafkaReadExample
Run Code Online (Sandbox Code Playgroud)
并收到此错误:
Could not build the program from JAR file.
Run Code Online (Sandbox Code Playgroud)
我还尝试jar
从Flink
仪表板运行文件并出现此错误:
org.apache.flink.client.program.ProgramInvocationException: The program plan could not be fetched - the program aborted pre-maturely.
System.err: (none)
System.out: (none)
Run Code Online (Sandbox Code Playgroud) 从 Flink 文档中,我看到有两个不同的窗口对象:
timeWindow(Time.seconds(5))
而且window(TumblingWindow/SlidingWindow) ....
,我对它们之间的区别感到困惑,尤其是timeWindow
,它是 aSlidingWindow
还是TumblingWindow
?
我正在使用python
package hyperopt
并且我有一个参数a
,该参数必须大于parameter b
。
例如,我希望我的参数空间像
space = {"b": hp.uniform(0, 0.5), "a": hp.uniform(b, 0.5)}
Run Code Online (Sandbox Code Playgroud)
要求a
至少大于b
,我该怎么做?
提前致谢
python ×3
apache-flink ×2
apache-spark ×1
hyperopt ×1
imblearn ×1
lightgbm ×1
parameters ×1
pyspark ×1
scala ×1
scikit-learn ×1