小编kam*_*nga的帖子

showDialog bug:Flutter 中的 PopupMenuButton 未触发对话框

我无法找到showDialog工作PopupMenuButton。在下面的示例中,有一个触发对话框显示的按钮和一个弹出菜单也触发对话框显示。

该按钮可以工作,但单击PopupMenu 中的警报文本时,不会发生同样的情况。

import 'package:flutter/material.dart';

void main() => runApp(MyApp());

class MyApp extends StatelessWidget {
  @override
  Widget build(BuildContext context) {
    return Scaffold(
        appBar: AppBar(title: Text('showDialog bug'), actions: [
          PopupMenuButton(
              itemBuilder: (ctx) => [
                    PopupMenuItem(
                        child: Text('Alert'),
                        onTap: () {
                          showDialog(
                              context: context,
                              builder: (ctx) => AlertDialog(
                                    title: Text('test dialog'),
                                  ));
                        })
                  ])
        ]),
        body: ElevatedButton(
            onPressed: () {
              showDialog(
                  context: context,
                  builder: (ctx) => AlertDialog(
                        title: Text('test dialog'),
                      ));
            },
            child: Text('click me')));
  }
} …
Run Code Online (Sandbox Code Playgroud)

widget android-alertdialog dart flutter

19
推荐指数
2
解决办法
5710
查看次数

如何在PySpark中返回UDF中的"元组类型"?

所有数据类型pyspark.sql.types都是:

__all__ = [
    "DataType", "NullType", "StringType", "BinaryType", "BooleanType", "DateType",
    "TimestampType", "DecimalType", "DoubleType", "FloatType", "ByteType", "IntegerType",
    "LongType", "ShortType", "ArrayType", "MapType", "StructField", "StructType"]
Run Code Online (Sandbox Code Playgroud)

我必须编写一个UDF(在pyspark中),它返回一个元组数组.我给它的第二个参数是什么,它是udf方法的返回类型?这将是ArrayType(TupleType())......

python dataframe apache-spark apache-spark-sql pyspark

12
推荐指数
2
解决办法
2万
查看次数

读取Spark中嵌套文件夹中的所有文件

如果我们有一个包含folder所有.txt文件的文件夹,我们可以使用它们全部阅读sc.textFile("folder/*.txt").但是,如果我有一个文件夹folder包含名为甚至更datewise文件夹一样,03,04,...,其中还含有一些.log文件.我如何在Spark中阅读这些内容?

在我的情况下,结构更加嵌套和复杂,因此一般的答案是首选.

apache-spark

11
推荐指数
3
解决办法
8974
查看次数

在 Flutter 应用程序中上传到 Firebase 存储时面临“未创建 Firebase 应用程序”

我想收集用户浏览数据以用于 Flutter 应用程序的离线后端分析。做到这一点的最佳方法是什么?

我计划做的是在使用WorkManager包上传它的应用程序上运行每日 cron。

void main() async {
  WidgetsFlutterBinding.ensureInitialized();
  await Firebase.initializeApp();
  Workmanager().initialize(uploadUserData, isInDebugMode: true);
  Workmanager()
      .registerOneOffTask('1', 'task1', initialDelay: Duration(seconds: 10));
  runApp(MyApp());
}

void uploadUserData() {
  Workmanager().executeTask((task, inputData) {
    firebase_storage.FirebaseStorage.instance
        .ref('/uploads/test_workmanager.txt')
        .putString('workmanager test');
    return Future.value(true);
  });
}
Run Code Online (Sandbox Code Playgroud)

我在运行上述代码时遇到以下问题

E/BackgroundWorker( 6733): errorCode: error, errorMessage: [core/no-app]没有创建 Firebase 应用程序“[DEFAULT]” - 调用 Firebase.initializeApp()

I / WM-WorkerWrapper(6733):工作结果失败[id = 81642715-826f-4d40-b8ec-9d86eab75136,tags = {be.tramckrijte.workmanager.BackgroundWorker}]

我在调用 workmanager 任务之前以多种方式检查了 firebase 是否已初始化(使用firebase.apps.length& .whenComplete

更新:许多人怀疑 firebase 连接是否正确:基本上,如果我只是调用firebase_storage....putStringinmain()而不是 inside ,一切都会正常工作Workmanager().executeTask。所以,麻烦只是由于 …

dart firebase flutter firebase-storage android-workmanager

10
推荐指数
1
解决办法
593
查看次数

Django + Gunicorn + nginx的性能非常差.甚至无法获得8 qps

我正在使用nginx + gunicorn来提供django应用程序并将其部署在EC2(m1.small实例)上.

我有这个观点:

def hi(request):
    return HttpResponse('hi', content_type='text/plain')
Run Code Online (Sandbox Code Playgroud)

映射到url /hi/.因此,它基本上只是返回hi[myurl]/hi.

现在当我加载测试这个域([myurl]/hi)时loader.io,这甚至不会超过250个客户端超过30秒测试.(每秒约8个请求)

这是我的nginx access.log文件的一部分.它基本上只是499在几秒后给出了200s.(loader.io中的超时设置为10秒)

我必须做一些严重的错误.我怎么知道的?

我用它来描述它yet-another-django-profiler,以下是输出: 在此输入图像描述

我也在Elastic Beanstalk(它使用Apache服务器)上部署了这个django应用程序(m3.large实例),并且我也得到了糟糕的性能.我现在的中间件是:

MIDDLEWARE_CLASSES = (
    'django.contrib.sessions.middleware.SessionMiddleware',
    # 'django.middleware.common.CommonMiddleware',
    # 'django.middleware.csrf.CsrfViewMiddleware',
    # 'silk.middleware.SilkyMiddleware',
    # 'yet_another_django_profiler.middleware.ProfilerMiddleware',
    # 'debug_toolbar.middleware.DebugToolbarMiddleware',
    'django.contrib.auth.middleware.AuthenticationMiddleware',
    # 'django.contrib.auth.middleware.SessionAuthenticationMiddleware',
    # 'django.contrib.messages.middleware.MessageMiddleware',
    # 'django.middleware.clickjacking.XFrameOptionsMiddleware',
    # 'django.middleware.security.SecurityMiddleware',
)
Run Code Online (Sandbox Code Playgroud)

之前没有一个被评论过.当我评论出这9行时,我获得了性能提升.现在我可以从这个应用程序中获得60 qps.但我认为我在做更多的错误,并且可以进一步扩展.

django nginx gunicorn

7
推荐指数
1
解决办法
1069
查看次数

警告:预期'int**'但参数类型为'int(*)[(sizetype)(n)]'

以下代码:

#include <stdio.h>

void printSpiral(int **M, int row1, int row2, int col1, int col2) {
  if (!((row1 <= row2) && (col1 <= col2)))
    return;
  int i;
  for (i = col1; i <= col2; i++)
    printf("%d ", M[row1][i]);
  for (i = row1; i <= row2; i++)
    printf("%d ", M[i][col2]);
  for (i = col2; i >= col1; i--)
    printf("%d ",M[row2][i]);
  for (i = row2; i >= row1; i--)
    printf("%d ",M[i][col1]);
  printSpiral(M,row1+1,row2-2,col1+1,col2-1);
}

int main() {
  int n;
  scanf("%d",&n);
  int M[n][n];
  int i, …
Run Code Online (Sandbox Code Playgroud)

c

6
推荐指数
1
解决办法
3万
查看次数

无法加载数据源类:com.databricks.spark.csv

我的build.sbt文件有这个:

scalaVersion := "2.10.3"
libraryDependencies += "com.databricks" % "spark-csv_2.10" % "1.1.0"
Run Code Online (Sandbox Code Playgroud)

我在独立集群模式下运行Spark,我的SparkConf是SparkConf().setMaster("spark://ec2-[ip].compute-1.amazonaws.com:7077").setAppName("Simple Application")(我没有使用该方法setJars,不确定我是否需要它).

我使用命令打包jar sbt package.我用来运行应用程序的命令是./bin/spark-submit --master spark://ec2-[ip].compute-1.amazonaws.com:7077 --class "[classname]" target/scala-2.10/[jarname]_2.10-1.0.jar.

运行此时,我收到此错误:

java.lang.RuntimeException:无法加载数据源的类:com.databricks.spark.csv

有什么问题?

apache-spark

6
推荐指数
1
解决办法
1万
查看次数

在python中使用scipy的kmeans2函数

我发现在使用Python kmeans2算法的例子.我不能得到以下部分

# make some z vlues
z = numpy.sin(xy[:,1]-0.2*xy[:,1])

# whiten them
z = whiten(z)

# let scipy do its magic (k==3 groups)
res, idx = kmeans2(numpy.array(zip(xy[:,0],xy[:,1],z)),3)
Run Code Online (Sandbox Code Playgroud)

要点是zip(xy[:,0],xy[:,1]),那么第三个值z在这里做什么呢?

什么是美白?

任何解释都表示赞赏.谢谢.

python scipy k-means

5
推荐指数
1
解决办法
3342
查看次数

Django 的 DateTimeField 的“auto_now”似乎不起作用

我有一个Comment模型。它具有以下时间戳字段:

created = models.DateTimeField(auto_now_add=True, blank=True, null=True)
last_edit = models.DateTimeField(auto_now=True, blank=True, null=True)
Run Code Online (Sandbox Code Playgroud)

现在,当我使用这种格式更新评论时:Comment.objects.filter(...).update(text="some new text"),该last_edit字段不会更新,而评论的文本会更新。有什么问题?

更新:另外,我正在使用filter因为update不适用于get,即 Comment.objects.get(...).update(...)无法使用。我真正想做的是get因为我确信一次只需要更新一条评论。

django django-models

5
推荐指数
1
解决办法
1390
查看次数

验证MSE损失与验证MSE指标不同

我用Keras(带有theano后端)编写了一个模型,并像这样编译我的模型:model.compile(Adam(0.001), loss='mse', metrics=['mse', 'mae'])即,我的目标损失函数是均方误差,要报告的指标是均方误差均绝对误差

然后运行我的模型: model.fit(X_train, y_train, nb_epoch=500, validation_data=(X_test, y_test))

Keras将结果报告为:

时代500/500:0s-损失:5.5990-mean_squared_error:4.4311-mean_absolute_error:0.9511-val_loss:7.5573-val_mean_squared_error:6.3877-val_mean_absolute_error:1.1335

我期望val_lossval_mean_squared_error相同。什么是val_loss这里如果不val_mean_squared_error

neural-network keras

5
推荐指数
0
解决办法
869
查看次数