小编bla*_*hop的帖子

ZF2-在Zend Framework 2上动态更改应用程序语言

我正在使用zend框架2,我想通过单击链接来更改应用程序语言.

这是我的路由配置:

'route'    => '/[:lang[/:controller[/:action[/:id]]]][[/page/:page]]',
Run Code Online (Sandbox Code Playgroud)

我将en定义为默认语言:

'defaults' => array(
    'lang'     => 'en',
                   ),
Run Code Online (Sandbox Code Playgroud)

在我的module.php上:

public function onBootstrap ($e) {

        $eventManager= $e->getApplication()->getEventManager();

        $routeCallback = function ($e) {
            $availableLanguages = array ('fr', 'en');
            $defaultLanguage = 'en';
            $language = "";
            $fromRoute = false;
            //see if language could be find in url
            if ($e->getRouteMatch()->getParam('lang')) {
                $language = $e->getRouteMatch()->getParam('lang');
                $fromRoute = true;

                //or use language from http accept
            } else {
                $headers = $e->getApplication()->getRequest()->getHeaders();
                if ($headers->has('Accept-Language')) {
                    $headerLocale = $headers->get('Accept-Language')->getPrioritized();
                    $language = substr($headerLocale[0]->getLanguage(), 0,2);
                } …
Run Code Online (Sandbox Code Playgroud)

php zend-framework2

5
推荐指数
1
解决办法
4024
查看次数

在java中跳过列表

我在主题下经历了java中的数据结构Skip list,我发现了以下内容:

在跳过列表中n nodes,对于每个ki那样,1 ? k ?lg n并且1 ? i ? n/2k–1? – 1,位置中的节点2k–1· i指向位置中的节点2k–1·(i + 1).这意味着每个第二个节点指向前面两个位置的节点,每四个节点指向前面四个位置的节点,依此类推,如图3.17a所示.这是通过在列表中的节点中具有不同数量的参考字段来实现的:一半节点仅具有一个参考字段,四分之一的节点具有两个参考字段,八分之一的节点具有三个参考字段,因此上.参考字段的数量表示每个节点的级别,级别的数量是maxLevel = ?lg n? + 1.

并且该图是:跳过列表,其中(a)均匀地和(b)不同级别的不均匀节点; (c)清楚显示参考节点的跳过列表.

在此输入图像描述

我不明白数学部分和sktip列表究竟是什么,甚至是节点?

java skip-lists

5
推荐指数
1
解决办法
999
查看次数

在C中追加到数组中

我有一个给定大小的数组,没有使用任何内存分配,如何在其中添加内容?

假设我运行代码,它等待你要输入的内容,你输入"bond",我如何将它附加到数组中?A [10]?

c arrays append

5
推荐指数
1
解决办法
3万
查看次数

将具有 UTC 偏移量的字符串转换为 Spark 时间戳

如何在spark中将字符串存储2018-03-21 08:15:00 +03:00为a timestamptype,保留UTC偏移量?

下面尝试过

from pyspark.sql.functions import *

df = spark.createDataFrame([("2018-03-21 08:15:00 +03:00",)], ["timestamp"])
newDf= df.withColumn("newtimestamp", to_timestamp(col('timestamp'), "yyyy-MM-dd HH:mm:ss XXX")
)
Run Code Online (Sandbox Code Playgroud)

此打印newtimestamp列的值转换为 UTC 时间,即2018-03-21 05:15:00

我如何将此字符串存储为数据帧中的时间戳列,保留偏移量,即将相同的字符串存储为时间戳或类似存储2018-03-21 08:15:00 +3000

datetime-format apache-spark apache-spark-sql pyspark

5
推荐指数
1
解决办法
4701
查看次数

Spark中如何获取数组列的所有组合?

假设我有一个数组列group_ids

+-------+----------+
|user_id|group_ids |
+-------+----------+
|1      |[5, 8]    |
|3      |[1, 2, 3] |
|2      |[1, 4]    |
+-------+----------+
Run Code Online (Sandbox Code Playgroud)

架构:

root
 |-- user_id: integer (nullable = false)
 |-- group_ids: array (nullable = false)
 |    |-- element: integer (containsNull = false)
Run Code Online (Sandbox Code Playgroud)

我想获得所有对的组合:

+-------+------------------------+
|user_id|group_ids               |
+-------+------------------------+
|1      |[[5, 8]]                |
|3      |[[1, 2], [1, 3], [2, 3]]|
|2      |[[1, 4]]                |
+-------+------------------------+
Run Code Online (Sandbox Code Playgroud)

到目前为止,我使用 UDF 创建了最简单的解决方案:

spark.udf.register("permutate", udf((xs: Seq[Int]) => xs.combinations(2).toSeq))

dataset.withColumn("group_ids", expr("permutate(group_ids)"))
Run Code Online (Sandbox Code Playgroud)

我正在寻找的是通过 Spark 内置函数实现的东西。有没有办法在没有 UDF 的情况下实现相同的代码?

scala user-defined-functions apache-spark apache-spark-sql

5
推荐指数
1
解决办法
2020
查看次数

如何在 deltalake 中分配默认值

我有以下客户表 ddl

CREATE TABLE customer (
  name string NOT NULL
  ,id string NOT NULL DEFAULT 'No ID'
  ,age INT
) using delta
Run Code Online (Sandbox Code Playgroud)

default在 deltalake 中创建表时出现关键字问题

谁能帮我,如何在 ddl 中为 deltalake 定义默认值?

apache-spark-sql pyspark databricks azure-databricks delta-lake

5
推荐指数
1
解决办法
5633
查看次数

如何在 PySpark 中使用列值作为字典的键?

我有一个小的 PySpark DataFrame df

index    col1
0        1    
1        3
2        4
Run Code Online (Sandbox Code Playgroud)

还有一本字典:

LOOKUP = {0: 2, 1: 5, 2: 5, 3: 4, 4: 6}
Run Code Online (Sandbox Code Playgroud)

我现在想col2向 中添加一个额外的列df,等于LOOKUP的值col1

我的输出应该是这样的:

index    col1 col2
0        1    5    
1        3    4
2        4    6
Run Code Online (Sandbox Code Playgroud)

我尝试使用:

df = df.withColumn(col("col2"), LOOKUP[col("col1")])
Run Code Online (Sandbox Code Playgroud)

但这给了我错误,以及使用expr.

如何在 PySpark 中实现这一点?

python dataframe apache-spark apache-spark-sql pyspark

5
推荐指数
1
解决办法
6190
查看次数

PySpark 生成缺失的日期并用以前的值填充数据

在这种情况下,我需要帮助来用新行填充缺失值:

这只是一个例子,但我有很多行具有不同的IDs.

输入数据框

ID 旗帜 日期
123 1 01/01/2021
123 0 2021年1月2日
123 1 2021年1月3日
123 0 2021年1月6日
123 0 2021年1月8日
第777章 0 01/01/2021
第777章 1 2021年1月3日

所以我有一组有限的dates,我想直到每个的最后一个ID(在示例中,对于ID = 123:01/01/2021、01/02/2021、01/03/2021...直到01/08/2021 )。所以基本上我可以与日历进行交叉联接,但我不知道在交叉联接之​​后如何使用规则或过滤器填充缺失值。

预期输出:(以粗体显示生成的缺失值)

ID 旗帜 日期
123 1 01/01/2021
123 0 2021年1月2日
123 1 2021年1月3日
123 1 01/04/2021
123 1 01/05/2021
123 0 2021年1月6日
123 0 2021年1月7日
123 0 2021年1月8日
第777章 0 01/01/2021
第777章 0 2021年1月2日
第777章 1 2021年1月3日

cross-join dataframe apache-spark apache-spark-sql pyspark

5
推荐指数
2
解决办法
1万
查看次数

使用ANSI编码读取pyspark中的CSV文件

我正在尝试读取需要使用 ANSI 编码读取的 csv/文本文件。然而这不起作用。有任何想法吗?

\n\n
mainDF= spark.read.format("csv")\\\n                  .option("encoding","ANSI")\\\n                  .option("header","true")\\\n                  .option("maxRowsInMemory",1000)\\\n                  .option("inferSchema","false")\\\n                  .option("delimiter", "\xc2\xac")\\\n                  .load(path)\n
Run Code Online (Sandbox Code Playgroud)\n\n
\n

java.nio.charset.UnsupportedCharsetException:ANSI

\n
\n\n

该文件超过 5GB,因此需要 Spark。

\n\n

我也尝试过小写的 ANSI

\n

apache-spark-sql pyspark databricks

4
推荐指数
1
解决办法
6768
查看次数

使用 Spark SQL 将字符串格式化为日期时间

我正在尝试使用 Spark sql 转换并重新格式化存储为字符串的日期列,如下所示...

30/03/20 02:00
Run Code Online (Sandbox Code Playgroud)

到一个日期时间列,看起来像这样......

2020-03-30 02:00 ('YYYY-MM-dd HH:mm')
Run Code Online (Sandbox Code Playgroud)

我没有使用 python,而是简单地将 DBeaver 中的 sql 直接写入 Spark Datalake。任何帮助是极大的赞赏。

sql sql-date-functions apache-spark apache-spark-sql

4
推荐指数
1
解决办法
7272
查看次数