小编jar*_*fly的帖子

如何在模型中设置django中的DateField格式?

我正在创建一个django应用程序,我有下一个问题:当我想设置日期时会显示此错误:

ValidationError [u"'12/06/2012' value has an invalid date format. It must be in YYYY-MM-DD format."]
Run Code Online (Sandbox Code Playgroud)

对于这个型号:

class ModelA(models.Model):

    date1 = models.DateField(null=True)
    date2 = models.DateField(null=True)
Run Code Online (Sandbox Code Playgroud)

如何设置DateField格式%m/%d/%Y.

该选项"input_formats"无法识别.

谢谢!

python django format datefield

16
推荐指数
2
解决办法
5万
查看次数

如何使用增量值向Pyspark中的DataFrame添加列?

我有一个名为'df'的DataFrame,如下所示:

+-------+-------+-------+
|  Atr1 |  Atr2 |  Atr3 |
+-------+-------+-------+
|   A   |   A   |   A   |
+-------+-------+-------+
|   B   |   A   |   A   |
+-------+-------+-------+
|   C   |   A   |   A   |
+-------+-------+-------+
Run Code Online (Sandbox Code Playgroud)

我想使用增量值为其添加一个新列,并获取以下更新的DataFrame:

+-------+-------+-------+-------+
|  Atr1 |  Atr2 |  Atr3 |  Atr4 |
+-------+-------+-------+-------+
|   A   |   A   |   A   |   1   |
+-------+-------+-------+-------+
|   B   |   A   |   A   |   2   |
+-------+-------+-------+-------+
|   C   |   A   |   A   |   3   |
+-------+-------+-------+-------+
Run Code Online (Sandbox Code Playgroud)

我怎么能得到它?

python attributes increment dataframe pyspark

8
推荐指数
1
解决办法
1588
查看次数

我可以在 python 中删除查询集的某个项目,但不删除数据库中的该项目吗?

我正在 django 中创建一个应用程序,我遇到了下一个问题:

我使用queryset下一个命令行:

queryset = Persons.objects.all()
Run Code Online (Sandbox Code Playgroud)

假设结果列表是下一个:['x', 'y', 'z']

我想删除x该列表中的一个元素,以便生成的列表为:['y', 'z']

我不想删除该元素x。所以我无法使用该命令item.delete()

如果我的模型是:

class A(models.Model):
    att1= models.ForeignKey(B)
    att2 = models.CharField(max_length=128)
...

class B(models.Model):
    ident = models.CharField(max_length=128)
...
Run Code Online (Sandbox Code Playgroud)

如何获取与 A 和 A.att2 value == 'test' 相关的 B 对象的查询集???

python django-queryset

5
推荐指数
1
解决办法
5259
查看次数

Pyspark中的lambda函数无法识别全局变量

我在Pyspark中使用如下lambda函数工作:

udf_func = UserDefinedFunction(lambda value: method1(value, dict_global), IntegerType())
result_col = udf_func(df[atr1])
Run Code Online (Sandbox Code Playgroud)

下一个是method1的实现:

def method1(value, dict_global):
    result = len(dict_global)
    if (value in dict_global):
        result = dict_global[value]
    return result
Run Code Online (Sandbox Code Playgroud)

'dict_global'是包含一些值的全局词典。

问题是,当我执行lambda函数时,结果始终为“无”。由于任何原因,“ method1”函数都不会将变量“ dict_global”解释为外部变量。为什么?我能做什么?

python lambda global nonetype pyspark

4
推荐指数
1
解决办法
3254
查看次数

如何在 Pyspark 的 Dataframe 中转换列表列表,每个列表都是每个属性的值?

我有一个类型列表列表:

[[1, 2, 3], ['A', 'B', 'C'], ['aa', 'bb', 'cc']]
Run Code Online (Sandbox Code Playgroud)

每个列表都包含属性“A1”、“A2”和“A3”的值。

我想获得下一个数据框:

+----------+----------+----------+ 
| A1       | A2       | A3       |
+----------+----------+----------+ 
| 1        | A        | aa       |
+----------+----------+----------+ 
| 2        | B        | bb       |
+----------+----------+----------+ 
| 3        | C        | cc       |
+----------+----------+----------+ 
Run Code Online (Sandbox Code Playgroud)

我该怎么做?

python attributes list dataframe pyspark

4
推荐指数
1
解决办法
7811
查看次数

如何以html5格式向提交按钮添加确认对话框?

我正在创建一个应用程序,django我有下一个问题:我有一个带有提交按钮的html表单,但我想显示一个确认对话框来选择YesNo在处理信息之前.我怎么能这样做?

这是我的表单代码:

<form id="id" method="post" action="/y/b/" enctype="multipart/form-data">

    {% csrf_token %} 

    {{ form.as_p }}

    <input class="btn btn-primary" type="submit" name="submit" value="A" />
</form>
Run Code Online (Sandbox Code Playgroud)

非常感谢!

javascript forms django jquery html5

3
推荐指数
1
解决办法
2万
查看次数

Spark join throws'function'对象没有属性'_get_object_id'错误.我该怎么办呢?

我正在使用Spark中的Databricks进行查询,当我尝试在两个数据帧之间进行连接时,我遇到了问题.我拥有的两个数据帧是下一个:

  • "names_df"有2列:"ID","title",表示电影的id和标题.

    +-------+-----------------------------+
    |ID     |title                        |
    +-------+-----------------------------+
    |1      |Toy Story                    |
    |2      |Jumanji                      |
    |3      |Grumpier Old Men             |
    +-------+-----------------------------+
    
    Run Code Online (Sandbox Code Playgroud)
  • "info"有3列:"movieId","count","average",指的是电影的id,它有的排名数,以及这些评级的平均值.

    +-------+-----+------------------+
    |movieId|count|average           |
    +-------+-----+------------------+
    |1831   |7463 |2.5785207021305103|
    |431    |8946 |3.695059244355019 |
    |631    |2193 |2.7273141814865483|
    +-------+-----+------------------+
    
    Run Code Online (Sandbox Code Playgroud)

这个"信息"数据框是这样创建的:

info =  ratings_df.groupBy('movieId').agg(F.count(ratings_df.rating).alias("count"), F.avg(ratings_df.rating).alias("average"))
Run Code Online (Sandbox Code Playgroud)

其中"ratings_df"是另一个包含3列的数据框:"userId","movieId"和"rating",它指的是投票的用户的ID,用户投票的电影的ID,以及那部电影:

+-------+-------+-------------+
|userId |movieId|rating       |
+-------+-------+-------------+
|1      |2      |3.5          |
|1      |29     |3.5          |
|1      |32     |3.5          |
+-------+-------+-------------+
Run Code Online (Sandbox Code Playgroud)

我试图在这两个数据帧之间建立连接以获得另一个数据框:"movieId","title","count","average":

+-------+-----------------------------+-----+-------+
|average|title                        |count|movieId|
+-------+-----------------------------+-----+-------+
|5.0    |Ella Lola, a la Trilby (1898)|1    |94431  |
|5.0    |Serving Life (2011)          |1    |129034 …
Run Code Online (Sandbox Code Playgroud)

python sql join function apache-spark

3
推荐指数
1
解决办法
2万
查看次数

我可以在一个唯一的 html 页面中创建两个画布空间吗?

我正在尝试创建一个 HTML 页面,它有两个画布空间,即可以显示对象的两个矩形。

在我的 HTML 代码中,我有这一行,它代表页面左侧的一个尺寸为 540x600 dp 的矩形: <canvas id="canvas" width="540" height="600"></canvas>

但除此之外,我想在右侧生成另一个画布空间。是否可以?我怎么能做到?

html javascript css canvas

2
推荐指数
1
解决办法
4127
查看次数

如何从Python中的原始文本转换熊猫数据框?

我有一个文本文件,其中包含这样的数据,并以列表格式设置,其中第一个元素是一个字符串,其中包含用“;”分隔的列名,而下一个元素是值行:

['Timestamp;T;Pressure [bar];Input line pressure [bar];Speed [rpm];Angular Position [degree];Wheel speed [rpm];Wheel angular position [degree];',
';1;5,281;5,303;219,727;10,283;216,363;45;',
';1;5,273;5,277;219,727;11,602;216,363;45;',
';1;5,288;5,293;205,078;12,832;216,363;45;',
';1;5,316;5,297;219,727;14,15;216,363;45;',
';1;5,314;5,307;219,727;15,469;216,363;45;',
';1;5,288;5,3;219,727;16,787;216,363;45;',
';1;5,318000000000001;5,31;219,727;18,105;216,363;45;',
';1;5,304;5,3;219,727;19,424;216,388;56,25;',
';1;5,291;5,29;219,947;20,742;216,388;56,25;',
';1;5,316;5,297;219,507;22,061;216,388;56,25;']
Run Code Online (Sandbox Code Playgroud)

如何将该文本列表转换为pandas数据框?

python text list dataframe pandas

2
推荐指数
2
解决办法
3816
查看次数

如何在 Pyspark 的 withColumn 函数中使用数据框中的函数?

我定义了一些字典和一个函数:

dict_TEMPERATURE = {(0, 70): 'Low', (70.01, 73.99): 'Normal-Low',(74, 76): 'Normal', (76.01, 80): 'Normal-High', (80.01, 300): 'High'}
...
hierarchy_dict = {'TEMP': dict_TEMPERATURE, 'PRESS': dict_PRESSURE, 'SH_SP': dict_SHAFT_SPEED, 'POI': dict_POI, 'TRIG': dict_TRIGGER}



def function_definition(valor, atributo):

    dict_atributo = hierarchy_dict[atributo]
    valor_generalizado = None

    if isinstance(valor, (int, long, float, complex)):

        for key, value in dict_atributo.items():

            if(isinstance(key, tuple)):
                lista = list(key)

                if (valor > key[0] and valor < key[1]):
                    valor_generalizado = value

    else: # if it is not numeric
        valor_generalizado = dict_atributo.get(valor)


    return valor_generalizado
Run Code Online (Sandbox Code Playgroud)

该函数的主要作用是:检查作为参数传递给“function_definition”函数的值,并根据其字典的引用替换其值。

因此,如果我调用“function_definition(60, …

replace function dataframe apache-spark pyspark

1
推荐指数
1
解决办法
8716
查看次数

如何在Pyspark中的Dictionary中转换Dataframe Column1:Column2(key:value)?

我有一个具有不同Atr1值的Dataframe,并且有一些其他属性,我想从它生成一个字典,考虑字典的关键字Atr1的每个值(唯一值,如前所述),以及dict的值是Atr2的值.

这是Dataframe:

+------+------+------+------+
| Atr1 | Atr2 | Atr3 | Atr4 |
+------+------+------+------+
|  'C' |  'B' |  21  |  'H' |
+------+------+------+------+
|  'D' |  'C' |  21  |  'J' |
+------+------+------+------+
|  'E' |  'B' |  21  |  'K' |
+------+------+------+------+
|  'A' |  'D' |  24  |  'I' |
+------+------+------+------+
Run Code Online (Sandbox Code Playgroud)

我想得到一个这样的字典:

Dict -> {'C': 'B', 'D': 'C', 'E': 'B', 'A': 'D'}
Run Code Online (Sandbox Code Playgroud)

我怎么能这样做?

python dictionary dataframe apache-spark pyspark

1
推荐指数
1
解决办法
1237
查看次数

如何从pyspark中的hdfs获取目录的文件名列表?

我在hdfs中有一个目录,其中包含许多文件。我知道目录的路径,我正在尝试获取目录包含的那些文件名的列表。我该怎么办?

如果我有以下目录:

+dir/
    +f1
    +f2
    +fN
Run Code Online (Sandbox Code Playgroud)

我想获得如下列表:

[f1, f2, fN]
Run Code Online (Sandbox Code Playgroud)

directory file path hdfs pyspark

1
推荐指数
1
解决办法
3760
查看次数

替换Pyspark中数据框中值的SubString

我有一个带有一些属性的数据框,它具有下一个外观:

+-------+-------+
| Atr1  | Atr2  |
+-------+-------+
|  3,06 |  4,08 |
|  3,03 |  4,08 |
|  3,06 |  4,08 |
|  3,06 |  4,08 |
|  3,06 |  4,08 |
|  ...  |  ...  |
+-------+-------+
Run Code Online (Sandbox Code Playgroud)

如您所见,数据框的Atr1和Atr2的值是具有","字符的数字.这是因为我从CSV加载了这些数据,其中DoubleType数字的小数用','表示.

当我将数据加载到数据框中时,值被强制转换为String,因此我将String的类型转换为DoubleType,如下所示:

df = df.withColumn("Atr1", df["Atr1"].cast(DoubleType()))
df = df.withColumn("Atr2", df["Atr2"].cast(DoubleType()))
Run Code Online (Sandbox Code Playgroud)

但是当我这样做时,值将转换为null

+-------+-------+
| Atr1  | Atr2  |
+-------+-------+
|  null |  null |
|  null |  null |
|  null |  null |
|  null |  null |
|  null | …
Run Code Online (Sandbox Code Playgroud)

python casting dataframe apache-spark pyspark

0
推荐指数
1
解决办法
4715
查看次数