小编lam*_*ter的帖子

突然看到错误"插件/预设文件不允许导出对象,只有函数"在create-react-native-app项目中

一直致力于通过生成的项目create-react-native-app.已成功使用该项目一段时间了,但现在尝试通过测试应用程序exp start --tunnel,突然看到错误(虽然以前工作)的形式:

[22:08:19] /path/to/node_modules/react-native-scripts/build/bin/crna-entry.js: Plugin/Preset files are not allowed to export objects, only functions. In /path/to/node_modules/babel-preset-expo/index.js
[22:08:19] Failed building JavaScript bundle.
Run Code Online (Sandbox Code Playgroud)

已经看到一些似乎处理问题的帖子(https://github.com/babel/babel/issues/6808Babel Plugin/Preset文件不允许导出对象,只有函数),但我完全是新的反应- 什么都没有完全得到什么bable,所以我很难理解如何将这些帖子应用到我自己的情况.

我的.bablerc文件(因为它似乎与其他帖子相关)是:

{
  "presets": ["babel-preset-expo"],
  "env": {
    "development": {
      "plugins": ["transform-react-jsx-source"]
    }
  }
}
Run Code Online (Sandbox Code Playgroud)

尝试npm cache clean --force && rm -rf node_modules && rm -f package-lock.json && npm install过没有变化.似乎有帮助的是从react-native@0.56降级到0.55(正如这里所支持的:创建React Native App. - 插件/预设文件不允许导出对象,只有函数),但这似乎没有解决问题直接和更多的解决方法.任何关于应该在这里做什么的建议都会受到赞赏(应该包括哪些其他文件来帮助调试?).


**响应此问题被标记为Create React Native App …

react-native expo

13
推荐指数
2
解决办法
2万
查看次数

pyspark addPyFile添加.py文件的zip,但仍未找到模块

使用addPyFiles()似乎不是添加desiered文件来激发作业节点(新兴的火花因此可能缺少一些基本的使用知识).

尝试使用pyspark运行脚本,并且发现导致某些模块未找到导致的错误.从未使用过火花,但其他帖子(来自问题包https://github.com/cerndb/dist-keras/issues/36#issuecomment-378918484/sf/answers/2784549001/)推荐压缩模块并通过添加到spark作业sparkContext.addPyFiles(mymodulefiles.zip),但仍然出现错误.相关的代码片段是......

from distkeras.trainers import *
from distkeras.predictors import *
from distkeras.transformers import *
from distkeras.evaluators import *
from distkeras.utils import *
Run Code Online (Sandbox Code Playgroud)

(我在这里导入的包可以在https://github.com/cerndb/dist-keras找到),

conf = SparkConf()
conf.set("spark.app.name", application_name)
conf.set("spark.master", master)  #master='yarn-client'
conf.set("spark.executor.cores", `num_cores`)
conf.set("spark.executor.instances", `num_executors`)
conf.set("spark.locality.wait", "0")
conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");

if using_spark_2:
    from pyspark.sql import SparkSession

    sc = SparkSession.builder.config(conf=conf) \
            .appName(application_name) \
            .getOrCreate()
    sc.sparkContext.addPyFile("/home/me/Downloads/distkeras.zip") # see https://github.com/cerndb/dist-keras/issues/36#issuecomment-378918484 and https://forums.databricks.com/answers/10207/view.html
    print sc.version
Run Code Online (Sandbox Code Playgroud)

(distkeras.zip是这个目录的压缩文件:https://github.com/cerndb/dist-keras/tree/master/distkeras),以及

transformer = OneHotTransformer(output_dim=nb_classes, input_col="label_index", output_col="label") …
Run Code Online (Sandbox Code Playgroud)

apache-spark pyspark

11
推荐指数
2
解决办法
8080
查看次数

如何在气流 dags 之间管理 python 包?

如果我有多个具有重叠 python 包依赖项的气流 dag,我该如何保留这些项目中的每一个。解耦?例如。如果我在同一台服务器上有项目 A 和 B,我会用类似的东西运行它们中的每一个......

source /path/to/virtualenv_a/activate
python script_a.py
deactivate
source /path/to/virtualenv_b/activate
python script_b.py
deactivate
Run Code Online (Sandbox Code Playgroud)

基本上,想在相同的情况下运行 dag(例如,每个 dag 使用 python 脚本,这些脚本可能具有重叠的包 deps。我想单独开发(即,在想要更新时不必使用包更新所有代码)该软件包仅用于一个项目))。请注意,我一直在使用BashOperator来运行 python 任务,例如...

do_stuff = BashOperator(
        task_id='my_task',
        bash_command='python /path/to/script.py'),
        execution_timeout=timedelta(minutes=30),
        dag=dag)
Run Code Online (Sandbox Code Playgroud)

有没有办法让这个工作?气流是否有其他最佳实践方式供人们解决(或避免)这些问题?

airflow

6
推荐指数
2
解决办法
3543
查看次数

访问 generic.DetailView 中的模型实例

有没有办法在模板渲染之前访问将在views.py 中的 generic.DetailView 中呈现的模型实例?就像这里的假设函数:

class MyModelDetailView(LoginRequiredMixin, generic.DetailView):
    model = MyModel
    template_name_suffix = '_details'

    def do_some_initial_stuff(model_instance):
        # do stuff to model_instace, 
        # like assigning fields, creating context variables based on existing fields, etc.
Run Code Online (Sandbox Code Playgroud)

最终,我希望用户单击一个模板中特定模型实例的按钮,然后定向到此 generic.DetailView 模板,其中模型显示其一些字段值已更改以及其他一些内容(例如模型可能有一个字段确认该用户单击了上一个模板中的按钮)。有关最有效方法的建议将不胜感激。谢谢 :)

django django-views

5
推荐指数
1
解决办法
4778
查看次数

用hadoop fs mv覆盖目的地?

对表格进行快速测试

testfunc() {
    hadoop fs -rm /test001.txt
    hadoop fs -touchz /test001.txt
    hadoop fs -setfattr -n trusted.testfield -v $(date +"%T") /test001.txt
    hadoop fs -mv /test001.txt /tmp/.
    hadoop fs -getfattr -d /tmp/test001.txt
}
testfunc()
testfunc()
Run Code Online (Sandbox Code Playgroud)

导致输出

... during second function call
mv: '/tmp/test001.txt': File exists
# file: /tmp/test001.txt
trusted.testfield="<old timestamp from first call>"
...
Run Code Online (Sandbox Code Playgroud)

似乎(与在 linux 中不同)该hadoop fs mv命令不会覆盖目标文件(如果已存在)。有没有办法强制覆盖行为(我想我每次都可以检查和删除目的地,但hadoop mv -overwrite <source> <dest>对于我的目的来说更方便)?

** 顺便说一句,如果我对结果的解释不正确,或者行为似乎不正确,请告诉我(因为我认为覆盖是默认行为,我正在写这个问题,因为我很惊讶它似乎不是) .

hadoop hadoop2

5
推荐指数
1
解决办法
5852
查看次数

添加 Atlas 实体之间关系的简单示例?

使用 REST API 在 apache atlas 中添加实体之间的关系的正确方法是什么?查看REST API的文档,我发现很难说出某些字段的含义,哪些是必需的,哪些是必需的(以及如果没有输入会发生什么),或者默认值应该是什么(因为示例使用了什么似乎是占位符值(例如,what isprovenanceType或该propagateTags字段似乎需要某种枚举值,但从未指定有效选项))。

有人可以提供任何示例来说明实际/有效值中的情况吗?例如。如果已经将 2 个实体 E1 和 E2 添加到 Atlas 并希望在两者之间建立关系,则需要执行类似...

curl -X POST --header 'Content-Type: application/json;charset=UTF-8' --header 'Accept: application/json' -d '{<simplified json>}' 'https://atlas-server-hostname:21000/v2/relationship'
Run Code Online (Sandbox Code Playgroud)

[hph_etl@HW03 ~]$ curl -vv -u admin:admin -X POST --header 'Content-Type: application/json;charset=UTF-8' --header 'Accept: application/json' -d '{ \
   "createTime": 1565135406, \
   "createdBy": "hph_etl", \
   "end1": { \
     "guid": "2ddcda5b-2489-4636-a9ab-12b199c02422", \
     "typeName": "hdfs_path" \
   }, \
   "end2": { \
     "guid": "a33f45de-13d0-4a30-9df7-b0e02eb0dfd5", \
     "typeName": "hdfs_path" …
Run Code Online (Sandbox Code Playgroud)

apache-atlas hdp

4
推荐指数
1
解决办法
2482
查看次数

使用 sqlcmd 时循环变量固定为常量

在创建一个sqlcmd在循环中调用不同变量的 bash 脚本时,注意到它似乎将在第一次调用时应在循环中更新的循环变量设置为常量(可以看出这很可能是罪魁祸首)continueing 以及循环的后面和后面的部分,直到到达该sqlcmd部分)。IE。如果我们用 循环遍历 MSSQL Server 表名的列表(长度为 L)sqlcmd,则循环将执行,而不是 L,而是仅使用列表中的 第一个条目进行循环指令的无限迭代。

一个最小的例子如下:

#!/bin/bash

tables_list=$1

while read -r line
do
    tablecols="$line"
    IFS=',' read -a arr_tablecols <<< "$tablecols"

    mssql_tablename=${arr_tablecols[0]}

    echo -e "\n\n\n##### Processing: $mssql_tablename #####\n"

    TO_SERVER_ODBCDSN="-D -S <ODBC DSN name for mssql host>"
    TO_SERVER_IP="-S <my mssql host IP>"
    DB="ClarityETL_test"
    TABLE="$mssql_tablename"
    USER=<my mssql username>
    PASSWORD=<my mssql login password>

    #uncomment to see that sqlcmd does in fact appear to be the problem …
Run Code Online (Sandbox Code Playgroud)

bash sqlcmd

3
推荐指数
1
解决办法
1019
查看次数

resource.data.size()如何在Firestore规则(被计算在内)中工作?

TLDRrequest.resource.data.size()在将一些布尔值和嵌套对象写入文档时,firestore规则中有什么内容?不知道该文档的意思是“ 条目在地图”(https://firebase.google.com/docs/reference/rules/rules.firestore.Resource#datahttps://firebase.google.com/docs/ reference / rules / rules.Map)和我的假设在规则模拟器中测试时似乎是错误的(与相似的问题request.resource.data.keys().size())。


较长的版本:在Firestore规则中遇到问题,该规则无法按预期更新数据(尽管在规则模拟器中进行了类似的测试)。缩小了问题的指向范围,可以看出它是检查request.resource.data.size()等于某个数字的规则。

传递给firestore update函数的数据示例如下

 Object {
   "parentObj": Object {
     "nestedObj": Object {
       "key1": Timestamp {
         "nanoseconds": 998000000,
         "seconds": 1536498767,
       },
     },
   },
   "otherKey": true,
 }
Run Code Online (Sandbox Code Playgroud)

时间戳是通过生成的firebase.firestore.Timestamp.now()。这在规则模拟器中似乎可以正常工作,但是在执行时对于实际数据却不行

let obj = {}
obj.otherKey = true
// since want to set object key name dynamically as nestedObj value,
// see /sf/answers/3310730671/
obj.parentObj = {} // needed for adding nested dynamic keys …
Run Code Online (Sandbox Code Playgroud)

google-cloud-firestore firebase-security-rules

3
推荐指数
1
解决办法
1237
查看次数

Powershell无法运行挂载

尝试将 NFS 共享挂载到 Windows 2012 R2 服务器上,但不确定如何解释抛出的错误。

以管理员身份运行 powershell 并输入以下命令...

PS C:\Windows\system32> whoami
domain\myuser


PS C:\Windows\system32> mount -o nolock mapr006:/mapr z:
New-PSDrive : Parameter cannot be processed because the parameter name 'o' is ambiguous. Possible matches include:
-OutVariable -OutBuffer.
At line:1 char:7
+ mount -o nolock mapr006:/mapr z:
+       ~~
    + CategoryInfo          : InvalidArgument: (:) [New-PSDrive], ParameterBindingException
    + FullyQualifiedErrorId : AmbiguousParameter,Microsoft.PowerShell.Commands.NewPSDriveCommand



PS C:\Windows\system32> mount mapr006:/mapr z:

cmdlet New-PSDrive at command pipeline position 1
Supply values for the following parameters:
Root: …
Run Code Online (Sandbox Code Playgroud)

powershell windows-server-2012-r2

3
推荐指数
1
解决办法
1万
查看次数

pyspark 数据框区分大小写的列删除操作?

从一些简短的测试来看,pyspark 数据帧的列删除函数似乎不区分大小写,例如。

from pyspark.sql import SparkSession
from pyspark.sql.functions import *
import sys

sparkSession = SparkSession.builder.appName("my-session").getOrCreate()

dff = sparkSession.createDataFrame([(10,123), (14,456), (16,678)], ["age", "AGE"])

>>> dff.show()
+---+---+
|age|AGE|
+---+---+
| 10|123|
| 14|456|
| 16|678|
+---+---+

>>> dff.drop("AGE")
DataFrame[]

>>> dff_dropped = dff.drop("AGE")
>>> dff_dropped.show()
++
||
++
||
||
||
++

"""
What I'd like to see here is:
+---+
|age|
+---+
| 10|
| 14|
| 16|
+---+
"""

Run Code Online (Sandbox Code Playgroud)

有没有办法以区分大小写的方式删除数据框列?(在spark JIRA讨论中看到了一些与此类内容相关的评论,但正在寻找仅以drop()临时方式应用于操作的内容(而不是全局/持久设置))。

apache-spark-sql pyspark

3
推荐指数
1
解决办法
2283
查看次数

pytesseract临时输出文件“没有这样的文件或目录”错误

我正在使用 pytesseract 和以下行:

text = image_to_string(temp_test_file, 
                       lang='eng', 
                       boxes=False, 
                       config='-c preserve_interword_spaces=1 hocr')
Run Code Online (Sandbox Code Playgroud)

并得到错误

pytesseract.py
135|  f = open(output_file_name, 'rb')

No such file or directory: 
/var/folders/j3/dn60cg6d42bc2jwng_qzzyym0000gp/T/tess_EDOHFP.txt
Run Code Online (Sandbox Code Playgroud)

在这里查看 pytesseract 的源代码,似乎无法找到用于存储 tesseract 命令输出的临时输出文件。

我在这里看到了其他答案,这些答案已通过检查 tesseract 是否已安装并可从命令终端调用来解决,对我来说是这样,所以这不是这里的问题。任何想法这可能是什么以及如何解决它?谢谢

tesseract python-2.7 python-tesseract

1
推荐指数
1
解决办法
3317
查看次数

"[unixODBC][Driver Manager]Data source name not found, and no default driver specified" despite /etc/odbc.ini having the DSN

Getting the "[unixODBC][Driver Manager]Data source name not found, and no default driver specified" despite /etc/odbc.ini having the DSN referenced in the connection string. Why would this be happening and what can be done?

Trying to set up pyodbc for connecting to MSSQLServer using the docs (centos 7). Yet, when trying to actually connect to the database,

import pyodbc 

# setup db connection
server = 'myserver' 
database = 'mydb' 
username = 'myusername' 
password = 'mypassword' 
cnxn_str = 'DSN=MyMSSQLServer;DATABASE='+database+'UID='+username+'PWD='+password+'MultipleActiveResultSets=True;'
cnxn = …
Run Code Online (Sandbox Code Playgroud)

pyodbc

0
推荐指数
1
解决办法
5654
查看次数