可以为移动设备使用WYSIWYG文本编辑器(尤其是TinyMCE)还是不支持?会不会得到支持?
我有一个字符串列,有时在字符串中有回车符:
import pandas as pd
from io import StringIO
datastring = StringIO("""\
country metric 2011 2012
USA GDP 7 4
USA Pop. 2 3
GB GDP 8 7
""")
df = pd.read_table(datastring, sep='\s\s+')
df.metric = df.metric + '\r' # append carriage return
print(df)
country metric 2011 2012
0 USA GDP\r 7 4
1 USA Pop.\r 2 3
2 GB GDP\r 8 7
Run Code Online (Sandbox Code Playgroud)
在写入和读取csv时,数据框被破坏:
df.to_csv('data.csv', index=None)
print(pd.read_csv('data.csv'))
country metric 2011 2012
0 USA GDP NaN NaN
1 NaN 7 4 NaN …Run Code Online (Sandbox Code Playgroud) 我开始使用python库elasticsearch-dsl.
我正在尝试实现父子关系,但它无法正常工作:
class Location(DocType):
name = String(analyzer='snowball', fields={'raw': String(index='not_analyzed')})
latitude = String(analyzer='snowball')
longitude = String(analyzer='snowball')
created_at = Date()
class Building(DocType):
parent = Location()
Run Code Online (Sandbox Code Playgroud) 我在S3中通过nyc_date以格式分区的镶木地板数据s3://mybucket/mykey/nyc_date=Y-m-d/*.gz.parquet.
我有一个DateType列event_date,当我尝试从S3读取并使用EMR写入hdfs时,由于某种原因抛出此错误.
from pyspark.sql import SparkSession
spark = SparkSession.builder.enableHiveSupport().getOrCreate()
df = spark.read.parquet('s3a://mybucket/mykey/')
df.limit(100).write.parquet('hdfs:///output/', compression='gzip')
Run Code Online (Sandbox Code Playgroud)
错误:
java.lang.UnsupportedOperationException: org.apache.parquet.column.values.dictionary.PlainValuesDictionary$PlainBinaryDictionary
at org.apache.parquet.column.Dictionary.decodeToInt(Dictionary.java:48)
at org.apache.spark.sql.execution.vectorized.OnHeapColumnVector.getInt(OnHeapColumnVector.java:233)
at org.apache.spark.sql.catalyst.expressions.GeneratedClass$GeneratedIterator.processNext(Unknown Source)
at org.apache.spark.sql.execution.BufferedRowIterator.hasNext(BufferedRowIterator.java:43)
at org.apache.spark.sql.execution.WholeStageCodegenExec$$anonfun$8$$anon$1.hasNext(WholeStageCodegenExec.scala:370)
at scala.collection.Iterator$$anon$10.hasNext(Iterator.scala:389)
at scala.collection.Iterator$$anon$11.hasNext(Iterator.scala:408)
at org.apache.spark.shuffle.sort.BypassMergeSortShuffleWriter.write(BypassMergeSortShuffleWriter.java:125)
at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:79)
at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:47)
at org.apache.spark.scheduler.Task.run(Task.scala:86)
at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:274)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
Run Code Online (Sandbox Code Playgroud)
这是我想出的:
event_date不会导致任何错误.'s3a://mybucket/mykey/*/*.gz.parquet'仍然会引发错误.真的很奇怪,这只会导致DateType列的错误.我没有任何其他DateType列.
使用Spark 2.0.2和EMR 5.2.0.
是否有TinyMCE插件允许从MS Excel粘贴表,同时保持该表的格式?
部分解决方案:因此使用粘贴插件,您可以将Excel表格粘贴到Word上,然后从Word粘贴到TinyMCE上,该格式正确.这不是理想的,但总比没有好.仍然希望有人有更好的解决方案.
Android和OpenCV的新功能.一直在努力实施新书中的代码,掌握OpenCV与实用计算机视觉项目.该应用程序基本上使用OpenCV在相机预览上呈现卡通化图像.您可以触摸屏幕以保存卡通图像.
作者的源代码位于此处.
我对CartoonifierApp.java文件进行了一些小修改(见下文),以便我可以使用OpenCV Manager应用程序静态加载漫画器库(原始代码抛出了UnsatisfiedLinkError).
我面临的问题是当我将应用程序加载到我的Galaxy Nexus(Android 4.1.1)上时,我得到一个空的黑屏.我的LogCat说:
E/BufferQueue(4744):[unnamed-4744-0] setBufferCount:SurfaceTexture已被放弃!E/Cartoonifier :: SurfaceView(4744):startPreview()失败
我认为这是一个记忆问题.我知道cpp代码可以工作,因为它在我的计算机上运行良好 - 虽然在相对较新的笔记本电脑(华硕U46E)上渲染很慢.
我不知道如何解决这个问题.我找到的唯一有用的建议是在这里.如果我在CatoonifierVewBase.java中替换我的setPreview方法
if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.HONEYCOMB)
mCamera.setPreviewTexture( new SurfaceTexture(10) );
else
mCamera.setPreviewDisplay(null);
Run Code Online (Sandbox Code Playgroud)
同
mCamera.setPreviewDisplay(mHolder);
Run Code Online (Sandbox Code Playgroud)
然后发生的事情是相机正常工作,我可以通过触摸屏幕保存卡通图像.请注意,这并不是理想的结果,因为我想在相机预览上不断地对图像进行漫画.相机只是工作,因为我没有写到表面视图(至少这是我的理解).前面提到的网站的答案有一些解决方法,但我不知道他在说什么.
顺便说一句,我已经尝试了所有OpenCV4Android应用程序示例,它们的工作正常.我也在使用OpenCV版本2.4.3.API级别目标是15.
完整Logcat:
12-22 15:33:07.966:I/CartoonifierApp(5999):实例化新类com.Cartoonifier.CartoonifierApp 12-22 15:33:07.966:I/CartoonifierApp(5999):调用onCreate 12-22 15:33:07.966 :I/CartoonifierApp(5999):尝试加载OpenCV库12-22 15:33:07.982:I/Cartoonifier :: SurfaceView(5999):实例化新类com.Cartoonifier.CartoonifierView 12-22 15:33:07.990:I/CartoonifierApp(5999):onResume 12-22 15:33:07.990:I/Cartoonifier :: SurfaceView(5999):openCamera 12-22 15:33:07.990:I/Cartoonifier :: SurfaceView(5999):releaseCamera 12-22 15:33:08.099:D/OpenCVManager/Helper(5999):创建服务连接12-22 15:33:08.099:D/OpenCVManager/Helper(5999):尝试获取库路径12-22 15:33:08.138: D/OpenCVManager/Helper(5999):试图获取库列表12-22 15:33:08.169:D/OpenCVManager/Helper(5999):库列表:""12-22 15:33:08.169:D/OpenCVManager/Helper(5999):首次尝试加载库12-22 15:33:08.169:D/OpenCVManager/Helper(5999):尝试初始化OpenCV库12-22 15:3 3:08.169:D/OpenCVManager/Helper(5999):尝试加载库/data/data/org.opencv.engine/lib/libopencv_java.so 12-22 15:33:08.169:
D/dalvikvm(5999):尝试加载lib /data/data/org.opencv.engine/lib/libopencv_java.so 0x41936a40 12-22
15:33:08.193:D/dalvikvm(5999):添加了共享库/data/data/org.opencv.engine/lib/libopencv_java.so 0x41936a40 12-22
15:33:08.193:D/OpenCVManager/Helper(5999):OpenCV …
所以我根据本指南训练了初始模型以识别花朵.https://www.tensorflow.org/versions/r0.8/how_tos/image_retraining/index.html
bazel build tensorflow/examples/image_retraining:retrain
bazel-bin/tensorflow/examples/image_retraining/retrain --image_dir ~/flower_photos
Run Code Online (Sandbox Code Playgroud)
要通过命令行对图像进行分类,我可以这样做:
bazel build tensorflow/examples/label_image:label_image && \
bazel-bin/tensorflow/examples/label_image/label_image \
--graph=/tmp/output_graph.pb --labels=/tmp/output_labels.txt \
--output_layer=final_result \
--image=$HOME/flower_photos/daisy/21652746_cc379e0eea_m.jpg
Run Code Online (Sandbox Code Playgroud)
但是如何通过Tensorflow服务提供此图表?
关于设置Tensorflow服务的指南(https://tensorflow.github.io/serving/serving_basic)没有说明如何合并图形(output_graph.pb).服务器需要不同格式的文件:
$>ls /tmp/mnist_model/00000001
checkpoint export-00000-of-00001 export.meta
Run Code Online (Sandbox Code Playgroud) 有没有一种简单的方法可以通过替换某些文件来更改jQuery UI的主题?看来我每次想要更改主题时都要继续下载整个jQuery UI.
pkg/
__init__.py
foo.py
bar.py
baz.py
Run Code Online (Sandbox Code Playgroud)
我有一堆模块导入在foo.py,bar.py和baz.py中是相同的.
我有办法进口__init__.py吗?我要用foo.py写什么?
作为一个步骤,在 EMR 5.1.0 上运行 PySpark 2 作业。即使在脚本完成后,将_SUCCESS文件写入 S3 并且 Spark UI 显示作业已完成,EMR 仍将步骤显示为“正在运行”。我已经等了一个多小时,看看 Spark 是否只是试图自我清理,但该步骤从未显示为“已完成”。日志中写的最后一件事是:
INFO MultipartUploadOutputStream: close closed:false s3://mybucket/some/path/_SUCCESS
INFO DefaultWriterContainer: Job job_201611181653_0000 committed.
INFO ContextCleaner: Cleaned accumulator 0
Run Code Online (Sandbox Code Playgroud)
Spark 1.6 没有这个问题。我已经尝试了很多不同的hadoop-aws和aws-java-sdk罐子无济于事。
我正在使用默认的 Spark 2.0 配置,所以我认为不会编写任何其他类似元数据的内容。此外,数据的大小似乎对这个问题没有影响。
amazon-s3 amazon-web-services apache-spark pyspark apache-spark-2.0