包括我在内的人都知道Python中有一些东西叫它__future__,它出现在我读过的很多模块中.像我这样沉闷的人不知道它为什么存在,以及如何/何时使用它,即使在阅读了Python的__future__文档之后.
那么用示例来解释一下吗?
在基本用法方面,我快速得到了一些答案,看起来都是正确的.
但是,为了进一步了解如何__future__工作:
当我试图理解它时,我刚刚意识到一个让我感到困惑的关键事情,那就是当前的python版本如何包含将在未来版本中发布的内容?如何在当前的python版本中成功编译未来python版本中使用新功能的程序?
所以,我想现在,当前版本已经打包了一些潜在的功能,将包含在未来的版本中 - 这是对的吗?但这些功能只能通过__future__,因为它还没有成为标准 - 我是对的吗?
有没有办法使用cut命令为更多空格指定字段分隔符?(比如""+)?例如:在下面的字符串中,我想达到值'3744',我应该说什么字段分隔符?
$ps axu | grep jboss
jboss 2574 0.0 0.0 3744 1092 ? S Aug17 0:00 /bin/sh /usr/java/jboss/bin/run.sh -c example.com -b 0.0.0.0
Run Code Online (Sandbox Code Playgroud)
cut -d' '不是我想要的,因为它只适用于一个空间.
awk不是我正在寻找的,但如何处理'削减'?
谢谢.
我在本地文件系统上保存了10M +照片.现在我想通过他们每个人来分析照片的二进制文件,看看它是不是一只狗.我基本上想要在集群hadoop环境中进行分析.问题是,我该如何设计map方法的输入?比方说,在map方法中,
new FaceDetection(photoInputStream).isDog()是分析的所有基础逻辑.
具体来说,我应该上传所有照片HDFS吗?假设是的,
我该如何在map方法中使用它们?
是否可以将输入(到map)作为包含HDFS每一行的所有照片路径(in )的文本文件,并在map方法中加载二进制文件,如:( photoInputStream = getImageFromHDFS(photopath);实际上,加载的正确方法是什么)执行map方法时来自HDFS的文件?)
看来我想念的基本原理一些知识hadoop,map/reduce以及hdfs,但你可以请点我开始在上面的问题而言,谢谢!
使用HBase Java API时,我有一行代码如下:
byte[] value = scanner.next().getValue(Bytes.toBytes(family), Bytes.toBytes(qualifier));
Run Code Online (Sandbox Code Playgroud)
假设我不知道它是否为此值的Int或String类型,我应该在它之间使用Byte.toInt(value)和Byte.toString(value)正确打印值?
这不是一个真正的HBase/Hadoop问题,而是一个Java问题,但我用Google搜索并找不到获取它的方法.有可能知道吗?
另一方面,从HBase Java API,我如何知道存在于系列中的给定值的数据类型:限定符?
谢谢!
用Python绘制图表/图表的最佳开源库是什么?2D是必要的,如果一起提供3D则是好的.它必须接受简单的输入数据格式,如csv.
我用Google搜索了一个名为:matplotlib它是怎么回事?
它在可靠性,性能,简单使用和易于集成等方面应该是最好的,或者它们的组合.
谢谢
什么是最好的Python实现MapReduce,一个框架或一个库,可能和Apache一样好hadoop,但是如果它只是在Python中,并且在良好的文档和易于理解方面最好,完全实现MapReduce模式,高可伸缩性,高稳定性和轻量级.
我用谷歌搜索了一个叫做mincemeat,不确定它,但其他任何一个众所周知的?
谢谢
我想在这里知道的事情应该是"基本的",但这是我脑海中长期存在的一个问题,不知道诀窍在哪里.
让我们说一个耗时的程序(无论是bash或者Python),我必须在运行时打印出进度的百分比,基本上我想打印1%,经过一段时间后,我打印2%等等.我想'2%'成为显示在显示的同一位置'1%',而不是像"1%2%"或其他什么.你知道wget,我想要的正是wget的作用,以显示下载进度的进度.我是否需要清除以前打印的角色,但如何?
它基本上是如何工作的......
谢谢,