导入文本文件:无要从文件中解析的列

mez*_*ezz 8 python pandas hadoop-streaming

我试图从sys.stdin获取输入.这是hadoop的map reducer程序.输入文件采用txt格式.预览数据集:

196 242 3   881250949
186 302 3   891717742
22  377 1   878887116
244 51  2   880606923
166 346 1   886397596
298 474 4   884182806
115 265 2   881171488
253 465 5   891628467
305 451 3   886324817
6   86  3   883603013
62  257 2   879372434
286 1014    5   879781125
200 222 5   876042340
210 40  3   891035994
224 29  3   888104457
303 785 3   879485318
122 387 5   879270459
194 274 2   879539794
291 1042    4   874834944
Run Code Online (Sandbox Code Playgroud)

我一直在尝试的代码 -

import sys
df = pd.read_csv(sys.stdin,error_bad_lines=False)
Run Code Online (Sandbox Code Playgroud)

我也试过delimiter = \t, header=False,defining column name Nothing似乎工作,我得到的错误是这个错误:

[root@sandbox lab]# cat /root/lab/u.data | python /root/lab/mid-1-mapper.py |python /root/lab/mid-1-reducer.py
Traceback (most recent call last):
  File "/root/lab/mid-1-reducer.py", line 8, in <module>
    df = pd.read_csv(sys.stdin,delimiter='\t')
  File "/opt/rh/python27/root/usr/lib64/python2.7/site-packages/pandas/io/parsers.py", line 645, in parser_f
    return _read(filepath_or_buffer, kwds)
  File "/opt/rh/python27/root/usr/lib64/python2.7/site-packages/pandas/io/parsers.py", line 388, in _read
    parser = TextFileReader(filepath_or_buffer, **kwds)
  File "/opt/rh/python27/root/usr/lib64/python2.7/site-packages/pandas/io/parsers.py", line 729, in __init__
    self._make_engine(self.engine)
  File "/opt/rh/python27/root/usr/lib64/python2.7/site-packages/pandas/io/parsers.py", line 922, in _make_engine
    self._engine = CParserWrapper(self.f, **self.options)
  File "/opt/rh/python27/root/usr/lib64/python2.7/site-packages/pandas/io/parsers.py", line 1389, in __init__
    self._reader = _parser.TextReader(src, **kwds)
  File "pandas/parser.pyx", line 538, in pandas.parser.TextReader.__cinit__ (pandas/parser.c:5896)
pandas.io.common.EmptyDataError: No columns to parse from file
Run Code Online (Sandbox Code Playgroud)

但是,如果我直接在python中尝试这个(不是在hadoop中),它可以正常工作.

我试图查看stackoverflow帖子,其中一个帖子建议尝试和除外.应用它会留下一个空文件.有人可以帮忙吗?谢谢

Der*_*Weh 7

使用try和except不仅可以让您继续执行错误,而且可以处理错误。它不会神奇地修复您的错误。

read_csv需要csv文件,您的输入显然不是。快速浏览文档:

delim_whitespace:布尔值,默认为False

指定是否将空格(例如“”或“”)用作分隔符。等效于设置sep ='+ s'。如果将此选项设置为True,则不应该为delimiter参数传递任何内容。

这似乎是正确的论点。使用

pandas.read_csv(filepath_or_buffer, delim_whitespace=True).
Run Code Online (Sandbox Code Playgroud)

delimiter='\t'除非选项卡被展开(由空格代替),否则使用也应该起作用。正如我们无法真正说出的,这delim_whitespace似乎是更好的选择。

如果这样做没有帮助,请打印出您sys.stdin的文字以检查是否正确传递了文字。

编辑:我刚刚看到你使用

cat /root/lab/u.data | python /root/lab/mid-1-mapper.py |python /root/lab/mid-1-reducer.py
Run Code Online (Sandbox Code Playgroud)

是否打算这样做,以这种方式mid-1-reducer.py处理的输出mid-1-mapper.py。如果要处理文件的内容,请u.data考虑读取文件,而不要读取文件sys.stdin