Python 在内存表数据结构中进行分析(dict、list、combo)

dar*_*dog 5 python csv dictionary list data-structures

我试图模仿一些代码,我有一个SQL工作,但使用所有的Python代替。随着这里一些帮助 CSV到Python解释所有的列名?

我现在可以将我的压缩 csv 文件读入 dict 只有一行,最后一行。(如何获取行样本或整个数据文件?)

我希望有一个内存常驻表,当我完成时,我可以像 sql 一样操作它,例如通过将坏数据匹配到另一个具有坏数据和正确条目的表来清理数据..然后按时间段和平均类型求和像.. 总数据文件大约有 500,000 行.. 我对将所有内容都放在内存中并不大惊小怪,但我想尽我所能解决一般情况,所以我知道不求助于 SQL 可以做什么

import csv, sys, zipfile
sys.argv[0] = "/home/tom/Documents/REdata/AllListing1RES.zip"
zip_file    = zipfile.ZipFile(sys.argv[0])
items_file  = zip_file.open('AllListing1RES.txt', 'rU')
for row in csv.DictReader(items_file, dialect='excel', delimiter='\t'):
    pass 
# Then is my result is
>>> for key in row:
print 'key=%s, value=%s' % (key, row[key])  
key=YEAR_BUILT_DESC, value=EXIST
key=SUBDIVISION, value=KNOLLWOOD
key=DOM, value=2
key=STREET_NAME, value=ORLEANS RD
key=BEDROOMS, value=3
key=SOLD_PRICE, value=
key=PROP_TYPE, value=SFR
key=BATHS_FULL, value=2
key=PENDING_DATE, value=
key=STREET_NUM, value=3828
key=SOLD_DATE, value=
key=LIST_PRICE, value=324900
key=AREA, value=200
key=STATUS_DATE, value=3/3/2011 11:54:56 PM
key=STATUS, value=A
key=BATHS_HALF, value=0
key=YEAR_BUILT, value=1968
key=ZIP, value=35243
key=COUNTY, value=JEFF
key=MLS_ACCT, value=492859
key=CITY, value=MOUNTAIN BROOK
key=OWNER_NAME, value=SPARKS
key=LIST_DATE, value=3/3/2011
key=DATE_MODIFIED, value=3/4/2011 12:04:11 AM 
key=PARCEL_ID, value=28-15-3-009-001.0000
key=ACREAGE, value=0
key=WITHDRAWN_DATE, value=
>>>
Run Code Online (Sandbox Code Playgroud)

我想我在这里咆哮了一些错误的树......一是我只有 1 行我的大约 500,000 行数据文件.. 二是似乎字典可能不是正确的结构,因为我没有我想我可以加载所有 500,000 行并对其进行各种操作。像..按组和日期求和..此外,似乎重复的键可能会导致问题,即县和细分等非唯一描述符。

我也不知道如何将特定的一小部分行读入内存(例如 10 或 100 条以进行测试,然后再加载所有内容(我也不知道......)我已经阅读了 Python 文档和一些参考资料书,但它只是还没有点击..

似乎我能找到的大多数答案都建议对此类事情使用各种 SQL 解决方案,但我很想学习使用 Python 实现类似结果的基础知识。在某些情况下,我认为它会更容易、更快,并且可以扩展我的工具集。但是我很难找到相关的例子。

一个暗示我得到了什么的答案是:

一旦读取正确,DictReader 应该可以将行作为字典获取,这是一种典型的面向行的结构。奇怪的是,这通常不是处理像您这样的查询的有效方法。只有列列表使搜索更容易。行方向意味着您必须为每一行重做一些查找工作。诸如日期匹配之类的事情需要 CSV 中肯定不存在的数据,例如日期的表示方式以及哪些列是日期。

获取面向列的数据结构的示例(但是,涉及加载整个文件):

import csv
allrows=list(csv.reader(open('test.csv')))
# Extract the first row as keys for a columns dictionary
columns=dict([(x[0],x[1:]) for x in zip(*allrows)])
The intermediate steps of going to list and storing in a variable aren't necessary. 
The key is using zip (or its cousin itertools.izip) to transpose the table.
Then extracting column two from all rows with a certain criterion in column one:

matchingrows=[rownum for (rownum,value) in enumerate(columns['one']) if value>2]
print map(columns['two'].__getitem__, matchingrows)
When you do know the type of a column, it may make sense to parse it, using appropriate 
functions like datetime.datetime.strptime.
Run Code Online (Sandbox Code Playgroud)

通过 Yann Vernier

对于这个一般主题,肯定有一些很好的参考吗?

Jos*_*ton 4

您一次只能从 csv 阅读器读取一行,但您可以轻松地将它们全部存储在内存中:

rows = []
for row in csv.DictReader(items_file, dialect='excel', delimiter='\t'):
    rows.append(row)

# rows[0]
{'keyA': 13, 'keyB': 'dataB' ... }
# rows[1]
{'keyA': 5, 'keyB': 'dataB' ... }
Run Code Online (Sandbox Code Playgroud)

然后,进行聚合和计算:

sum(row['keyA'] for row in rows)
Run Code Online (Sandbox Code Playgroud)

您可能希望在数据进入 之前对其进行转换rows,或者使用更友好的数据结构。每次计算迭代超过 500,000 行可能会变得非常低效。

正如评论者提到的,使用内存数据库可能对您确实有益。另一个问题确切地询问如何将 csv 数据传输到 sqlite 数据库中。

import csv
import sqlite3

conn = sqlite3.connect(":memory:")
c = conn.cursor()
c.execute("create table t (col1 text, col2 float);")

# csv.DictReader uses the first line in the file as column headings by default
dr = csv.DictReader(open('data.csv', delimiter=','))
to_db = [(i['col1'], i['col2']) for i in dr]
c.executemany("insert into t (col1, col2) values (?, ?);", to_db)
Run Code Online (Sandbox Code Playgroud)