小编Vic*_*zzi的帖子

to_CSV 将 np.array 保存为字符串而不是列表

我想将 pandas 数据框保存为 csv 文件,问题是 to_csv 正在将 np.array 转换为字符串。

我想将数组保存为数组,但我在文档中找不到任何有用的内容。

sudoku_solution = [a for a in assignment if a > 0]


label = np.reshape(np.array(sudoku_solution*n_splits), 
                   (n_splits, len(sudoku_solution)))

df = pd.DataFrame(zip(label))

path = './data/SplitsLabel.csv'
try:
    df.to_csv(path_or_buf = path, 
              mode = 'a',
              header = False)
Run Code Online (Sandbox Code Playgroud)

Solution_sudoku = [123, 345, 894, 324, 321, 321](整数列表)

n_splits = 3(整数)

最终结果应该是这样的:

0,[123 345 894 324 321 321]

1、[123 345 894 324 321 321]

3、[123 345 894 324 321 321]

但现在的结果是:

0,“[123 345 894 324 321 321]”

1、“[123 …

python csv pandas

6
推荐指数
1
解决办法
3530
查看次数

如何在训练期间调整 gpu 批量大小?

我感到惊讶的是,我在网上找不到任何关于如何在不停止训练的情况下动态调整 GPU 批量大小的资源。

想法如下:

1) 有一个(几乎)与使用中的 GPU 无关的训练脚本。批量大小将动态调整而不会受到用户的干扰或不需要调整。

2) 仍然能够指定所需的训练批次大小,即使太大而无法装入已知的最大 GPU。

例如,假设我想使用批量大小为 4096 张图像(每张图像 1024x1024)来训练模型。假设我可以访问具有不同 NVidea GPU 的服务器,但我不知道会提前分配给我哪一个。(或者每个人都想使用最大的 GPU,而在我的任期到来之前我已经等了很长时间)。

我希望我的训练脚本找到最大批量大小(假设它是每个 GPU 批次 32 个图像),并且仅在处理完所有 4096 个图像后才更新优化器(一个训练批次 = 128 个 GPU 批次)。

python gpu neural-network tensorflow pytorch

5
推荐指数
1
解决办法
2634
查看次数

Pythonic在列表字典上执行循环的方法

这段代码有效,但我想知道是否有更多的pythonic方式来编写它.

word_frequency 是一个列表字典,例如:

word_frequency = {'dogs': [1234, 4321], 'are': [9999, 0000], 'fun': [4389, 3234]}

vocab_frequency = [0, 0] # stores the total times all the words used in each class
for word in word_frequency: # that is not the most elegant solution, but it works!
    vocab_frequency[0] += word_frequency[word][0] #negative class
    vocab_frequency[1] += word_frequency[word][1] #positive class
Run Code Online (Sandbox Code Playgroud)

有没有更优雅的方式来编写这个循环?

python loops

4
推荐指数
2
解决办法
158
查看次数

python .lower()无法正常工作

我不知道我在做什么错,但是我的python代码中的.lower()函数不起作用!

这是一个愚蠢的代码,但不会降低单词的大小写:

score = {"a": 1, "c": 3, "b": 3, "e": 1, "d": 2, "g": 2, 
         "f": 4, "i": 1, "h": 4, "k": 5, "j": 8, "m": 3, 
         "l": 1, "o": 1, "n": 1, "q": 10, "p": 3, "s": 1, 
         "r": 1, "u": 1, "t": 1, "w": 4, "v": 4, "y": 4, 
         "x": 8, "z": 10}

def scrabble_score(word):
    word.lower()
    print word
    total =0
    for i in word:
        total += score[i]
    return total

print scrabble_score('Helix')    
Run Code Online (Sandbox Code Playgroud)

一些帮助?

python lowercase

1
推荐指数
1
解决办法
1万
查看次数

Python从文件中解析字符串到浮点列表的高效方法

这个文件每行有一个单词和成千上万的浮点数,我想将它转换为一个字典,其中单词为key,向量为所有浮点数.这就是我正在做的事情,但是由于文件的大小(大约20k行,每行约10k值),这个过程花费的时间太长了.我找不到更有效的解析方法.只是一些不能保证减少运行时间的替代方法.

with open("googlenews.word2vec.300d.txt") as g_file:
  i = 0;
  #dict of words: [lots of floats]
  google_words = {}

  for line in g_file:
    google_words[line.split()[0]] = [float(line.split()[i]) for i in range(1, len(line.split()))]
Run Code Online (Sandbox Code Playgroud)

python performance parsing

0
推荐指数
1
解决办法
68
查看次数