如何在matplotlib图上更改所有元素(刻度,标签,标题)的字体大小?
我知道如何更改刻度标签尺寸,这是通过以下方式完成的:
import matplotlib
matplotlib.rc('xtick', labelsize=20)
matplotlib.rc('ytick', labelsize=20)
Run Code Online (Sandbox Code Playgroud)
但是如何改变其余部分呢?
我最近遇到了tf.nn.sparse_softmax_cross_entropy_with_logits,我无法弄清楚与tf.nn.softmax_cross_entropy_with_logits相比有什么不同.
是训练矢量唯一的区别y必须是独热编码使用时sparse_softmax_cross_entropy_with_logits?
阅读API,我找不到任何其他差异softmax_cross_entropy_with_logits.但是为什么我们需要额外的功能呢?
如果提供单热编码训练数据/向量,不应softmax_cross_entropy_with_logits产生相同的结果sparse_softmax_cross_entropy_with_logits吗?
虽然"googl'ing"并进行了一些研究,但我无法在AMD硬件上找到任何用于科学GPGPU计算和OpenCL的严肃/流行框架/ sdk .我错过了哪些文献和/或软件?
特别是我对深度学习感兴趣.
据我所知,deeplearning.net推荐使用NVIDIA硬件和CUDA框架.此外,我所知道的所有重要的深度学习框架,如Caffe,Theano,Torch,DL4J,......都专注于CUDA而不打算支持OpenCL/AMD.
此外,人们可以找到大量科学论文以及基于CUDA的深度学习任务的相应文献,但基于OpenCL/AMD的解决方案几乎没有.
在2015/16学年,是否有可能出现基于OpenCL/AMD的新解决方案或现有科学框架?
使用OpenCL/AMD进行深度学习的良好开端是什么?有文献吗?教程?杂项来源?
我并不陌生matplotlib,我很惭愧地承认我一直将它作为一种工具,尽可能快速简便地获得解决方案.所以我知道如何获得基本情节,子图和东西,并且有不少代码可以不时重复使用......但我没有"深入(呃)知识" matplotlib.
最近我想我应该改变这个并通过一些教程自己动手.但是,我仍然对matplotlibs感到困惑plt,fig(ure)并且ax(arr).真正的区别是什么?
在大多数情况下,对于一些"quick'n'dirty"绘图,我看到人们只使用pyplot as plt和直接绘图plt.plot.由于我经常使用多种内容进行绘制,我经常使用f, axarr = plt.subplots()...但是大多数时候你只看到代码放置数据进入axarr并忽略了这个数字f.
所以,我的问题是:什么是使用matplotlib的干净方式?何时使用plt,应该使用什么或应该figure使用什么?子图是否只包含数据?或者,对于样式,清理情节,......,在子图中,它是否有效且良好的做法?
我希望这不是广泛的.基本上我要求为plt< - > fig< - > ax(arr)(以及何时/如何正确使用它们)的真正目的提出一些建议.
教程也是受欢迎的.matplotlib文档对我来说相当混乱.当人们搜索一些非常具体的东西时,比如重新标记一个图例,不同的情节标记和颜色等等,官方文档确实非常准确,但在我看来,一般信息并不是那么好.太多不同的例子,没有真正的目的解释......看起来或多或少像是所有可能的API方法和参数的大清单.
我编写了一个小脚本来分配4个线程之间的工作负载,并测试结果是否保持有序(关于输入的顺序):
from multiprocessing import Pool
import numpy as np
import time
import random
rows = 16
columns = 1000000
vals = np.arange(rows * columns, dtype=np.int32).reshape(rows, columns)
def worker(arr):
time.sleep(random.random()) # let the process sleep a random
for idx in np.ndindex(arr.shape): # amount of time to ensure that
arr[idx] += 1 # the processes finish at different
# time steps
return arr
# create the threadpool
with Pool(4) as p:
# schedule one map/worker for each row in the original data …Run Code Online (Sandbox Code Playgroud) 我有一个项目,我想在其他目录中使用一些python类.
结构示例:
/dir
+../subdirA
+../subdirB
+../mydir
Run Code Online (Sandbox Code Playgroud)
绝对路径不同,因为该项目在不同的机器上运行.
执行位于/ mydir中的MySampleClass的 python文件时,如何导入位于/ subdirA中的/ dir或OtherClassA中的OtherClassRoot?
我尝试过这样的事情:
from . import MySampleClass as msc
Run Code Online (Sandbox Code Playgroud)
要么
from ../ import MySampleClass as msc
Run Code Online (Sandbox Code Playgroud)
但这总是失败或给我错误消息,如非包装中尝试相对导入
那么,什么是相对导入python文件的正确方法?
任何输入都非常感谢:)
我有数百个非常大的矩阵,如(600,800)或(3,600,800)形状的矩阵.
因此,我想在我不再需要的时候尽快取消分配使用的内存.
我想:
some_matrix = None
Run Code Online (Sandbox Code Playgroud)
应该做的工作,还是只是将引用设置为None但是在Memory的某个地方仍然分配了空间?(比如为some_matrix将来的某些重新初始化保留分配的空间)
另外:有时我正在切割矩阵,计算一些东西并将值放入缓冲区(列表,因为它会一直追加).因此将列表设置为None肯定会释放内存,对吧?
或者是否unset()存在某种方法,其中整个标识符及其引用的对象被"删除"?
我可以访问计算集群,特别是一个带有两个12核CPU的节点,它与Slurm Workload Manager一起运行.
我想在该系统上运行TensorFlow,但遗憾的是我无法找到有关如何执行此操作的信息,或者甚至是否可能.我是新手,但据我所知,我必须通过创建Slurm作业来运行TensorFlow,并且不能通过ssh直接执行python/tensorflow.
有没有人有关于这个主题的想法,教程或任何类型的来源?
我刚注意到TensorFlow中的一个意外(至少对我来说)行为.我认为tf.argmax( - argmin)从外到内操作Tensor的行列,但显然它没有?!
例:
import numpy as np
import tensorflow as tf
sess = tf.InteractiveSession()
arr = np.array([[31, 23, 4, 24, 27, 34],
[18, 3, 25, 0, 6, 35],
[28, 14, 33, 22, 20, 8],
[13, 30, 21, 19, 7, 9],
[16, 1, 26, 32, 2, 29],
[17, 12, 5, 11, 10, 15]])
# arr has rank 2 and shape (6, 6)
tf.rank(arr).eval()
> 2
tf.shape(arr).eval()
> array([6, 6], dtype=int32)
Run Code Online (Sandbox Code Playgroud)
tf.argmax有两个参数:input和dimension.由于数组的索引arr …
我刚刚注意到,通过仅将乘法变为除法,我的脚本的执行时间几乎减半.
为了研究这个,我写了一个小例子:
import numpy as np
import timeit
# uint8 array
arr1 = np.random.randint(0, high=256, size=(100, 100), dtype=np.uint8)
# float32 array
arr2 = np.random.rand(100, 100).astype(np.float32)
arr2 *= 255.0
def arrmult(a):
"""
mult, read-write iterator
"""
b = a.copy()
for item in np.nditer(b, op_flags=["readwrite"]):
item[...] = (item + 5) * 0.5
def arrmult2(a):
"""
mult, index iterator
"""
b = a.copy()
for i, j in np.ndindex(b.shape):
b[i, j] = (b[i, j] + 5) * 0.5
def arrmult3(a):
"""
mult, vectorized
""" …Run Code Online (Sandbox Code Playgroud) python ×8
tensorflow ×3
arrays ×2
matplotlib ×2
numpy ×2
python-2.7 ×2
figure ×1
font-size ×1
gpgpu ×1
import ×1
indexing ×1
memory-leaks ×1
opencl ×1
path ×1
performance ×1
plot ×1
python-3.x ×1
sdk ×1
slurm ×1
softmax ×1
threadpool ×1