小编rkp*_*rkp的帖子

Git:如何在不进行分支或 git revert 的情况下用先前的提交替换当前的工作目录?

有没有一种简单的方法可以使用 git 进行以下操作?

提交复制粘贴图

基本上我想在我的提交历史记录的顶部创建一个新的提交,它相当于我的历史记录中的先前提交(例如,将项目恢复到先前的状态)。

我不想使用分支,因为我正在向以前从未使用过 git 的人教授这个,并且我希望尽可能保持“线性”。(我的大多数观众只需要备份内容,查看项目历史,并在必要时将项目恢复到以前的状态,但没有其他任何远程幻想。)

我不想使用,git revert --no-commit 49a732c..HEAD因为如果碰巧之后发生合并,这会给出错误消息49a732c(我承认这在我的观众中不太可能,但有时确实会通过疯狂尝试使错误消息消失而发生)。

我也不想删除/重写历史记录。

基本上,有没有更简单的方法来做到这一点?

# make sure on master and working directory clean
me@laptop:~/Desktop/proj$ git status
On branch master
nothing to commit, working directory clean

# check out commit to restore
me@laptop:~/Desktop/proj$ git checkout 49a732c
Note: checking out '49a732c'.

You are in 'detached HEAD' state. You can look around, make experimental
changes and commit them, and you can discard any commits you make in this
state without …
Run Code Online (Sandbox Code Playgroud)

git

7
推荐指数
2
解决办法
2631
查看次数

如何使用 CUDA 通过当前通过 scipy.sparse.csc_matrix.dot 实现的密集向量积来加速稀疏矩阵?

我的最终目标是在 Python 中加速矩阵向量乘积的计算,可能是通过使用支持 CUDA 的 GPU。矩阵 A 约为 15k x 15k 且稀疏(密度 ~ 0.05),向量 x 为 15k 元素且密集,我正在计算 Ax。我必须多次执行此计算,因此使其尽可能快是理想的。

我当前的非 GPU“优化”是将 A 表示为 scipy.sparse.csc_matrix 对象,然后简单地计算 A.dot(x),但我希望在连接了几个 NVIDIA GPU 的 VM 上加快速度,并且尽可能只使用 Python(即不手动写出详细的内核函数)。我已经使用 cudamat 库成功地加速了密集矩阵向量产品,但不适用于稀疏情况。网上有一些针对稀疏案例的建议,例如使用pycuda,或scikit-cuda,或anaconda 的加速包,但没有大量信息,因此很难知道从哪里开始。

我不需要非常详细的说明,但是如果有人以前解决过这个问题并且可以为最简单的方法提供一个“大图”路线图,或者有一个基于 GPU 的稀疏矩阵加速的想法 -矢量积将超过 scipy 的稀疏算法,这将非常有帮助。

python cuda gpu matrix sparse-matrix

6
推荐指数
2
解决办法
3265
查看次数

如何将一组未知数量的参数传递给MATLAB中的函数?

当你有一个带有可变数量参数的函数(比如ndgrid)时,如何将任意参数列表传递给该函数?

例如,我想制作它,以便有时我将两个向量传递给ndgrid并输出两个矩阵,即

[X1,X2] = ndgrid(x1,x2);
Run Code Online (Sandbox Code Playgroud)

但有时候我可能会有更多X,所以我想要

[X1,X2,X3,X4] = ndgrid(x1,x2,x3,x4)
Run Code Online (Sandbox Code Playgroud)
  1. 是否有任何类型的结构可用于存储未知数量的参数列表,然后将该列表提供给函数?和,
  2. 有什么方法可以检索函数的所有输出,当你不知道会有多少输出时?

arrays matlab arguments function

5
推荐指数
2
解决办法
2611
查看次数

标签 统计

arguments ×1

arrays ×1

cuda ×1

function ×1

git ×1

gpu ×1

matlab ×1

matrix ×1

python ×1

sparse-matrix ×1