小编jke*_*ing的帖子

将git仓库中的一组文件拆分到他们自己的存储库中,保留相关历史记录

可能重复:
如何在保留子目录的同时拆分git存储库?

有一次,我将我的代码添加到现有的git repo中,并且已经承诺了很多,因为其他开发人员已经提交到repo中的其他现有文件. 现在我想将我的代码拆分为自己的repo,但保留我的特定文件的所有更改历史记录.

通过阅读其他人为分割代码所做的工作,我正在查看filter-branch和执行--index-filter--tree-filter使用rm命令来查找我不关心的文件.我不想使用,--subdirectory-filter因为它不适合将我的代码保存为topdir的子目录(我们也共享一个子目录).更复杂的是,原始存储库中的一些文件随着时间的推移已经移动了一些,并且有一些文件被创建然后被删除.这使得设计一个rm列表有点......具有挑战性.

我正在寻找一种方法来过滤所有/除了/文件/目录列表.有人知道这样做的方法吗?

git git-filter-branch

36
推荐指数
1
解决办法
8141
查看次数

Python:如何检查multiprocessing.Pool中待处理任务的数量?

我有一小部分工人(4)和一大堆任务(5000~).我正在使用池并使用map_async()发送任务.因为我正在运行的任务相当长,所以我强制执行1的chunksize,这样一个长进程就无法阻止一些较短的进程.

我想做的是定期检查剩下的任务数量.我知道最多4个会活跃,我关心有多少人要处理.

我用Google搜索过,我找不到任何人这样做.

一些简单的代码可以帮助:

import multiprocessing
import time

def mytask(num):
    print('Started task, sleeping %s' % num)
    time.sleep(num)

pool = multiprocessing.Pool(4)
jobs = pool.map_async(mytask, [1,2,3,4,5,3,2,3,4,5,2,3,2,3,4,5,6,4], chunksize=1)
pool.close()

while True:
    if not jobs.ready():
        print("We're not done yet, %s tasks to go!" % <somethingtogettasks>)
        jobs.wait(2)
    else:
        break
Run Code Online (Sandbox Code Playgroud)

python pool multiprocess

9
推荐指数
1
解决办法
6182
查看次数

标签 统计

git ×1

git-filter-branch ×1

multiprocess ×1

pool ×1

python ×1