我在将本地文件夹推送到GitHub上的远程存储库时遇到问题.
我推后它达到96%左右然后显示这个..
Counting objects: 4145, done.
Delta compression using up to 2 threads.
Connection to github.com closed by remote host.
fatal: The remote end hung up unexpectedly
Compressing objects: 98% (3919/3969)
Run Code Online (Sandbox Code Playgroud)
然后在最后2%完成后显示此错误...
Compressing objects: 100% (3963/3963), done.
error: pack-objects died of signal 13
error: failed to push some refs to 'git@github.com:example/example.git'
Run Code Online (Sandbox Code Playgroud)
不确定这意味着什么.
Rob*_*ley 13
这可能是由于新的GitHub对文件大小的限制造成的,或者可能是由于大数据导致打包过程崩溃(比如2011年的其他SO问题:初始推送大型仓库的替代方法)甚至可以报告限制.
几个星期前,在同事的Mac OS X机器上,我看到了一个类似的不透明错误消息(当时只通过HTTPS - SSH给出了很好的错误信息) - 但是现在尝试通过将一个大文件推送到GitHub来重现这一点在我自己的Mac上,我在两个连接协议上得到了预期的信息性错误消息("远程:错误:文件大是976.56 MB;这超过了GitHub的文件大小限制为100 MB").我的同事可能安装了旧版本的Git,无法正确报告错误.
如果您决定需要从Git历史记录中删除大文件(因为这是将它们推送到GitHub的唯一方法),我可以推荐The BFG:
$ java -jar bfg.jar --strip-blobs-bigger-than 50M my-repo.git
Run Code Online (Sandbox Code Playgroud)
完全披露:我是BFG Repo-Cleaner的作者.
简单的解决方案是增加HTTP post缓冲区大小,以允许将更大的块推送到远程仓库.要做到这一点,只需键入:
git config http.postBuffer 52428800
Run Code Online (Sandbox Code Playgroud)
该数字以字节为单位,因此在这种情况下我将其设置为50MB.默认值为1MB.
归档时间: |
|
查看次数: |
29527 次 |
最近记录: |