所以我正在尝试使用Google协作git clone和cd进入该目录 - 但我无法进入它.我究竟做错了什么?
!rm -rf SwitchFrequencyAnalysis && git clone https://github.com/ACECentre/SwitchFrequencyAnalysis.git
!cd SwitchFrequencyAnalysis
!ls datalab/SwitchFrequencyAnalysis /
您可能希望它输出SwitchFrequencyAnalysis的目录内容 - 而不是它的根目录.我觉得我错过了一些明显的东西 - 它是否与python解释器有关?(文件在哪里?)
无法为 bert 模型的分布式和 fp16 训练安装 apex 我试图通过从 github 克隆 apex 来安装并尝试使用 pip 安装软件包
我试图通过使用以下命令从 git hub 克隆来安装 apex:
git 克隆https://github.com/NVIDIA/apex.git
和 cd apex 转到 apex 目录并尝试使用以下 pip 命令安装软件包:
pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext"
完整代码是:
def main(server_ip,server_port,local_rank,no_cuda,fp16,train_batch_size,gradient_accumulation_steps,seed,do_train,do_eval,output_dir,task_name,data_dir,do_lower_case,bert_model,num_train_epochs,cache_dir,learning_rate,warmup_proportion,loss_scale,max_seq_length):
if server_ip and server_port:
# Distant debugging - see https://code.visualstudio.com/docs/python/debugging#_attach-to-a-local-script
import ptvsd
print("Waiting for debugger attach")
ptvsd.enable_attach(address=(server_ip, server_port), redirect_output=True)
ptvsd.wait_for_attach()
processors = {"ner":NerProcessor}
print(processors)
if local_rank == -1 or no_cuda:
device = torch.device("cuda" if torch.cuda.is_available() and not no_cuda else "cpu")
n_gpu = …
Run Code Online (Sandbox Code Playgroud)