我正在通过这个例子 - https://github.com/pytorch/examples/blob/master/dcgan/main.py我有一个基本的问题.
fake = netG(noise)
label = Variable(label.fill_(fake_label))
output = netD(fake.detach()) # detach to avoid training G on these labels
errD_fake = criterion(output, label)
errD_fake.backward()
D_G_z1 = output.data.mean()
errD = errD_real + errD_fake
optimizerD.step()
Run Code Online (Sandbox Code Playgroud)
我理解为什么我们调用detach()变量fake,因此不会为Generator参数计算梯度.我的问题是,它是否重要,因为它optimizerD.step()只会更新与Discriminator相关的参数?
OptimizerD定义为:
optimizerD = optim.Adam(netD.parameters(), lr=opt.lr, betas=(opt.beta1, 0.999))
此外,在下一步我们将更新Generator的参数时,在此之前我们将调用netG.zero_grad()最终删除所有先前计算的梯度.而且,当我们更新G网络的参数时,我们这样做 - output = netD(fake).在这里,我们没有使用分离.为什么?
那么,为什么在上面的代码中需要分离变量(第3行)?
我是Windows 10用户,使用gitbash作为命令提示符.
在我将分支更改为之后,我master突然发现此错误消息.
REDMOND+ahkim@ahkim-1211 MINGW64 /c/git/src/SI_leadscore/SalesIntelligence/LeadScore/Model (aerin/LeadOptimizerModel)
$ git checkout master
Switched to a new branch 'master'
Branch 'master' set up to track remote branch 'master' from 'origin'.
REDMOND+ahkim@ahkim-1211 MINGW64 /c/git/src/SI_leadscore/SalesIntelligence/LeadScore/Model
$ git checkout LeadOptimizerModel
fatal: Unable to read current working directory: No such file or directory
REDMOND+ahkim@ahkim-1211 MINGW64 /c/git/src/SI_leadscore/SalesIntelligence/LeadScore/Model
$ git branch
fatal: Unable to read current working directory: No such file or directory
REDMOND+ahkim@ahkim-1211 MINGW64 /c/git/src/SI_leadscore/SalesIntelligence/LeadScore/Model
$ git status
fatal: Unable to read current working directory: …Run Code Online (Sandbox Code Playgroud) 我知道如何计算pandas系列中的唯一值的数量(pandas数据帧中的一列).
pandas.Series.value_counts
Run Code Online (Sandbox Code Playgroud)
但是我如何检查它们是否都是独一无二的?我应该只将value_counts与其长度进行比较吗?
我不是指闭包,外部函数返回内部函数,或者特别是memoization.有几个实例我想写一个递归函数,也许有memoization,并且在外部函数中初始化字典或其他一些数据结构似乎更简单,然后有一个递归的辅助函数写入和访问dict和外部函数的参数.这就是我的意思 -
def foo(arr, l):
cache = {}
result = []
def recursive_foo_helper(i, j, k):
# some code that depends on arr, l, i, j, k, cache, and result
for (x, y) in arr:
if recursive_foo_helper(x, y, k):
return result
return None
Run Code Online (Sandbox Code Playgroud)
而不是使用一些超长签名分别声明辅助函数,
recursive_foo_helper(arr, l, i, j, k, cache={}, result=[])
Run Code Online (Sandbox Code Playgroud)
我已经读过,这样做对于memoization来说是非常标准的,但是我很好奇是否对于递归辅助函数是否可行是一致的.
我刚刚开始使用Airflow,请耐心等待,我要做的是从BashOperator任务中收集返回代码并将其保存到本地变量,然后根据返回代码分支到另一个任务.我的问题是弄清楚如何让BashOperator返回一些东西.以下是我的代码段:
dag = DAG(dag_id='dag_1',
default_args=default_args,
schedule_interval='0 2 * * *',
user_defined_macros=user_def_macros,
dagrun_timeout=timedelta(minutes=60)
)
oodas = BashOperator(task_id='oodas', xcom_push=True, bash_command="hive -hiveconf SCHEMA={{ schema }} -hiveconf DAY={{ yesterday_ds }} -f {{ script_path }}", dag=dag)
t2 = BashOperator(task_id='t2', bash_command='echo "{{ ti.xcom_pull("oodas") }}"', dag=dag)
t2.set_upstream(oodas)
Run Code Online (Sandbox Code Playgroud)
我正在尝试xcom_push但老实说不知道它是如何工作的..这是收集结果的正确方法吗?在日志中,最后一行是:命令退出,返回码为0.
在其API文档中,它显示"Computed rectified linear".
是Re(ctified)L(inear)......那么U是什么?
我知道
df.name.unique()
Run Code Online (Sandbox Code Playgroud)
将在 ONE 列中给出唯一值'name'。
例如:
name report year
Coch Jason 2012
Pima Molly 2012
Santa Tina 2013
Mari Jake 2014
Yuma Amy 2014
array(['Jason', 'Molly', 'Tina', 'Jake', 'Amy'], dtype=object)
Run Code Online (Sandbox Code Playgroud)
但是,假设我有大约 1000 列,我想同时查看所有列的唯一值。
我该怎么做?
自从我将pandas升级到0.23.0后,我遇到了运行一行以删除空格的错误 df.any_column = df.any_column.str.replace(' ','')
我收到的错误消息如下:
/usr/local/lib/python3.5/dist-packages/pandas/core/strings.py in replace(self, pat, repl, n, case, flags, regex)
2427 def replace(self, pat, repl, n=-1, case=None, flags=0, regex=True):
2428 result = str_replace(self._data, pat, repl, n=n, case=case,
-> 2429 flags=flags, regex=regex)
2430 return self._wrap_result(result)
2431
/usr/local/lib/python3.5/dist-packages/pandas/core/strings.py in str_replace(arr, pat, repl, n, case, flags, regex)
637 raise TypeError("repl must be a string or callable")
638
--> 639 is_compiled_re = is_re(pat)
640 if regex:
641 if is_compiled_re:
/usr/local/lib/python3.5/dist-packages/pandas/core/dtypes/inference.py in is_re(obj)
217 """
218
--> 219 return isinstance(obj, …Run Code Online (Sandbox Code Playgroud) 它的大小是 20G,它包含大量的哈希,比如00074a74d6cf2052eeb6a9e61bd2b407b464bce6a23a4596ce2e9100f58b6de6.
这个“diff”文件夹是做什么用的?
我有TypeError: expected torch.LongTensor (got torch.cuda.FloatTensor).
我如何转换torch.cuda.FloatTensor为torch.LongTensor?
Traceback (most recent call last):
File "train_v2.py", line 110, in <module>
main()
File "train_v2.py", line 81, in main
model.update(batch)
File "/home/Desktop/squad_vteam/src/model.py", line 131, in update
loss_adv = self.adversarial_loss(batch, loss, self.network.lexicon_encoder.embedding.weight, y)
File "/home/Desktop/squad_vteam/src/model.py", line 94, in adversarial_loss
adv_embedding = torch.LongTensor(adv_embedding)
TypeError: expected torch.LongTensor (got torch.cuda.FloatTensor)
Run Code Online (Sandbox Code Playgroud)