我也有功能:
higherOrderPure :: (a -> b) -> c
effectful :: Monad m => (a -> m b)
Run Code Online (Sandbox Code Playgroud)
我想将第一个函数应用于第二个函数:
higherOrderPure `someOp` effectful :: Monad m => m c
Run Code Online (Sandbox Code Playgroud)
哪里
someOp :: Monad m => ((a -> b) -> c) -> (a -> m b) -> m c
Run Code Online (Sandbox Code Playgroud)
例:
curve :: (Double -> Double) -> Dia Any
curve f = fromVertices $ map p2 [(x, f x) | x <- [1..100]]
func :: Double -> Either String Double
func _ = Left …Run Code Online (Sandbox Code Playgroud) 正如文档所暗示的那样:
argparse.REMAINDER。所有剩余的命令行参数都收集到一个列表中。这对于分派到其他命令行实用程序的命令行实用程序通常很有用:
>>> parser = argparse.ArgumentParser(prog='PROG')
>>> parser.add_argument('--foo')
>>> parser.add_argument('command')
>>> parser.add_argument('args', nargs=argparse.REMAINDER)
>>> print parser.parse_args('--foo B cmd --arg1 XX ZZ'.split())
Namespace(args=['--arg1', 'XX', 'ZZ'], command='cmd', foo='B')
Run Code Online (Sandbox Code Playgroud)
我试图将其用于完全相同的目的,但在某些情况下对我来说似乎有问题(或者我的概念可能错误):
import argparse
a = argparse.ArgumentParser()
a.add_argument('-qa', nargs='?')
a.add_argument('-qb', nargs='?')
a.add_argument('rest', nargs=argparse.REMAINDER)
a.parse_args('-qa test ./otherutil bar -q atr'.split())
Run Code Online (Sandbox Code Playgroud)
结果:
test.py: error: ambiguous option: -q could match -qa, -qb
Run Code Online (Sandbox Code Playgroud)
很明显,如果otherutil有这样的参数与给定的参数“冲突” argparse,它似乎不能正常工作。
我希望当argparse达到REMAINDER那种参数时,它只会用完列表末尾的所有字符串,而无需进一步解析。我能以某种方式达到这种效果吗?
我有一台Linux服务器使用Kerberos进行用户身份验证,AFS用于用户住宅.当我使用可转发的Kerberos票证登录机器时(我想)PAM也负责我的AFS身份验证,因此我在登录后自动访问我的AFS主页.
假设我登录,然后创建一个屏幕会话并在其中启动一个应用程序.然后我分离我的屏幕会话,并从机器注销.我的Kerberos票证会自动丢弃,因此我在后台运行的屏幕会话以及在其中运行的应用程序无法访问我的AFS主页.这是正常的,它很好.
下次登录机器时,如何使用新的Kerberos票证"提供"我已运行的屏幕会话及其中运行的应用程序(流程本身),并使其能够再次访问我的AFS主页而无需重新启动它?
我刚刚浏览了维基百科有关SVM的页面,这条线引起了我的注意:"如果使用的内核是高斯径向基函数,则相应的特征空间是无限维的Hilbert空间." http://en.wikipedia.org/wiki/Support_vector_machine#Nonlinear_classification
在我的理解中,如果我在SVM中应用高斯核,那么得到的特征空间将是m维度的(m训练样本的数量在哪里),因为你选择你的地标作为训练样例,并且你正在测量"相似性"在具体示例和具有高斯内核的所有示例之间.因此,对于单个示例,您将拥有与训练示例一样多的相似度值.这些将是新的特征向量,它们将转向m维度向量,而不是无限维度.
有人可以向我解释我错过了什么?
谢谢,丹尼尔
classification machine-learning gaussian svm supervised-learning