python v.3.7.4上的最新版本virtualenv(16.7.2)为“ activate.ps1”脚本增加了4行,当在Windows10上运行时,powerhsell会给出错误:You must 'source' this script: PS> . .\ENV\Scripts\activate
如何解决此问题?(请注意,我已经阅读并完成了其他论坛问题以及与Windows和Powershell相关的virtualenv手册中提到的所有内容。)
我已将执行策略设置为RemoteSigned(如其他论坛所建议):
Get-ExecutionPolicy -List
Scope ExecutionPolicy
----- ---------------
MachinePolicy Undefined
UserPolicy Undefined
Process Undefined
CurrentUser Undefined
LocalMachine RemoteSigned
Run Code Online (Sandbox Code Playgroud)
当我想激活virtualenv时,我运行 .\ENV\Scripts\activate
问题出在创建新的虚拟环境时由virtualenv自动生成的activate.ps1脚本的第3至6行:
if (@($null,"Internal") -notcontains $myinvocation.commandorigin) {
Write-Host -Foreground red "You must 'source' this script: PS> . $($myinvocation.invocationname)"
exit 33
}
Run Code Online (Sandbox Code Playgroud)
似乎$myinvocation.commandorigin设置为Runspace而不是Internal
我该如何解决?有任何想法吗?谢谢:)))请注意,我不想手动调整每个自动生成的activate.ps1文件。
我知道以前有人问过类似的问题,但我有一个非常具体的用例,我想我可以在这里提供更多细节。
我不是 iOS 开发者,但对 ARKit 非常好奇——特别想使用 ARKit ARFaceAnchor测试面部捕捉(跟踪面部表情)。
我想知道是否可以将预先录制的视频输入 ARKit 而不是摄像头输入。我确实在这里找到了一篇关于使用“传感器重播”的示例代码文章。
https://github.com/ittybittyapps/ARRecorder/tree/master/ARRecorder
https://www.ittybittyapps.com/blog/2018-09-24-recording-arkit-sessions/
不幸的是,不可能以这种方式发布应用程序。
我知道面部捕捉不一定需要深度传感器数据(我已经通过将相机举到监视器上预先记录的面部进行了尝试)。所以我很想知道是否有人知道如何将静态的预先录制的视频提供给 ARKit?
先谢谢您的帮助 :)