小编ffa*_*our的帖子

virtualenv v16.7.2 powershell激活脚本:“您必须'获取'此脚本:PS>。。\ ENV \ Scripts \ activate”错误

问题

python v.3.7.4上的最新版本virtualenv(16.7.2)为“ activate.ps1”脚本增加了4行,当在Windows10上运行时,powerhsell会给出错误:You must 'source' this script: PS> . .\ENV\Scripts\activate 如何解决此问题?(请注意,我已经阅读并完成了其他论坛问题以及与Windows和Powershell相关的virtualenv手册中提到的所有内容。)

我采取的步骤/尝试过的事情:**

我已将执行策略设置为RemoteSigned(如其他论坛所建议):

Get-ExecutionPolicy -List

        Scope ExecutionPolicy
        ----- ---------------
MachinePolicy       Undefined
   UserPolicy       Undefined
      Process       Undefined
  CurrentUser       Undefined
 LocalMachine    RemoteSigned
Run Code Online (Sandbox Code Playgroud)

当我想激活virtualenv时,我运行 .\ENV\Scripts\activate

问题出在哪里

问题出在创建新的虚拟环境时由virtualenv自动生成的activate.ps1脚本的第3至6行:

if (@($null,"Internal") -notcontains $myinvocation.commandorigin) {
    Write-Host -Foreground red "You must 'source' this script: PS> . $($myinvocation.invocationname)"
    exit 33
}
Run Code Online (Sandbox Code Playgroud)

似乎$myinvocation.commandorigin设置为Runspace而不是Internal

我该如何解决?有任何想法吗?谢谢:)))请注意,我不想手动调整每个自动生成的activate.ps1文件。

python powershell virtualenv windows-10

6
推荐指数
1
解决办法
2286
查看次数

我可以提供 ARKit 面部捕捉预先录制的视频吗?

我知道以前有人问过类似的问题,但我有一个非常具体的用例,我想我可以在这里提供更多细节。

我不是 iOS 开发者,但对 ARKit 非常好奇——特别想使用 ARKit ARFaceAnchor测试面部捕捉(跟踪面部表情)。

我想知道是否可以将预先录制的视频输入 ARKit 而不是摄像头输入。我确实在这里找到了一篇关于使用“传感器重播”的示例代码文章。

https://github.com/ittybittyapps/ARRecorder/tree/master/ARRecorder

https://www.ittybittyapps.com/blog/2018-09-24-recording-arkit-sessions/

不幸的是,不可能以这种方式发布应用程序。

我知道面部捕捉不一定需要深度传感器数据(我已经通过将相机举到监视器上预先记录的面部进行了尝试)。所以我很想知道是否有人知道如何将静态的预先录制的视频提供给 ARKit?

先谢谢您的帮助 :)

video ios arkit

5
推荐指数
0
解决办法
214
查看次数

标签 统计

arkit ×1

ios ×1

powershell ×1

python ×1

video ×1

virtualenv ×1

windows-10 ×1