这个问题简短而简单.如何在LibGDX中创建分屏效果.如果我创建两个摄像头,那么它将绘制一个位于某个地方,然后绘制下一个,覆盖前一个摄像头.然后我想使用多个屏幕但看起来不会起作用,因为它只支持调整大小而不是在窗口内重新定位.我也使用Box2DDebugRenderer以及ShapeRenderer,因此它还需要在分屏限制下关闭它们.LibGDX网站上似乎没有任何文档.
我最近再次钻研人工神经网络,进化和训练.我有一个问题,如果有什么方法可以解决导致目标输出集的输入.这有名字吗?我试图寻找的所有东西都让我反向传播,这不一定是我需要的.在我的搜索中,我最接近表达我的问题的是
这告诉我,确实存在许多解决方案,这些解决方案对于具有不同数量的节点的网络而言,并且它们不会轻易解决.我的想法是使用在学习过程中建立的权重向一组理想的输入方向前进.有没有其他人有经验做这样的事情?
为了详细说明:假设你的网络有401个输入节点,代表20x20灰度图像和偏差,两个隐藏层由100 + 25个节点组成,还有6个输出节点代表分类(符号,罗马数字等) ).在训练神经网络以便它可以用可接受的错误进行分类之后,我想向后运行网络.这意味着我会在输出中输入我想要看到的分类,并且网络会想象一组输入会产生预期的输出.因此,对于罗马数字示例,这可能意味着我会要求它为符号"X"反向运行网络,并且它将生成一个类似于网络认为"X"的图像.通过这种方式,我可以很好地了解它所学到的分离分类的功能.我觉得理解人工神经网络在宏观方案中如何运作和学习是非常有益的.
我正在建立一个射线游行者来查看像mandelbox等的东西.它很棒.然而,在我目前的程序中,它使用每个工作人员作为从眼睛投射的光线.这意味着每个工作人员执行大量执行.因此,当查看一个非常复杂的对象或尝试以足够大的精度进行渲染时,会导致我的显示驱动程序崩溃,因为内核在单个工作程序上执行时间太长.我试图避免更改我的注册表值以使超时更长,因为我希望此应用程序在多台计算机上工作.
有什么方法可以解决这个问题吗?目前,每个工作项的执行完全独立于附近的工作项.我已经考虑过向GPU订阅缓冲区,该缓冲区将存储当前进度并仅执行少量迭代.然后,我会反复调用该程序,结果有望进一步完善.这个问题是我不确定如何处理分支射线(例如反射和折射),除非我有预期的最大数量.
任何人都有任何指示我应该怎么做来解决这个问题?我是OpenCL的新手,并且已经有很长一段时间了.我觉得好像我做错了或主要滥用OpenCL,因为我的单个工作项背后有很多逻辑,但我不知道如何拆分任务,因为它只是一系列步骤和检查和调整.