标签: unet

Lan多人场景变化

我是团结的新手,目前正在尝试制作局域网多人RPG游戏.

仅供参考,我遵循了官方统一局的多人游戏指南,一切顺利. https://unity3d.com/learn/tutorials/topics/multiplayer-networking/introduction-simple-multiplayer-example

到目前为止,我让玩家加载,他们能够移动.我在下面编写了以下代码(在虚拟更新例程下),这样当玩家移动时,它将每1秒随机化1到50之间的数字,如果数字是25,我们随机"遇到敌人".当任何玩家遇到一个敌人时我都会这样做,所以网络上的每个人都会进入"战斗场景".

if (Input.GetKey("up") || Input.GetKey("down") || Input.GetKey("left") || Input.GetKey("right"))
    {
        if (Time.time > NextActionTime)
        {
            NextActionTime = Time.time + Period;
            EnemyEncounter = Random.Range(1, 50);
            if (EnemyEncounter == 25)
            {

                NetworkManager.singleton.ServerChangeScene("Scene2");
            }
        }
    }
Run Code Online (Sandbox Code Playgroud)

上面的代码工作正常,但我不确定如何加载每个人,只加载某些玩家进入战斗场景.

例如:
玩家在主持/寻找局域网游戏之前输入一个名称


玩家1 = Joe
Player 2 = Bob
Player 3 = Billy
Player 4 = Jim

在预设的标签/文本上加载其中的文字"Joe,Billy".现在,当任何玩家发现遭遇时,我只想将玩家名称"Joe"和"Billy"加载到下一个场景,而其他玩家则不会.

这可能吗?任何形式的帮助将不胜感激.

谢谢大家

c# unity-game-engine unityscript unity3d-unet unet

10
推荐指数
1
解决办法
546
查看次数

python scikit-learn extract_patches_2d有跨步选项吗?

我有从512x512图像制作补丁的问题.我试图用stride 32提取64x64补丁,这是补丁wid大小的一半.

我发现scikit-learn extract_patches_2d函数可以从原始图像中提取2d补丁.

当我使用这个功能时,似乎功能提取补丁步幅1.

有什么方法可以提取32个补丁吗?

def load_train_data(self):
    imgs_row, imgs_col = 512,512
    train_list = []
    train_img = []
    label_list = []
    label_img = []
    train_path = 'C:\\Users\\Lee Doyle\\unet\\data\\Train'
    label_path = 'C:\\Users\\Lee Doyle\\unet\\data\\Label'

    ######################Traindata################################

    print('-' * 30)
    print('load train images...')
    print('-' * 30)
    for i in glob.glob(train_path + '/*.[tT][iI][fF]'):
        train_list.append(abspath(i))
    print(len(train_list))
    for i in train_list:
        # print(i)
        img = cv2.imread(i, cv2.IMREAD_GRAYSCALE)
        # img=cv2.resize(img,(512,512))

        #train_img = image.extract_patches_2d(img, (64,64))

        train_img.append(img.astype(np.float32)/255.0)
        #train_img.append(img.astype(np.float32)/255.0)

    train_img = image.extract_patches_2d(img, (64,64))

    train_img = np.array(train_img[i])
Run Code Online (Sandbox Code Playgroud)

谢谢您的帮助!

python patch scikit-learn deep-learning unet

6
推荐指数
1
解决办法
434
查看次数

Keras中图像分割的逐像素损失权重

我目前正在使用U-Net的修改版本(https://arxiv.org/pdf/1505.04597.pdf)分割显微镜图像中的细胞器。由于我使用的是Keras,因此我从https://github.com/zhixuhao/unet获取了代码。但是,在此版本中,未实现任何权重图来强制网络学习边界像素。

到目前为止,我获得的结果相当不错,但是网络无法分离彼此靠近的对象。因此,我想尝试利用本文中提到的权重图。我已经能够为每个标签图像生成权重图(基于给定的公式),但是我无法找到如何使用该权重图来训练我的网络并因此解决上述问题的方法。

权重图和标签图像是否必须以某种方式组合,还是有Keras函数可以让我利用权重图?我是生物学家,最近才开始使用神经网络,所以我的理解仍然很有限。任何帮助或建议,将不胜感激。

python conv-neural-network keras unet

1
推荐指数
2
解决办法
3629
查看次数