小编use*_*609的帖子

Perl中参数输入机制有什么区别?

在读取下载的Perl模块时,我找到了几种定义输入参数的方法,如下所示.它们之间有什么区别?

sub new{
  my $class = shift;
  my $self = {@_};
  bless{$self,  $class};
}

sub count1{
  my ($self, $lab1) = @_;
}

sub new1{
  my ($class, $lab1) = @_;
  my $self = {};
  bless $class, $self;
}

sub setpath{
  my $self = shift;
}
Run Code Online (Sandbox Code Playgroud)

perl input parameter-passing bless

6
推荐指数
1
解决办法
258
查看次数

给定一个向量a = [1,2,3.2,4,5]和一个元素x = 3在向量a中,如何找到大于x的确切条目?

给定一个向量a = [1,2,3.2,4,5]和一个元素x = 3在向量a中,如何找到大于x的确切条目?在R中,有没有这样做的功能?

r

5
推荐指数
1
解决办法
228
查看次数

关于R中的data()函数

当使用下载的R包(例如"tm")时,给定的示例通常会加载一个示例数据集,例如

data("crude")
Run Code Online (Sandbox Code Playgroud)

我怎么知道这个数据集究竟是什么,以及哪种格式,矩阵或向量?只有知道这种信息,我才能将输入自定义为此包所需的格式.

r tm

5
推荐指数
2
解决办法
1万
查看次数

关于实施AdaBoost算法的问题

我正在尝试实现AdaBoost算法,并有两个问题.

1)在每次迭代时,必须根据概率分布对训练数据进行重新采样.重新采样数据集的大小是否应与原始数据集的大小相同.2)如果我根据概率分布重新采样训练数据集,很可能我可以获得单个数据点的多个副本.我应该在每次迭代训练弱分类器的同时保留所有这些冗余副本.

r machine-learning data-mining adaboost

5
推荐指数
1
解决办法
1129
查看次数

图像增强会使性能变差

我正在进行图像分割项目,并一直在尝试采用图像增强技术来增加训练集大小.起初,我只是尝试使用水平翻转来使图像大小加倍,但我发现性能比不使用它更糟糕.是否有任何可以分享的见解.谢谢.

computer-vision deep-learning caffe keras tensorflow

5
推荐指数
1
解决办法
892
查看次数

大图像的语义分割

我正在处理数量有限的大尺寸图像,每个图像都可以有3072*3072像素。为了使用FCN或U-net训练语义分割模型,我构造了大量训练集样本,每个训练图像为128*128

在预测阶段,我要做的是将大图像切成小块,与128*128的训练集相同,然后将这些小块输入训练后的模型中,得到预测的蒙版。然后,我将这些小补丁缝在一起,以得到整个图像的蒙版。这是对大图像执行语义分割的正确机制吗?

machine-learning computer-vision deep-learning caffe tensorflow

5
推荐指数
2
解决办法
2113
查看次数

将图像/掩码对转换为 tfrecord

对于Carvana Image Masking Challenge给出的数据格式,我们如何将其转换为tfrecord可以输入Deeplab V3模型的格式,该模型可以支持VOCCityscape,通常有 XML/文本格式的掩码注释文件。

image-segmentation deep-learning tensorflow

5
推荐指数
1
解决办法
810
查看次数

从发电机获取下一个项目失败

有代码段.运行该程序会收到以下错误

epoch, step, d_train_feed_dict, g_train_feed_dict = inf_data_gen.next()
AttributeError: 'generator' object has no attribute 'next'
Run Code Online (Sandbox Code Playgroud)

相应的代码段列出如下.它背后的原因是什么?

inf_data_gen = self.inf_get_next_batch(config)

def inf_get_next_batch(self, config):
        """Loop through batches for infinite epoches.
        """
        if config.dataset == 'mnist':
            num_batches = min(len(self.data_X), config.train_size) // config.batch_size
        else:
            self.data = glob(os.path.join("./data", config.dataset, self.input_fname_pattern))
            num_batches = min(len(self.data), config.train_size) // config.batch_size

        epoch = 0
        while True:
            epoch += 1
            for (step, d_train_feed_dict, g_train_feed_dict) in \
                    self.get_next_batch_one_epoch(num_batches, config):
                yield epoch, step, d_train_feed_dict, g_train_feed_dict
Run Code Online (Sandbox Code Playgroud)

python generator python-3.x

5
推荐指数
1
解决办法
80
查看次数

任何测试 Pytorch 安装的脚本

我已经安装了pytorch,想检查是否有任何脚本来测试安装是否正确,例如是否可以启用CUDA等?

deep-learning pytorch

5
推荐指数
2
解决办法
1万
查看次数

打印出网络架构中每层的形状

在Keras,我们可以如下定义网络.有没有办法在每一层后输出形状.例如,我想打印出inputs线条定义后的形状inputs,然后打印出conv1线条定义后的形状conv1等.

inputs = Input((1, img_rows, img_cols))
conv1 = Convolution2D(64, 3, 3, activation='relu', init='lecun_uniform', W_constraint=maxnorm(3), border_mode='same')(inputs)
conv1 = Convolution2D(64, 3, 3, activation='relu', init='lecun_uniform', W_constraint=maxnorm(3), border_mode='same')(conv1)
pool1 = MaxPooling2D(pool_size=(2, 2))(conv1)

conv2 = Convolution2D(128, 3, 3, activation='relu', init='lecun_uniform', W_constraint=maxnorm(3), border_mode='same')(pool1)
conv2 = Convolution2D(128, 3, 3, activation='relu', init='lecun_uniform', W_constraint=maxnorm(3), border_mode='same')(conv2)
pool2 = MaxPooling2D(pool_size=(2, 2))(conv2)
Run Code Online (Sandbox Code Playgroud)

theano deep-learning keras tensorflow

4
推荐指数
2
解决办法
2223
查看次数