标签: max-size

矩形内未知数字的最大平方大小

如果我有一组可以是任意数字的瓷砖(正方形)并且它们要填充未知尺寸的容器(矩形),我如何计算出瓷砖的最大尺寸而不会有任何重叠.

所以如果我有2个瓷砖并且矩形是100*100那么最大瓷砖尺寸是50*50.如果这个尺寸的rectanlgle有3或4个瓷砖,这也是瓷砖的最大尺寸,这恰好恰好在这个例子中是一个正方形.

如果rectanlge是100*30并且我有2个瓷砖,则正方形的最大尺寸将是30*30,如果我有4个瓷砖,则最大尺寸将是25*25.

我怎样才能以编程方式执行此操作而不会通过遍历每个可能的组合来占用处理器.


我试着总结一下,我有一个:

矩形/边界框,我需要尽可能多地填充而不重叠瓷砖.

我知道矩形的高度和宽度(但这可以在运行时更改).

我有X个瓦片(这可以在运行时改变),这些是正方形.

没有一块瓷砖应该重叠,每块瓷砖的最大尺寸是多少.它们都是相同的大小.

math tiles max-size

14
推荐指数
4
解决办法
1万
查看次数

C++ vector max_size();

在32位系统上.

  1. std::vector<char>::max_size()返回2 32 -1,大小为char-1字节
  2. std::vector<int>::max_size()返回2 30 -1,大小为int-4字节
  3. std::vector<double>::max_size()返回2 29 -1,大小为double- 8字节

任何人都可以告诉我max_size()取决于什么?

max_size()如果它在64位系统上运行,它的返回值是多少?

c++ vector max-size

14
推荐指数
3
解决办法
3万
查看次数

我们在sqlite中为nvarchar提供的最大大小是多少?

在SqlServer中,我们可以使用NVarchar(MAX),但这在sqlite中是不可能的.我可以为Nvarchar(?)提供的最大大小是多少?

sqlite nvarchar max-size

13
推荐指数
1
解决办法
7809
查看次数

多处理队列maxsize限制为32767

我正在尝试使用多处理编写Python 2.6(OSX)程序,并且我想填充一个超过默认值32767项的Queue.

from multiprocessing import Queue
Queue(2**15) # raises OSError
Run Code Online (Sandbox Code Playgroud)

Queue(32767)工作正常,但任何更高的数字(例如Queue(32768))都失败了OSError: [Errno 22] Invalid argument

这个问题有解决方法吗?

python queue multiprocessing max-size

13
推荐指数
1
解决办法
1万
查看次数

Pyspark:序列化任务超过了允许的最大值。考虑增加 spark.rpc.message.maxSize 或对大值使用广播变量

我正在对集群进行计算,最后当我使用 df.describe().show() 询问有关 Spark 数据帧的摘要统计信息时,出现错误:

序列化任务 15:0 为 137500581 字节,超过了最大允许值:spark.rpc.message.maxSize(134217728 字节)。考虑增加 spark.rpc.message.maxSize 或对大值使用广播变量

在我的 Spark 配置中,我已经尝试增加上述参数:

spark = (SparkSession
         .builder
         .appName("TV segmentation - dataprep for scoring")
         .config("spark.executor.memory", "25G")
         .config("spark.driver.memory", "40G")
         .config("spark.dynamicAllocation.enabled", "true")
         .config("spark.dynamicAllocation.maxExecutors", "12")
         .config("spark.driver.maxResultSize", "3g")
         .config("spark.kryoserializer.buffer.max.mb", "2047mb")
         .config("spark.rpc.message.maxSize", "1000mb")
         .getOrCreate())
Run Code Online (Sandbox Code Playgroud)

我还尝试使用以下方法重新分区我的数据框:

spark = (SparkSession
         .builder
         .appName("TV segmentation - dataprep for scoring")
         .config("spark.executor.memory", "25G")
         .config("spark.driver.memory", "40G")
         .config("spark.dynamicAllocation.enabled", "true")
         .config("spark.dynamicAllocation.maxExecutors", "12")
         .config("spark.driver.maxResultSize", "3g")
         .config("spark.kryoserializer.buffer.max.mb", "2047mb")
         .config("spark.rpc.message.maxSize", "1000mb")
         .getOrCreate())
Run Code Online (Sandbox Code Playgroud)

但我仍然不断收到同样的错误。

我的环境:Python 3.5、Anaconda 5.0、Spark 2

我怎样才能避免这个错误?

rpc message max-size dataframe pyspark

13
推荐指数
3
解决办法
1万
查看次数

如何防止警告:POST内容长度和内存大小

目前,当用户上传照片时,该页面显示"警告:POST内容长度XXX字节超过了第0行未知中21000000字节的限制".

我知道这意味着什么,我不找solultions如增加max_upload值甚至memory_size_limit ......因为用户可以和用户上传的废话TB的,即使你明确地告诉他们,只有20MB的最大文件和图像只允许.

我正在寻找一个解决方案:

  • 如何防止这种警告甚至发生?
    或至少:
  • 如何防止显示此警告?

编辑:请仔细阅读!- 请理解当然我正在处理错误/警告(自第1行以来),问题是这发生在虚拟"行0"上,这就是为什么我需要隐藏错误或阻止它引发 - 因为我不能放发生错误的地方之前的任何代码.

EDIT2:经过长时间的研究和挖掘后,我得到了一个想法 - 它有效 - 看看我自己的答案.

php post file-upload filesize max-size

9
推荐指数
2
解决办法
3万
查看次数

具有超时,最大大小和连接池的http请求

我正在寻找Python(2.7)中的一种方法来执行具有3个要求的HTTP请求:

  • 超时(可靠性)
  • 内容最大尺寸(安全性)
  • 连接池(用于性能)

我已经检查了所有python HTTP库,但它们都不符合我的要求.例如:

urllib2:很好,但没有汇集

import urllib2
import json

r = urllib2.urlopen('https://github.com/timeline.json', timeout=5)
content = r.read(100+1)
if len(content) > 100: 
    print 'too large'
    r.close()
else:
    print json.loads(content)

r = urllib2.urlopen('https://github.com/timeline.json', timeout=5)
content = r.read(100000+1)
if len(content) > 100000: 
    print 'too large'
    r.close()
else:
    print json.loads(content)
Run Code Online (Sandbox Code Playgroud)

请求:没有最大尺寸

import requests
r = requests.get('https://github.com/timeline.json', timeout=5, stream=True)
r.headers['content-length'] # does not exists for this request, and not safe
content = r.raw.read(100000+1)
print content # ARF this is gzipped, so not the real …
Run Code Online (Sandbox Code Playgroud)

python timeout connection-pooling http max-size

8
推荐指数
1
解决办法
1万
查看次数

在Python中,什么是`sys.maxsize`?

我假设这个数字(2^63 - 1)是python可以处理的最大值,或者存储为变量.但这些命令似乎工作正常:

>>> sys.maxsize 9223372036854775807

>>> a sys.maxsize + 1
>>> a 
9223372036854775808
Run Code Online (Sandbox Code Playgroud)

那么有什么意义吗?如果计算结果允许,Python可以处理任意大的数字吗?

请注意,这是我的版本的打印输出:

>>> sys.version
3.5.2 |Anaconda custom (64-bit)| (default, Jul  5 2016, 11:41:13) [MSC v.1900 64 bit (AMD64)]'
Run Code Online (Sandbox Code Playgroud)

python max-size

7
推荐指数
2
解决办法
1万
查看次数

我可以为结构中的字符串字段设置默认最大长度吗?

我的应用程序中有多个使用 golang 的结构。结构中的某些字段具有maxsize标记,有些则没有。例如:

type structone struct {
  fieldone string `valid:MaxSize(2)`
  fieldtwo string 
}

type structtwo struct {
  fieldone string `valid:MaxSize(2)`
  fieldtwo string 
}
Run Code Online (Sandbox Code Playgroud)

因此,如果在运行时不包含任何有效的最大大小标签,我想为所有字段设置默认的最大大小。是否可以?有人可以帮忙吗。

reflection validation struct go max-size

5
推荐指数
1
解决办法
7304
查看次数

指向对象的C++向量 - max_size()

我有班苹果

class apples
{
  private:
      double x;
      double y;
      double z;
  public:
      //some methods
};
Run Code Online (Sandbox Code Playgroud)

我想将指针存储到矢量中的苹果对象.我这样做是为了在任何文件中创建任何对象并使用任何文件中的任何对象.我使用以下代码来确定我可以存储在该向量中的指针的最大数量

int _tmain(int argc, _TCHAR* argv[])
{
vector<apples *> myvector;
cout<<"max :"<<myvector.max_size();
return 0;
}
Run Code Online (Sandbox Code Playgroud)

它给了我:

1073741823
Run Code Online (Sandbox Code Playgroud)

现在,我的问题是,我真的可以在该向量中存储1073741823没有指针,或者这是向量的内存限制(即1073741823字节)吗?

所以如果有2个向量

vector<int> A
& 
vector<double> B
Run Code Online (Sandbox Code Playgroud)

A有1073741823元素和B还有1073741823元素?我要求澄清一点, 矢量可以存储的元素的最大数量不依赖于存储的实体类型(int或double)? (这与向量的当前容量无关!)另外,指向apple对象的指针的大小(不要求苹果对象的大小!)?谢谢.

c++ vector max-size

4
推荐指数
1
解决办法
531
查看次数

hazelcast IMap的Hazelcast 3.4'max-size'属性无法正常工作

我正在使用hazelcast-spring-3.1.xsd。我的hazelcast地图配置如下。

<hz:map name="defaultMap"
                    backup-count="1"
                    max-size="5000"
                    max-size-policy = "PER_NODE"
                    eviction-percentage="50"
                    read-backup-data="true"    
                    eviction-policy="LRU"
                    merge-policy=
                        "com.hazelcast.map.merge.LatestUpdateMapMergePolicy"
                    time-to-live-seconds="0"
                >
Run Code Online (Sandbox Code Playgroud)

我给了max-size = 5000。我有12000条记录,并defaultMap加载12000条记录中,如果我做插入进去。我在这里感到困惑,它如何加载比实际大小5000更多的数据。在插入12000条数据记录时,我也没有例外。

此外,其逐出配置也无法正常工作。如果缓存达到最大大小限制,我想将其驱逐50%。

有谁能够帮助我?非常紧急。我想念什么?

spring max-size hazelcast

4
推荐指数
1
解决办法
2873
查看次数

$_FILES['file']['size'] 对于超过 upload_max_filesize 的文件回显 0(零)

问题是我想检查文件是否太大而无法上传,以便我可以显示相关的错误消息,但是当文件大于 php.ini 中的 upload_max_filesize 时,它​​似乎只显示 0。

为什么会发生这种情况?如何测试文件太大而无法给出相关错误?

php error-handling file-upload max-size

1
推荐指数
1
解决办法
4015
查看次数

sys.maxsize 当前可能的值是什么?

最新的 Python 2 文档中

sys.maxsize

平台的 Py_ssize_t 类型支持的最大正整数,因此列表、字符串、字典和许多其他容器可以拥有的最大大小。

最新的 Python 3 文档中

sys.maxsize

一个整数,给出 Py_ssize_t 类型的变量可以采用的最大值。在 32 位平台上通常是 2**31 - 1,在 64 位平台上通常是 2**63 - 1。

该值sys.maxsize在该文件中使用Python 3文档中指定的值关于Python 2中使用:

  • 2**31 - 1 = 2147483647;
  • 2**63 - 1 = 9223372036854775807。

我的问题是:sys.maxsizePython 2 中可以采用哪些可能的值?这两个部分是可能的值吗?是否还有其他可能的值(例如,在其他平台或操作系统上)?找到它也可以在 Python 3 中使用的可能值会很有趣。

相关问题:

python int max-size python-2.7 python-3.x

1
推荐指数
1
解决办法
1040
查看次数