如果你在一个表中有这么多条目,那么2 ^ 32对于你在给定时期内(一天,一周,一个月......)的auto_increment ID是不够的呢?
如果MySQL提供的最大数据类型是不够的怎么办?
我想知道我应该如何解决我的表中添加了如此多的条目需要唯一ID的情况,但是我在一段时间内填写了我的数据类型?
我如何能够在MySQL(或任何其他系统)内部实现无限量的唯一ID,或至少以指数方式增加它?
理想情况下,我会期待类似的东西
> SELECT * FROM table;
+---+------+
| a | b |
+---+------+
| 1 | 1 |
| 1 | 2 |
| 1 | 3 |
|...| .... |
|...| .... |
| 1 | 2^32 |
| 2 | 1 |
| 2 | 2 |
+---+------+
Run Code Online (Sandbox Code Playgroud)
这会以指数方式增加条目数量.
你如何应对这种情况?
请记住 - 要求是为任何条目提供唯一ID.
我希望[0-9A-Z]+?
以后能够处理所有事情.我有
if [[ `cat file` =~ '[0-9A-Z]+?' ]]; then
echo $BASH_REMATCH;
fi
Run Code Online (Sandbox Code Playgroud)
这给了我第一场比赛,但我怎么能处理文件中的所有比赛?
谢谢
我想知道在推送你的应用程序的实时新版本时,你如何处理显示发布版本号?
您可以$Rev$
在文件中使用以获取最新版本,但只能在更新文件后使用.
如果我每次更改存储库/目录中的任何文件时都想更新一个文件中的字符串,该怎么办?
有办法吗?
特别是对于新的 aws-sdk v3,@aws-sdk/client-s3
我不清楚如何将文件从 S3 存储到磁盘。
有以下代码
const { Body } = await s3.send(new GetObjectCommand({
Bucket: 'myBucket',
Key: 'myKey',
}))
Run Code Online (Sandbox Code Playgroud)
的Body
可以是类型的Readable | ReadableStream | Blob
。
我想将其存储到磁盘上的文件中。由于返回类型完全不同,是否有一种简单的方法可以例如从 aws-sdk获取 aBuffer
或Stream.Readable
?
在 aws-sdk v2 中.createReadStream()
,似乎不再存在的功能很容易。