标签: time-precision

比较不同机器产生的 System.nanoTime() 值

比较在两台不同机器上调用 System.nanoTime() 产生的两个值是否正确?我会说不,因为 System.nanoTime() 通过使用依赖于处理器的时间戳计数器 (TSC)返回相对于某个任意点时间的纳秒级精确时间。

如果我是对的,有没有办法(在 Java 中)在两台不同的机器上捕获瞬间并(安全地)以至少微秒精度甚至纳秒精度比较这些值?

System.currentTimeMillis() 不是解决方案,因为它没有返回线性增加的时间戳数。用户或NTP等服务可以随时更改系统时钟,时间会前后跳跃。

java distributed-computing time-precision nanotime

5
推荐指数
1
解决办法
1759
查看次数

C#和SQL Server中的DateTimeOffset分辨率

文档指出,在.NET和SQL Server中,分辨率均为100ns。

DateTimeOffset值的时间分量以100纳秒单位(称为刻度)进行度量 -C# 精度-100纳秒 -SQL Server

但是SQL似乎删除了最后一位数字(例如,我试图保存2013-08-15 09:19:07.2459675 -04:00,SQL保存2013-08-15 09:19:07.2459670 -04:00-通知最后一位数字发生变化。)

这发生在同一台计算机上,因此与硬件无关。

并不是我真的需要这个解决方案,但是它使比较日期变得更加困难..我很好奇。

.net c# time-precision datetimeoffset sql-server-2008

5
推荐指数
1
解决办法
8452
查看次数

Java ScheduledExecutorService BAD Precision

您好,我已经编写了一个简单的程序来测试ScduledExecutorService.schedule()函数的精度.

测试设置延迟并检查所需延迟和有效结果之间的有效距离.

该测试已在运行Linux 3.8 x86_64的i7机器上执行,包括OpenJDK 1.7和Oracle JDK 1.7

测试的结果非常糟糕,这里有一个列表,显示假定和有效延迟之间的平均增量:


传说:

  • 睡眠(ms):所需的延迟(以毫秒为单位)
  • deltaAVG(ms):以毫秒为单位获得的所需和有效延迟之间的平均差异
  • deltaAVG_PERC:所需/有效的错误百分比
  • delta MIN/MAX:获得的所需和有效延迟之间的最小/最大差异

Sleep(ms): 0.010 deltaAVG(ms): 0.029 deltaAVG_PERC: 0289.6 % delta MIN/MAX (ms): 0.029/0.029
Sleep(ms): 0.020 deltaAVG(ms): 0.061 deltaAVG_PERC: 0299.3 % delta MIN/MAX (ms): 0.006/4.578
Sleep(ms): 0.030 deltaAVG(ms): 0.066 deltaAVG_PERC: 0221.1 % delta MIN/MAX (ms): 0.009/1.639
Sleep(ms): 0.040 deltaAVG(ms): 0.066 deltaAVG_PERC: 0165.3 % delta MIN/MAX (ms): 0.010/0.445
Sleep(ms): 0.050 deltaAVG(ms): 0.069 deltaAVG_PERC: 0138.0 % delta MIN/MAX (ms): 0.006/0.370
Sleep(ms): 0.060 deltaAVG(ms): 0.067 deltaAVG_PERC: 0111.8 …
Run Code Online (Sandbox Code Playgroud)

java time-precision scheduledexecutorservice

5
推荐指数
2
解决办法
1315
查看次数

Actionscript 3高精度时间法(微秒)?

我需要一个高精度的时间方法,以微秒而不是毫秒为actionscript,遗憾的是我在网上找不到太多的帮助.

我需要这样的控制,以便在转换中实现固定时间步的使用,如本文所述:http://gafferongames.com/game-physics/fix-your-timestep/,以解决我在优化中描述的问题2D Flash游戏的过渡/移动平滑度

有什么建议?

timestamp time-precision flex3 actionscript-3

4
推荐指数
1
解决办法
2938
查看次数

threading.Timer时间精度

Python的threading.Timer时间准确度取决于什么?

它取决于使用的操作系统吗?
它取决于使用的Python实现吗?
它取决于间隔吗?
如何进行基准测试?
那里有基准吗?

python timer time-precision

3
推荐指数
1
解决办法
1567
查看次数

将linux时间设置为毫秒精度

我有一个嵌入式Linux设备,通过串行通信协议与另一个"主"设备连接.主设备定期将其日期传递给从设备,因为稍后从设备将向主设备返回需要准确加时间戳的信息.但是,Linux'date'命令仅将系统日期设置为第二精度.这对我们的用途来说还不够.

有谁知道如何设置Linux机器的时间比1秒钟更精确?

linux date system time-precision

3
推荐指数
1
解决办法
4133
查看次数

将 time_t 设置为毫秒

我有一个函数,我希望该函数在运行了一定的毫秒数后停止运行。这个函数可以工作几秒钟,但我想测试它几毫秒。我该怎么做呢?如果我设置消除 = 1,它对应于 1 秒。我如何设置消除 = 5 毫秒?

功能:

void clsfy_proc(S_SNR_TARGET_SET pSonarTargetSet, unsigned char *target_num, time_t eliminate)
{

    // get timing
    time_t _start = time(NULL);
    time_t _end = _start + eliminate;
    int _eliminate = 0;

    //some code

        time_t start = time(NULL);
        time_t end = start + eliminate;

        for(_tidx = 0; _tidx < pSonarTargetSet[_i].num; _tidx++) {
            // check timing
            time_t _current = time(NULL);
            if (_current > _end) {
                printf("clsfy_proc(1), Eliminate due to timeout\n");
                _eliminate = 1;
                break;
            }

            //some code 

        if …
Run Code Online (Sandbox Code Playgroud)

c time time-precision

2
推荐指数
1
解决办法
3669
查看次数