标签: robotics

相机矩阵中的原理点(编程问题)

在 3x3 相机矩阵中,原理点有什么作用?它的位置是如何形成的?我们可以想象吗?据说主点是光轴与像平面的交点。但为什么它并不总是在图像的中心?我们使用opencv

camera robotics matrix computer-vision 3d-reconstruction

4
推荐指数
1
解决办法
6814
查看次数

关于机器学习/计算机视觉领域的实用方法的问题

我对机器学习,数据挖掘和计算机视觉领域充满热情,我正在考虑进一步研究.

我正在考虑购买LEGO Mindstorms NXT 2.0机器人,试图尝试机器学习/计算机视觉和机器人算法,以试图更好地理解几个现有概念.

你会鼓励我这样做吗?您是否建议使用其他替代方法来理解这些领域的实用方法,这些领域是可接受的昂贵的(近200-250磅)?有没有我可以购买和试验的迷你机器人?

c++ matlab robotics machine-learning computer-vision

4
推荐指数
1
解决办法
453
查看次数

滚动,俯仰,偏航计算

如何计算与均匀变换矩阵相关的滚转角,俯仰角和偏航角?

我目前正在使用以下公式,但我不确定它们是否正确.

pitch = atan2( -r20, sqrt(r21*r21+r22*r22) );
yaw   = atan2(  r10, r00 );
roll  = atan2(  r21, r22 );
Run Code Online (Sandbox Code Playgroud)

r10表示第二行和第一列.

3d robotics

4
推荐指数
1
解决办法
3万
查看次数

进化策略和强化学习之间的区别?

我正在学习机器人强化学习中采用的方法,并遇到了进化策略的概念。但我无法理解 RL 和 ES 有何不同。谁能解释一下?

robotics reinforcement-learning evolutionary-algorithm deep-learning

4
推荐指数
1
解决办法
1710
查看次数

python和ctypes cdll,没有得到预期的函数返回

我正在研究连接触觉机器人和眼动仪的过程.因此,两者都有自己的编程要求,即眼动仪软件基于python,是我编程的主要语言.我们的触觉机器人在C中有一个API,所以我必须在C中编写一个包装器,将其编译为DLL,并在python中使用ctypes来加载这些函数.

我用MATLAB测试了我的DLL,一切正常.但是,当我查询机器人的位置坐标时,我在python类中实现ctypes的一些事情并没有给我预期的返回值.

我将在这里发布代码,并在底部更清楚地解释问题.

DLL包装器的C源代码:

#include <QHHeadersGLUT.h>
using namespace std;
class myHapClass{
public:
void InitOmni()
{
    DeviceSpace* Omni = new DeviceSpace; //Find a the default phantom
}
double GetCoord(int index)
{
    HDdouble hapPos[3];
    hdGetDoublev(HD_CURRENT_POSITION,hapPos);
    return hapPos[index];
}
};

extern "C" {
int index = 1;
__declspec(dllexport) myHapClass* myHap_new(){ return new myHapClass();}
__declspec(dllexport) void myHapInit(myHapClass* myHapObj){ myHapObj->InitOmni();}
__declspec(dllexport) double myHapCoord(myHapClass* myHapObj){ double nowCoord = myHapObj->GetCoord(index); return nowCoord;}
}
Run Code Online (Sandbox Code Playgroud)

这段代码的理论只是让3个可用的C(而不是C++)调用与python/ctypes兼容:

  1. myHap_new()返回指向该类实例的指针
  2. myHapInit初始化触觉设备
  3. myHapCoord返回int index引用的轴的当前位置的double.

python类如下:

import sreb
from ctypes import cdll
lib = …
Run Code Online (Sandbox Code Playgroud)

python robotics ctypes

3
推荐指数
1
解决办法
2263
查看次数

检测2D阵列中的块区域

在下面绘制的2D数组中,我们有兴趣找到"肿块"区域.正如您所看到的,它不是一个连续的图形.此外,我们知道"肿块"区域的大致尺寸.下面给出了一组数据.第一列包含y值,第二列包含x值.关于如何检测像这样的肿块区域的任何建议?

在此输入图像描述

   21048        -980
   21044        -956
   21040        -928
   21036        -904
   21028        -880
   21016        -856
   21016        -832
   21016        -808
   21004        -784
   21004        -760
   20996        -736
   20996        -712
   20992        -684
   20984        -660
   20980        -636
   20968        -612
   20968        -588
   20964        -564
   20956        -540
   20956        -516
   20952        -492
   20948        -468
   20940        -440
   20936        -416
   20932        -392
   20928        -368
   20924        -344
   20920        -320
   20912        -296
   20912        -272
   20908        -248
   20904        -224
   20900        -200
   20900        -176
   20896        -152
   20888        -128
   20888        -104
   20884         -80
   20872         -52
   20864 …
Run Code Online (Sandbox Code Playgroud)

matlab robotics image-processing computer-vision computational-geometry

3
推荐指数
1
解决办法
343
查看次数

使用机器学习进行简单的机器人控制

我想通过机器学习改进我的小机器人.

到目前为止,它使用简单的,如果然后在其主要功能的决定充当草坪割草机器人.

我的想法是将SKLearn用于此目的.

请帮我找到正确的第一步.

我有几个传感器告诉世界:

World = {yaw,pan,tilt,distance_to_front_obstacle,ground_color}

我有一个状态向量

State = {left_motor,right_motor,cutter_motor}

控制机器人的3个演员.

我想构建一个输入和输出值的数据集来教导sklearn所希望的行为,之后输入值应该为actor提供正确的输出值.

一个例子:如果电机开启且机器人应向前移动但距离计指示恒定值,则机器人似乎被阻挡.现在应该决定退回并转向另一个方向.

首先,你认为这是可能的sklearn和第二我应该如何开始?

我的(简单)机器人控制代码在这里:http://github.com/bgewehr/RPiMower

请帮我完成第一步!

python robotics machine-learning scikit-learn

3
推荐指数
1
解决办法
1508
查看次数

公钥不可用

我正在按照以下步骤在运行Raspbian GNU7Linux 8(Jessie)的Raspberry Pi 3 Model B上安装ROS Kinetic 。

设置存储库,我得到以下输出:

Executing: gpg --ignore-time-conflict --no-options --no-default-keyring --homedir /tmp/tmp.vAO4o1tMMY --no-auto-check-trustdb --trust-model always --keyring /etc/apt/trusted.gpg --primary-keyring /etc/apt/trusted.gpg --keyserver hkp://ha.pool.sks-keyservers.net:80 --recv-key 0xB01FA11
Run Code Online (Sandbox Code Playgroud)

当尝试运行sudo apt-get更新时,出现此错误:

W: GPG error: http://packages.ros.org jessie InRelease: The following signatures couldn't be verified because the public key is not available: NO_PUBKEY 5523BAEEB01FA116
Run Code Online (Sandbox Code Playgroud)

有人在添加公钥时遇到问题吗?

robotics raspberry-pi ros raspbian

3
推荐指数
1
解决办法
3187
查看次数

OpenAI Gym和Gazebo测试机器人技术的RL算法?

如果我想研究机器人技术RL算法,应该如何使用Gazebo OpenAI Gym进行测试,训练和基准测试?我应该从OpenAI Gym入手,然后将具有良好分数的算法带入Gazebo环境中以应对现实情况吗?

benchmarking robotics reinforcement-learning ros openai-gym

3
推荐指数
1
解决办法
928
查看次数

视觉SLAM中过滤方法与增量SFM的未来是什么

在Visual SLAM领域,有著名的EKF/UKF/Particle-SLAM解决方案,比如“mono-slam”。

最近,有一个本地捆绑调整方法的方向,如lsd-slam 或 orb-slam ..

我的问题是:

过滤方式是否还有未来或稳定的使用?在哪些应用中?有什么优点/缺点?

我阅读了这些论文,但未能得出最终答案,(主要是出于误解):

  1. 视觉SLAM:为什么要过滤?

  2. 同时定位和测绘的过去、现在和未来

PS:我知道第一个是说Local BA更好,第二个很少提到过滤,所以..,就是这样..,这是Visual-SLAM领域令人敬畏的卡尔曼过滤器的终结吗?!

robotics slam-algorithm kalman-filter

3
推荐指数
1
解决办法
630
查看次数