有办法得到
- (void)beginGestureWithEvent:(NSEvent *)event
Run Code Online (Sandbox Code Playgroud)
和
- (void)endGestureWithEvent:(NSEvent *)event
Run Code Online (Sandbox Code Playgroud)
即使包含窗口在后台,也会调用视图?看来这些调用只有在关键时才会传递给Windows.
有什么方法可以在任何角度检测iPhone中的滑动吗?UISwipeGestureRecognizer似乎只有4个方向.
如果我这样滑动:
\
\
\
X
Run Code Online (Sandbox Code Playgroud)
我希望它给我一些像60度的东西,而不仅仅是像UISwipeGestureRecognizer.
我怎样才能做到这一点?
我有一个基于标签主机并使用片段的项目,
在一个选项卡上它有一个listFragment,用户点击一个单元格并转到另一个片段,
从那里用户可以在该标签的片段之间滑动,
我让项目工作,直到我去listFragment的单元格,
我需要检测向左或向右滑动以相应地更改碎片,
我的代码:
public class PrepareSkin extends Fragment implements OnGestureListener{
private static final int SWIPE_MIN_DISTANCE = 120;
private static final int SWIPE_MAX_OFF_PATH = 250;
private static final int SWIPE_THRESHOLD_VELOCITY = 200;
private GestureDetector gestureScanner;
@Override
public View onCreateView(LayoutInflater inflater, ViewGroup container,
Bundle savedInstanceState) {
gestureScanner = new GestureDetector(this);
// TODO Auto-generated method stub
View myFragmentView = inflater.inflate(R.layout.prepare_skin, container, false);
Log.i("Mirko", "CREATO <<");
return myFragmentView;
}
public boolean onTouchEvent(MotionEvent me)
{
return gestureScanner.onTouchEvent(me);
}
@Override
public boolean onDown(MotionEvent …Run Code Online (Sandbox Code Playgroud)
我现在正在与Kinect合作开展工人支持项目.
我想使用Kinect来检测工作过程中指定运动的开始/结束时刻.
例如:
将圆圈绘制成纸张(在桌子上)的工作过程有一些步骤:(测试者)从桌子拿起笔,画圆圈,在桌子上放回笔,换纸,......(重复多次).
我想检测测试仪开始和完成绘制圆的时刻.
我必须提出一种高精度算法,该算法不依赖于测试仪的位置和大小.
你能给我一些想法吗?
谢谢你的帮助(抱歉我的英文)!
我有一个listview充满了的习惯webview.我想使用捏缩放/缩小我的webview.但是当我捏住webview它时,我没有灵活地进行缩放放大/缩小,从而触发listview's向上和向下滚动.
如何同时处理listview和捏合滚动UP/DOWN事件webview.
这是我的 listview_layout.xml
<RelativeLayout xmlns:android="http://schemas.android.com/apk/res/android"
xmlns:tools="http://schemas.android.com/tools"
android:layout_width="match_parent"
android:layout_height="match_parent" >
ListView
android:id="@+id/listReader"
android:layout_width="match_parent"
android:layout_height="fill_parent"
android:layout_below="@+id/readerHeader"
android:divider="@android:color/background_dark"
android:dividerHeight="5dp" >
</ListView>
Run Code Online (Sandbox Code Playgroud)
这是我的 webview_layour.xml
<?xml version="1.0" encoding="utf-8"?>
<RelativeLayout xmlns:android="http://schemas.android.com/apk/res/android"
android:layout_width="match_parent"
android:layout_height="match_parent"
android:orientation="vertical" >
<WebView
android:id="@+id/webView1"
android:layout_width="fill_parent"
android:layout_height="fill_parent"
android:layout_alignParentTop="true"
android:layout_centerHorizontal="true"
android:clickable="true"
android:focusable="false"
android:focusableInTouchMode="false"
android:scrollbars="none" />
</RelativeLayout>
Run Code Online (Sandbox Code Playgroud)
这是我的 java file
public class WebViewBookReader extends Activity {
static final String URL = "http://www.XXXXXXXX.com/requesthandler.ashx";
static final String KEY_ITEM_LOGIN = "Result"; // parent node …Run Code Online (Sandbox Code Playgroud) android listview gesture-recognition android-webview pinchzoom
这是一个简单的问题,我认为这个问题很容易找到,但却没有.我想在collectionview中选择一个单元格.主要问题是我无法将手势识别器附加到原型单元.我想从触摸的单元格上的标签中抓取文本.我在视图中使用了不同功能的名称.
或者一个更简单的问题:是否有关于项目列表中的点击选择的教程?
objective-c gesture-recognition selection ios uicollectionviewcell
我目前正在开发一个手势识别应用程序,使用隐马尔可夫模型作为matlab上的分类阶段(使用网络摄像头).我已经完成了预处理部分,其中包括特征向量的提取.我已将主成分分析(PCA)应用于这些向量.
现在让我使用Kevin Murphy的HMM工具箱,我需要我的观察序列是数字(整数)的形式,范围从1到M(M =观察符号的数量).如果我是正确的那么我必须使用码本的概念并使用矢量量化来获得我的观察序列.
我的问题:
注意:我使用Elliptical Fourier描述符进行形状特征提取,并且对于每个手势,PCA值存储在维度矩阵[11x220]中(视频中的帧数= 11)
接下来我该怎么办?有没有其他方法来获得特征向量而不是椭圆傅里叶描述符?
matlab quantization gesture-recognition k-means hidden-markov-models
我正在考虑用Kinect制作一个项目,让我的奶奶控制她的电视而不会被遥控器吓倒.所以,我一直在研究基本的手势识别.目的是当程序检测到右手正在"挥动"时,通过向电视发送正确的红外代码来打开电视的音量.
问题是,无论我在哪里,我似乎都找不到基于Linux的教程,该教程展示了如何通过手势做某事.另外需要注意的是,除了调试窗口之外,我不需要任何GUI,因为这会使我的程序慢下来.
有没有人知道某个地方允许我循环,不断检查一些手势,什么时候,我可以控制一些东西,而不需要任何GUI,在Linux上?:/
我很乐意选择任何语言,但我的经验围绕着Python和C.
我们将非常感谢您的任何帮助.
提前致谢
马特
我正在开发一个Windows应用程序,允许用户使用Kinect传感器与他的计算机完全交互.用户应该能够向应用程序讲授他自己的手势,并为每个人分配一些Windows事件.在学习过程之后,应用程序应该检测用户的移动,并且当它识别出已知的手势时,应该触发分配的事件.
关键部分是自定义手势识别器.由于手势是用户定义的,因此无法通过将所有手势直接硬编码到应用程序中来解决问题.我已经阅读了许多讨论这个问题的文章,但是没有一篇文章给出了我的问题的答案:哪种算法最适合学习和识别用户定义的手势?
我正在寻找的算法是:
请注意,结果不一定是完美的.如果算法不时识别出错误的手势,则比算法运行缓慢更可接受.
我目前正在决定3种方法:
您认为哪种方法最适合我正在尝试的方法?或者这个问题有其他解决方案吗?我很感激能够推动我前进的任何建议.谢谢.
(我正在使用Kinect SDK.)
我有一个UIButton表单,并希望在表单不完整时将其置于禁用状态.不过,我还是希望能够如果用户试图按即使在其禁用状态的按钮,使界面可以让用户知道形式不补齐尚未对某些必填字段检测(也许滚动那个领域并指出它,等等).
似乎没有任何直接的方法来做到这一点.我试着简单的连接一UITapGestureRecognizer到UIButton,但是当按钮处于禁用状态时,它没有响应.
我想UIButton尽可能避免使用子类化,除非这是唯一的方法.
ios ×3
kinect ×3
android ×2
c# ×2
objective-c ×2
appkit ×1
cocoa ×1
cocoa-touch ×1
k-means ×1
kinect-sdk ×1
linux ×1
listview ×1
matlab ×1
nsview ×1
openkinect ×1
pinchzoom ×1
quantization ×1
selection ×1
swipe ×1
uibutton ×1
wpf ×1