我目前正在为我的最后一年项目开发一个Android应用程序,这应该可以帮助自闭症患者通过触摸人体图片来指示什么时候有什么疼.
我遇到的问题是我不知道如何识别他们触摸的图像部分.图像是位图,在ImageView中作为BitmapDrawable保存.第一次被触摸,它通过动画和setFilledAfter(真实)放大,并且当触摸一个区域时应用程序应该识别身体的主要部分(例如头部,左手......).
要识别的区域不是方形的,因此检查坐标不是一个真正的选择.我正在考虑让每个部分被识别为在原始图片上绘制的不同视图,但我也打开其他解决方案.
为了让事情更有趣,应用程序应该可以在手机和平板电脑上的不同设备和分辨率上运行.
非常感谢您的帮助.真的需要和赞赏.
编辑
最后我将尝试的是以下内容.我将有两个图像副本,一个用于显示目的,另一个用于内部,我想要识别的区域用不同颜色绘制.所以计划是推断我从Touch事件获得的坐标,找出它对应于原始的像素,使用Bitmap.getPixel()来确定它的颜色,然后有一个case语句返回每个部分的字符串.
我正在编码这个,如果有人有兴趣留言,我会发布一切都解决了,我有人要求它甚至适当的代码:D
感谢Shade为我提供了一些其他选择.