我正在编写一个iPhone应用程序,并且需要在photoshop中实现与"eyedropper"工具相当的东西,在那里你可以触摸图像上的一个点并捕获相关像素的RGB值,以确定和匹配它的颜色.获取UIImage是一个简单的部分,但有没有办法将UIImage数据转换为位图表示,我可以在其中提取给定像素的信息?一个工作代码示例将是最受欢迎的,并注意我不关心alpha值.
我想检查一下我UILabel是否感动了.但我还需要更多.文字被触动了吗?现在我只有在UILabel使用这个触摸框架时才会得到true/false :
- (void)touchesEnded:(NSSet *)touches withEvent:(UIEvent *)event
{
UITouch *touch = [[event allTouches] anyObject];
if (CGRectContainsPoint([self.currentLetter frame], [touch locationInView:self.view]))
{
NSLog(@"HIT!");
}
}
Run Code Online (Sandbox Code Playgroud)
有没有办法检查这个?一旦我触摸到信件外面的某个地方,UILabel我就会想要归还.
我想知道实际黑色渲染的"文字像素"何时被触及.
谢谢!
有没有办法从MKMapView确定你所在的区域?也就是说,如果地图的中心位于海洋中,我们可以告诉用户:地图的中心位于海洋上方,或者如果地图位于绿色区域的中心:地图的中心位于公园之上......
我能想到的唯一方法是创建可见屏幕的屏幕截图并使用以下方法分析每个位的颜色:iOS - 检测像素的颜色?
但是我想知道是否有人能想到的更简单的方法!
编辑
为了让我更清楚我正在寻找什么,我基本上是在寻找一种方法将地图的一部分变成游戏的自上而下的水平,不同的区域由地图的区域决定......
ios ×2
iphone ×2
bitmap ×1
cocoa-touch ×1
image ×1
ipad ×1
mapkit ×1
mkmapview ×1
objective-c ×1
uilabel ×1