标签: pixels

用于找出圆周上的像素坐标的算法

如果我知道圆的中心,圆的半径和垂直角的像素坐标,我如何在圆周上找出一定程度的像素值.基本上,我试图在不同的时间(1点钟,2点钟等)画一个时钟的手

math geometry pixels

8
推荐指数
2
解决办法
6358
查看次数

从OpenGL/GLUT应用程序中读取像素

我有一个使用OpenGL和GLUT在屏幕上显示一些内容的应用程序.我想访问"逐个像素"显示的颜色,但我无法理解所提供的方法.

似乎访问这些数据的方法是使用函数: readPixels :: Position -> Size -> PixelData a -> IO () 这肯定是非Haskelly,因为它使用C模式获取目标指针并写入该指针.

第三个参数是重要的部分,它的构造就像PixelData PixelFormat DataType (Ptr a). PixelFormat并且DataType都是枚举,前者采取的价值观RGBAInteger, RGBA, CMYK, etc和后者采取的价值如UnsignedByte, Short, Float, etc. 选择令我困惑,但这不是真正的问题.我真正在努力使用指针.我不知道要创建指针的Storable数据类型malloc,或者如果我选择使用要分配多少字节mallocBytes.

我有一个我正在搞乱的功能,目前看起来像这样:

pixels :: IO ()
pixels = do
    pointer <- mallocBytes 50000
    let pdata = PixelData RGBA Int pointer
    let pos = Position 0 0
    let siz = Size 10 10
    readPixels pos siz pdata
    print pdata
    mypixels <- …
Run Code Online (Sandbox Code Playgroud)

opengl haskell pointers pixels

8
推荐指数
1
解决办法
807
查看次数

如何找出每英寸网页查看器的像素数?

任何人都可以想到一种方法,我可以发现用户每英寸像素?我希望确保在网络浏览器中的图像显示确切大小我需要它,所以使用分辨率的组合,(我可以从用户代理获得)和每英寸的像素数,我可以做到这一点.

但是,我不确定是否有任何方法可以发现每英寸用户像素,理想情况下使用JavaScript或其他一些非侵入性方法.

有什么建议?

谢谢,

CJ

browser size screen pixels

7
推荐指数
2
解决办法
7953
查看次数

所有像素的高效像素着色器总和

如何使用HSLS像素着色器有效地计算图像中所有像素的总和?我对Pixel Shader 2.0很感兴趣,我可以调用它作为WPF着色器效果.

c# wpf hlsl pixels pixel-shader

7
推荐指数
2
解决办法
2244
查看次数

在OpenCV中选择强度最高的像素

任何人都可以帮助我在opencv中找出前1%(或前100像素)最亮像素及其灰色图像的位置.因为cvMinMaxLoc()只给出最亮的像素位置.

任何帮助是极大的赞赏.

c++ opencv image-processing pixels

7
推荐指数
1
解决办法
4831
查看次数

Android OpenGL截图

我已经搜索了很多关于在Android上截取我的OpenGL对象的截图并提出这个解决方案.它工作得很好,但在我的情况下,我在摄像机视图顶部有摄像机视图和opengl视图(透明背景).所以我想做的是获得透明背景而不是黑色的opengl截图.正如我所说,我已经尝试过上面的链接并且它有效但我仍然坚持黑色背景.在这种特殊情况下弄清楚如何摆脱黑色背景有点复杂.希望有人可以帮助我,如果可能的话尽快帮助我(我认为解决方案很简单,我只是简单地遗漏了一些东西).谢谢.

android screenshot opengl-es pixels

7
推荐指数
2
解决办法
1万
查看次数

如何确定和解释CGImage的像素格式

我使用以下方法加载此(非常小)的图像:

UIImage* image = [UIImage named:@"someFile.png"];
Run Code Online (Sandbox Code Playgroud)

图像为4x1,按顺序从左到右包含红色,绿色,蓝色和白色像素.

接下来,我从底层CGImage中获取像素数据:

NSData* data = (NSData*)CGDataProviderCopyData(CGImageGetDataProvider(image.CGImage));
Run Code Online (Sandbox Code Playgroud)

现在,出于某种原因,像素数据的布局取决于iOS设备.

当我在模拟器或iPhone 4上运行应用程序时,像素数据如下所示:

(255,0,0),(0,255,0),(0,0,255),(255,255,255)

因此,像素为每像素3个字节,蓝色为最高有效字节,红色为最低有效字节.所以我想你称之为BGR?

当我检查CGBitmapInfo时,我可以看到kCGBitmapByteOrderMask是kCGBitmapByteOrderDefault.我无法找到解释"默认"的地方.

另一方面,当我在我的第一代iPhone上运行时,像素数据如下所示:

(0,0,255,255),(0,255,0,255),(255,0,0,255),(255255255255)

因此每个通道4个字节,alpha作为最重要的字节,蓝色作为最不重要的字节.所以......这叫做ARGB?

我一直在查看CGBitmapInfo,了解如何检测布局的线索.在第一代iPhone上,kCGBitmapAlphaInfoMask是kCGImageAlphaNoneSkipFirst.这意味着忽略了最重要的位.这是有道理的.在第一代iPhone上,kCGBitmapByteOrderMask是kCGBitmapByteOrder32Little.我不知道这意味着什么或如何将它与R,G和B组件如何在内存中布局相关联.任何人都可以对此有所了解吗?

谢谢.

iphone pixels quartz-graphics cgimage ios

7
推荐指数
1
解决办法
6032
查看次数

需要更快的方法来获取缓冲图像的每个像素的RGB值

获取每个像素的RGB值的最快方法是BufferedImage什么?

现在我使用两个for循环获取RGB值,如下面的代码所示,但是由于嵌套循环运行总共479999次,因此获取这些值花费的时间太长.如果我使用16位图像,这个数字会更高!

我需要一种更快的方法来获取像素值.

这是我目前正在尝试使用的代码:

BufferedImage bi=ImageIO.read(new File("C:\\images\\Sunset.jpg"));

int countloop=0;  

for (int x = 0; x <bi.getWidth(); x++) {
    for (int y = 0; y < bi.getHeight(); y++) {
        Color c = new Color(bi.getRGB(x, y));
        System.out.println("red=="+c.getRed()+" green=="+c.getGreen()+"    blue=="+c.getBlue()+"  countloop="+countloop++);                                                                                                                                                  
    }
}
Run Code Online (Sandbox Code Playgroud)

java image-processing pixels

7
推荐指数
2
解决办法
2万
查看次数

UILabel自动布局切割底部像素

我是UITableCellView从xib 构建的.此xib使用autolayout和两个UILabel连接到superview 并具有垂直约束.

不幸的是,它正在切割底部的像素UILabel: 在此输入图像描述

我错过了什么?

UPD.Xcode给了我错误:Set vertical compression resistance priority to 749.如果我使用抗压优先级,我会先得到标签.

pixels uilabel ios autolayout

7
推荐指数
1
解决办法
1323
查看次数

突出显示图像之间的差异

我应该修改这个图像比较代码,以突出显示/指出两个图像之间的差异.有没有办法修改此代码,以突出显示图像的差异.如果没有任何关于如何去做的建议将不胜感激.

 int width1 = img1.getWidth(null);
            int width2 = img2.getWidth(null);
            int height1 = img1.getHeight(null);
            int height2 = img2.getHeight(null);
            if ((width1 != width2) || (height1 != height2)) {
                System.err.println("Error: Images dimensions mismatch");
                System.exit(1);
            }
            long diff = 0;
            for (int i = 0; i < height1; i++) {
                for (int j = 0; j < width1; j++) {
                    int rgb1 = img1.getRGB(j, i);
                    int rgb2 = img2.getRGB(j, i);
                    int r1 = (rgb1 >> 16) & 0xff;
                    int g1 = (rgb1 >> 8) …
Run Code Online (Sandbox Code Playgroud)

java image pixel image-processing pixels

7
推荐指数
2
解决办法
1万
查看次数