是否可以使用Cordova相机API拍摄照片,然后将其本地存储在iOS和Android的相机胶卷中?我知道它可能,但它是否以某种方式涉及本机代码,还是可以用纯HTML完成?文档没有说明这一点.
我在尝试通过mCamera = Camera.open();选项打开相机时收到错误.错误说:The method open() undefined for the type Camera
以下方法也会出现相同的错误:
mCamera.setPreviewDisplay(holder);
mCamera.startPreview();
mCamera.stopPreview();
mCamera.lock();
mCamera.release();
Run Code Online (Sandbox Code Playgroud)
请有人帮我这个吗?
在我的应用程序中,我使用AVFoundation捕获图像
我做了一个按钮,在前后摄像头之间切换,但是不起作用.
这是我使用的代码:
if (captureDevice.position == AVCaptureDevicePositionFront) {
for ( AVCaptureDevice *device in [AVCaptureDevice devicesWithMediaType:AVMediaTypeVideo] ) {
if ( device.position == AVCaptureDevicePositionBack) {
NSError * error;
AVCaptureDeviceInput * newDeviceInput = [[AVCaptureDeviceInput alloc]initWithDevice:device error:&error];
[captureSesion beginConfiguration];
for (AVCaptureDeviceInput *oldInput in [captureSesion inputs]) {
[captureSesion removeInput:oldInput];
}
if ([captureSesion canAddInput:newDeviceInput]) {
[captureSesion addInput:newDeviceInput];
}
[captureSesion commitConfiguration];
break;
}
}
}
Run Code Online (Sandbox Code Playgroud)
谢谢.
我很抱歉,如果之前有人提出这个问题,我会搜索,但我找不到答案.
我的问题是,我想在所有3个轴上进行移动,相机的X和Y旋转是相关的.
这就是我做的:
private static void fly(int addX, int addY){ //parameters are the direction change relative to the current rotation
float angleX = rotation.x + addX; //angle is basically the direction, into which we will be moving(when moving forward this is always the same as our actual rotation, therefore addX and addY would be 0, 0)
float angleY = rotation.y + addY;
float speed = (moveSpeed * 0.0002f) * delta;
float hypotenuse = speed; //the length that is SUPPOSED TO …Run Code Online (Sandbox Code Playgroud) 我正在开发一个应用程序,用户可以通过我的CameraActivity(SurfaceView + Camera)拍摄照片并保存.之后,将处理位图.
说让我带你了解细节.图片拍摄时间:
mCamera.takePicture(null, null, new PictureCallback() {...}
Run Code Online (Sandbox Code Playgroud)
我没有指定.jpeg质量.
使用HTC One S进行测试,拍摄照片然后保存.图片大小永远不会超过100kb
使用三星GT-I9000进行测试,拍摄照片然后保存,但这里的差异是尺寸,超过1,2Mb.
因为我需要处理后面的位图,当我尝试解码bimap来处理它时,我对GT-I9000 有一些OutOfMemory问题:
try {
FileInputStream fis = new FileInputStream(new File(imagePath));
Bitmap savedPicture = BitmapFactory.decodeStream(fis);
Run Code Online (Sandbox Code Playgroud)
我试图改变,Camera Parameters .setJpegQuality(quality)但我没有产生巨大的变化.
图像将占用所有的屏幕大小,我使用这种方法有效地加载大位图 它工作,我摆脱了OutOfMemory Exceptions但我仍然有一些问题:
设备之间的文件大小差异?我认为HTC One S比GT-I9000好,为什么不保存更大的图片呢?
图像分辨率,HTC One S 640x480,GT-I9000 2560x1920为什么?那回答第一个问题,但为什么会这样呢?
谢谢你的时间 ;)
我会感到愚蠢,但我到处寻找并没有找到答案.我已经能够使用默认相机的控件拉出"编辑"视图.然而,我在它上面添加了一个叠加层,我有一个UIButton连接到IBAction拍照,看起来像[UIImagePickerController takePicture].
但是,即使我设置允许编辑为YES,它也完全跳过编辑部分.是否有另一个命令来调用它?现在,它只是直接到didFinishPickingMediaWithInfo.
camera.sourceType = UIImagePickerControllerSourceTypeCamera;
camera.cameraDevice = UIImagePickerControllerCameraDeviceRear;
camera.showsCameraControls = NO;
camera.navigationBarHidden = YES;
camera.toolbarHidden = YES;
camera.wantsFullScreenLayout = NO;
camera.allowsEditing = YES;
camera.cameraOverlayView = overlay;
[self presentViewController:camera animated:YES completion:nil];
Run Code Online (Sandbox Code Playgroud)
然后在IBAction
[camera takePicture];
Run Code Online (Sandbox Code Playgroud) 我的视频在我的手机上显示photocapture设备的方向有问题.它实际上应该像内置相机应用程序一样灵活,这意味着它应该工作
其中至少有一个总是错误的.我尝试了https://projects.developer.nokia.com/cameraexplorer以使它工作,但即使它有最好的方法,它不适合我在不同的页面方向和前置摄像头旋转错误的方式(逆时针旋转时我旋转我的顺时针拨打电话,所以我倒过来了.
是否有任何代码片段与完整的工作相机videobrush?
我正在使用libgdx,我有一个平铺地图,我想将精灵绘制到.然而精灵被绘制到实际窗口上,所以当我移动相机时,精灵停留在同一个地方.?我希望精灵在地图上移动.
这就是我目前渲染我的对象的方式
@Override
public void render(float delta) {
translateCamera();
Gdx.gl.glClearColor(0, 0, 0, 1);
Gdx.gl.glClear(GL10.GL_COLOR_BUFFER_BIT);
camera.update();
renderer.setView(camera);
renderer.render(bgLayers);
batch.begin();
batch.draw(splayerSprite, Gdx.graphics.getWidth() / 2,
Gdx.graphics.getHeight() / 2);
batch.end();
renderer.render(fgLayers);
}
Run Code Online (Sandbox Code Playgroud)
它总是最终位于屏幕的中间,但是我希望能够将它们分开移动,例如带有(W,A,S,D)的摄像机,并使用方向键移动我的播放器.然后,如果我想让相机锁定到播放器,但其他方面是免费的.
我是libgdx的新手所以请耐心等待,谢谢
我想检测项目中的多个面孔.因此,我计划使用CIFaceFure的trackingID属性来保持脸部的轨迹.但我发现,每次面对每一张脸都是一样的.
所以我的问题是,当视频帧中有多个脸部时,如何唯一地识别脸部.我不想识别面部以便以后仅检测当前视频帧.谢谢.
我使用与SqaureCam apple示例项目中相同的代码.在iOS 6中.
for ( CIFaceFeature *face in features ) {
NSLog(@"face.trackingID %d",face.trackingID);
}
Run Code Online (Sandbox Code Playgroud)
上面的代码为每个面都引用了相同的ID.
假设一个客户端只想启用摄像头,而另一个客户端只想启用麦克风。
如何在Chrome / Firefox中设置?
camera ×10
ios ×3
android ×2
java ×2
3d ×1
avfoundation ×1
bitmap ×1
c# ×1
cocoa-touch ×1
compression ×1
cordova ×1
firefox ×1
iphone ×1
jpeg ×1
libgdx ×1
microphone ×1
objective-c ×1
photos ×1
save ×1
sprite ×1
trigonometry ×1
xaml ×1