如何看待3DModel 的前端WPF?
我很困惑为LookDirection设置XYZ.
我不知道当我设置xyz时会发生什么,我不知道相机在哪里看.我不知道同样的事情UpDirection.
以下是我的相机属性:
camera.Position = new Point3D(100, 100, 150);
camera.LookDirection = new Vector3D(-100, -100, -100);
camera.UpDirection = new Vector3D(0, 0, 1);
Run Code Online (Sandbox Code Playgroud)
问题是相机从后面看.模型显示为下面的立方体.

如何让它看起来正面?
另请说明如何设置xyz.我知道什么属性做但我无法想象他们.
我认为X是从右到左.Y是深度.Z是最多的.
我遵循了一个教程,通过一种方式来制作一个自定义但简单的相机应用程序,几乎完全符合我想要的使用需求.我实际上有两个问题需要改变,但我现在将重点关注第一个问题.
以下代码允许使用后置摄像头,但我基本上需要对其进行更改,以便我可以使用前置摄像头.我还会在这里链接我从中获取的视频给予他们的信任,然后我按照其中一位评论者所说的使用前置摄像头但答案根本没有帮助.
https://www.youtube.com/watch?v=Xv1FfqVy-KM
我根本不擅长编码,但试图学习.任何帮助,将不胜感激!非常感谢.
@interface ViewController ()
@end
@implementation ViewController
AVCaptureSession *session;
AVCaptureStillImageOutput *StillImageOutput;
- (void)viewDidLoad {
[super viewDidLoad];
// Do any additional setup after loading the view, typically from a nib.
}
- (void)viewWillAppear:(BOOL)animated {
session = [[AVCaptureSession alloc] init];
[session setSessionPreset:AVCaptureSessionPresetPhoto];
AVCaptureDevice *inputDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
NSError *error;
AVCaptureDeviceInput *deviceInput = [AVCaptureDeviceInput deviceInputWithDevice:inputDevice error:&error];
if ([session canAddInput:deviceInput]) {
[session addInput:deviceInput];
}
AVCaptureVideoPreviewLayer *previewLayer = [[AVCaptureVideoPreviewLayer alloc] initWithSession:session];
[previewLayer setVideoGravity:AVLayerVideoGravityResizeAspectFill];
CALayer *rootLayer = [[self view] layer];
[rootLayer setMasksToBounds:YES];
CGRect …Run Code Online (Sandbox Code Playgroud) 我正试图从带有cordova相机插件的画廊中获取图像,这就是我这样做的方式:
navigator.camera.getPicture(onSuccess, onFail, {
quality: 50,
sourceType: Camera.PictureSourceType.SAVEDPHOTOALBUM,
destinationType: Camera.DestinationType.FILE_URI,
mediaType: Camera.MediaType.ALLMEDIA,
encodingType: Camera.EncodingType.JPEG
});
Run Code Online (Sandbox Code Playgroud)
但是在我的'onSuccess'函数中,我得到了以下格式的图像URI:
"content://com.android.providers.media.documents/document/image%3A1509"
Run Code Online (Sandbox Code Playgroud)
我希望URI具有图像的完整路径,就像我在使用相机时获取它一样:
"file:///storage/emulated/0/Pictures/IMG_20150710_124222.jpg"
Run Code Online (Sandbox Code Playgroud)
阅读官方文档我已经看到,我应该做的唯一事情是将属性'DestinationType'设置为'FILE_URI',已经设置,如上所示.
我究竟做错了什么?
以下是addCallbackBuffer的解释:http: //developer.android.com/reference/android/hardware/Camera.html#addCallbackBuffer(byte [])
我无法理解这种机制以及如何使用它.我们可以添加一个或多个缓冲区.假设我们添加了10个缓冲区.填充10个缓冲区时是否调用OnPreviewFrame方法?
假设从缓冲区队列中删除缓冲区,并使用该缓冲区调用OnPreviewFrame.当我们使用到达的缓冲区调用addCallbackBuffer方法时,是否将缓冲区添加到队列的头部,然后使用该缓冲区调用下一个OnPreviewFrame?
当我们调用addCallbackBuffer时,我们如何获取帧的时间戳?
当我们调用addCallbackBuffer时是否有任何帧丢失?
看来前置摄像头不支持focusMode.
func configureDevice() {
if let device = captureDevice {
let focusMode: AVCaptureFocusMode = .AutoFocus
if device.isFocusModeSupported(focusMode) {
device.lockForConfiguration(nil)
device.focusMode = AVCaptureFocusMode.AutoFocus
device.unlockForConfiguration()
println("configured device")
}
}
}
Run Code Online (Sandbox Code Playgroud)
此代码无法运行,因为
if device.isFocusModeSupported(focusMode)
Run Code Online (Sandbox Code Playgroud)
返回false.
但在内置摄像头应用程序中,前置摄像头可以专注于点击.
有没有什么方法可以在FRONT相机上实现点按?
我想将外置摄像头连接到iPhone(内置于iPhone中的摄像头不足以满足我的需求)然后编写一个iPhone应用程序,允许我在想要拍照时立即向外部摄像头发送信号然后立即将拍摄的照片下载到我的iPhone上,以便我可以无线发送到其他地方的服务器.
我在网络编程和JS方面有很多经验,但我没有iPhone应用程序的经验,我不确定我想做什么甚至是可能的.理想情况下,如果我可以在JS中编写代码然后使用Cordova(或类似的东西)制作可在任何iDevice或Android设备上运行的应用程序,那就太棒了.
但是,假设这是不可能的,我想首先专注于iDevices的应用程序.我环顾网络寻找有关此主题的资源,但我找不到任何东西.
我有两个问题:
虽然我之前从未编写过iPhone应用程序,但我很乐意尝试学习,但我需要一些书籍/资源来解释如何创建"Hello,World!"的基础知识.iPhone应用程序,我可以做上面列出的所有事情.
非常感谢你.
当使用CIDetectorTypeRectangle时,我只能(几乎)检测到我的相机图像中只有一个矩形,但我想检测多个矩形.它可以检测多个矩形,因为可以检测多个面?
我正在尝试在相机应用中为白平衡和温度颜色设置自定义值.我正在使用camera2 API,我正在尝试不同的方法来设置此值.我从excel文件中找到了一个方法,从白平衡值到100到100.000之间获得正确的RGB温度矩阵[红色,绿色,蓝色].
我将此方法附加到Seekbar并且其工作正常,当我尝试将某些东西聚焦时,我的问题出现,然后它变成粉红色.屏幕上任何一种灯都像粉红色的火炬.
我正在以这种方式设置值:
mPreviewRequestBuilder.set(CaptureRequest.COLOR_CORRECTION_MODE, CaptureRequest.COLOR_CORRECTION_MODE_TRANSFORM_MATRIX);
RggbChannelVector rggb = getTemperatureVector(seekBackSelectedTemperature);
mPreviewRequestBuilder.set(CaptureRequest.COLOR_CORRECTION_GAINS, myRggbChannelVector);
Run Code Online (Sandbox Code Playgroud)
换句话说,我获取矩阵的方法是这样的:
public static RggbChannelVector getTemperatureVector (int WhiteBalanceValue){
float InsertTemperature = WhiteBalanceValue;
float temperature = InsertTemperature / 100;
float red;
float green;
float blue;
//Calculate red
if (temperature <= 66)
red = 255;
else {
red = temperature - 60;
red = (float) (329.698727446 * (Math.pow((double) red, -0.1332047592)));
if (red < 0)
red = 0;
if (red > 255)
red = 255;
}
//Calculate green
if (temperature <= 66) …Run Code Online (Sandbox Code Playgroud) 我正在使用Unity开发Android应用程序.尝试使用前置摄像头,从WebCamTexture获取数据.后面的工作正常,但是当我试图翻转相机时,这个可怕的东西出现了:
**bitstream == (int)0xAFAFAFAF
Run Code Online (Sandbox Code Playgroud)
作为统一控制台中的错误.然后,即使使用后置摄像头,WebCamTexture也会停止工作.任何的想法?
PS使用Unity 5.3.3p1 ......可能是一个Unity bug?