我最近更新到了 Android 4.3,每当我使用我的应用程序的 Intent 启动它时,股票摄像机开始表现得有点奇怪。
起初它会崩溃并说“画廊停止响应”。过了一会儿,我可以录制视频了,但是点击完成后,我的应用程序返回了一个空 URI,这导致它崩溃了!
因此,我开始使用相同的代码测试 2.3.4 设备。视频应用程序返回了我可以在该设备上使用的正确 URI。在我得到 4.3(有 4.2.2 股票 Galaxy Nexus)之前,相同的代码工作得很好
这是一个从 4.3 的库存相机应用程序获取空 URI 的活动,但在 4.2.2 及更低版本的设备上运行良好。
public class MainActivity extends Activity {
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
Button pick = (Button) findViewById(R.id.button1);
pick.setOnClickListener(new OnClickListener() {
@Override
public void onClick(View v) {
Intent takeVideoIntent = new Intent(MediaStore.ACTION_VIDEO_CAPTURE);
startActivityForResult(takeVideoIntent, 123);
}
});
}
@Override
public boolean onCreateOptionsMenu(Menu menu) {
// Inflate the menu; this adds items to the action bar if it …Run Code Online (Sandbox Code Playgroud) 我有一个类似于 Facebook 封面提要(在锁定屏幕上显示)的活动。如您所见,Facebook Cover Feed 提供了通过向左滑动来启动相机的功能。但是,相机可以在锁屏上正常启动!
我想知道的是如何像 Facebook Cover Feed 一样在锁定屏幕上打开设备相机应用程序。
我想知道是否有人可以指导我使用他们可能知道的任何有用的 API,这些 API 将跟踪 Android 设备上前置摄像头的运动。例如,它最好能够检测到一只手,然后从那里跟踪运动。
我环顾四周,发现了一些有趣的事情,但如果有人能推荐他们可能知道的任何事情,那将不胜感激。到目前为止,'nuidroid' 看起来最吸引人。
谢谢你。
我是使用模拟器 qemu 的新手,我正在尝试使用它来模拟 raspbian 系统,该系统在 raspberry pi 中使用,但我不知道如何在其中使用我的相机 USB。有人可以帮我吗?
我浏览了http://developer.android.com/guide/topics/media/camera.html#custom-camera 并尝试添加 Camera.PreviewCallback 但它没有被调用。哪些方法/类依赖于 PreviewCallback 触发?
public class MainActivity extends Activity {
private Camera mCamera;
private CameraPreview mPreview;
private final static String TAG = "Main-Activity";
private Camera.PreviewCallback countFrameCallback = new Camera.PreviewCallback() {
@Override
public void onPreviewFrame(byte[] bytes, Camera camera) {
Log.d(TAG, "In frame callback");
}
};
@Override
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.activity_main);
// Create an instance of Camera
mCamera = getCameraInstance();
// Create our Preview view and set it as the content of our activity.
mPreview = …Run Code Online (Sandbox Code Playgroud) 我正在使用 OpenCV/Python 示例(来自:OpenCV 教程)作为指南来开发相机校准程序。
问题:如何定制此示例代码以考虑特定棋盘图案上正方形的大小?我对相机校准过程的理解是,必须以某种方式使用这些信息,否则给出的值是:
cv2.calibrateCamera()
Run Code Online (Sandbox Code Playgroud)
将是不正确的。
这是我的代码部分,它读取图像文件并运行校准过程以生成相机矩阵和其他值。
#import cv2
#import numpy as np
#import glob
"""
Corner Finding
"""
# termination criteria
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 30, 0.001)
# Prepare object points, like (0,0,0), (1,0,0), ....,(6,5,0)
objp = np.zeros((5*5,3), np.float32)
objp[:,:2] = np.mgrid[0:5,0:5].T.reshape(-1,2)
# Arrays to store object points and image points from all images
objpoints = []
imgpoints = []
counting = 0
# Import Images
images = glob.glob('dir/sub dir/Images/*')
for fname in images: …Run Code Online (Sandbox Code Playgroud) 我正在尝试渲染具有逼真景深效果的帧。我已经在camera节点中尝试了景深属性,但它没有产生可用的结果。
是否可以切换到景深效果的最大渲染质量?性能不是一个因素,我只需要渲染一个帧,用户可以等待它。
我现在正在为退出而苦苦挣扎。我有一个游戏对象,它是一个球体,它是我在 3d 地形上的播放器。我有一个相机,它总是与玩家保持固定距离,跟随它跟随下面的脚本:
public GameObject player;
private Vector3 offset;
// Use this for initialization
void Start () {
offset = transform.position - player.transform.position;
}
void LateUpdate () {
transform.position = player.transform.position + offset;
}
Run Code Online (Sandbox Code Playgroud)
到现在为止还挺好。然而我真正想要的是相机随着玩家旋转,所以它总是看球体移动的方向,但总是在玩家后面保持相同的固定距离,这样玩家在相机视图中总是可见的.
有很多脚本可用,但到目前为止我所看到的曾经的问题是摄像机确实随着玩家旋转,但是因为玩家实际上是一个滚动球体,所以摄像机视图也在滚动和转动。
到目前为止我找到的最好的脚本如下,但是这个脚本和其他脚本有同样的问题,相机随着播放器滚动。
public Transform target;
public float distance = 3.0f;
public float height = 3.0f;
public float damping = 5.0f;
public bool smoothRotation = true;
public bool followBehind = true;
public float rotationDamping = 10.0f;
void Update () {
Vector3 wantedPosition;
if(followBehind)
wantedPosition = target.TransformPoint(0, …Run Code Online (Sandbox Code Playgroud) 在你说这是重复之前让我解释一下.我知道如何在React Native中使用Camera,但在上个月的Android(Java)中,我以简单的方式管理了设备相机,我甚至不必创建一个新的View来使用它.我刚刚做了这样的事情:
Uri mOutputFileUri;
Intent intent = new Intent(MediaStore.ACTION_IMAGE_CAPTURE);
intent.putExtra(MediaStore.EXTRA_OUTPUT, mOutputFileUri); // URI of the file where pic will be stored
startActivityForResult(intent, TAKE_PICTURE_FROM_CAMERA);
Run Code Online (Sandbox Code Playgroud)
基本上这会自动打开相机,当按下"拍摄照片按钮"时,调用onActivityForResult()方法,获取要管理的图像数据.
所以,我怀疑是,有一种方法可以在React Native中做到这一点吗?我的意思是,调用一种自动打开相机并返回数据的方法?
非常感谢.
我目前正在开发一个在Swift中使用实时摄像头视图的项目.我使用了一些我在GitHub上找到的代码给我实时摄像机视图,它在运行Mojave的MacBook Pro上运行良好.我将所有文件存储在外部硬盘上,所以我去了iMac并开始在那里开展项目.我想我有两个不同版本的Xcode 10 beta,这可能是问题的一部分?基本上这条线在我的MacBook上工作正常,但在iMac上没有,btw正在运行macOS high Sierra 15:
guard let pixelBuffer : CVPixelBuffer = sampleBuffer.imageBuffer else { return }
Run Code Online (Sandbox Code Playgroud)
它给了我以下错误:
Value of type 'CMSampleBuffer' has no member 'imageBuffer'
Run Code Online (Sandbox Code Playgroud)
但是当我在我的macbook上打开完全相同的项目时,这没有任何问题.这可能是一个Xcode版本的东西,还是因为我运行两个不同的macOS版本?
camera ×10
android ×5
swift ×2
3d ×1
c# ×1
ios ×1
javascript ×1
lockscreen ×1
mobile ×1
motion ×1
opencv ×1
python ×1
python-2.7 ×1
qemu ×1
raspberry-pi ×1
react-native ×1
scenekit ×1
tracking ×1
uri ×1
video ×1
xcode10 ×1