小编xia*_*woo的帖子

如何禁用Volley请求重试?

我将JsonRequest发布到服务器.服务器很慢.Volley倾向于多次调用慢速服务器,因为它没有得到第一个请求的响应(因为我的服务器很慢).有没有办法禁止Volley重试请求,以便它可以收到第一个响应?

我试过了:

myRequest.setRetryPolicy(new DefaultRetryPolicy(
                TIMEOUT_MS, 
                RETRIES, 
                BACKOFF_MULT)); 
Run Code Online (Sandbox Code Playgroud)

我已经替换了TIMEOUT_MS = 0,RETRIES = 0,甚至BACKOFF_MULT = 0,但它不起作用.

还有其他建议吗?

rest android http-post android-volley

30
推荐指数
2
解决办法
2万
查看次数

在使用带Swift的Objective-C时,Xcode无法识别CGFloat/UIFont/CGSize

我创建了一个新的Swift项目,并尝试将我现有的Objective C代码导入到Swift项目中.一切都很顺利,除了Xcode 6 Beta 5抱怨CGFloat UIFont CGSize...我看到的错误是

期待一种类型

未知类型名称'CGFloat'

就在我的一些方法旁边.我认为Swift应该与Objective C保持友好并接受我所有的Objective C代码,但不幸的是,事实并非如此.

任何想法?,建议或评论,我将不胜感激.谢谢.

xcode objective-c swift

25
推荐指数
2
解决办法
2万
查看次数

Android Mediarecorder录制的视频时长与预期持续时间不同

我用android Mediarecorder录制了一个视频.

(主要问题:我需要知道视频的确切startTime [系统时间]和endTime [系统时间],[endTime - startTime]必须与实际视频的持续时间相匹配)

MediaRecorder.start
startTime = System.currentTimeMillis()

then on stop

MediaRecorder.stop
endTime = System.currentTimeMillis()
Run Code Online (Sandbox Code Playgroud)

我期待视频有这段时间

expected_duration =(endTime - startTime)

然而

expected_duration总是超过视频的实际持续时间.

我怀疑MediaRecorder.start很慢,它实际上开始将帧写入视频需要一些时间.

那么现在,当MediaRecorder开始将第一帧写入视频时,是否有通知?或者有什么方法可以找出视频实际开始录制时的确切系统开始时间.

感谢阅读,并感谢任何意见,建议或意见.^^

android mediarecorder android-mediarecorder

16
推荐指数
1
解决办法
1081
查看次数

在Android上使用AudioRecord和MediaCodec编码AAC音频

我正在尝试使用Android AudioRecord和MediaCodec编码aac音频.我创建了一个非常类似的编码器类(使用Android MediaCodec从相机编码H.264).通过这个类,我创建了一个AudioRecord实例,并告诉它将其byte []数据读出到AudioEncoder(audioEncoder.offerEncoder(Data)).

 while(isRecording) 
 {
  audioRecord.read(Data, 0, Data.length);
  audioEncoder.offerEncoder(Data);
 }
Run Code Online (Sandbox Code Playgroud)

这是我的AudioRecord设置

    int audioSource = MediaRecorder.AudioSource.MIC;
    int sampleRateInHz = 44100;
    int channelConfig = AudioFormat.CHANNEL_IN_MONO;
    int audioFormat = AudioFormat.ENCODING_PCM_16BIT;
    int bufferSizeInBytes = AudioRecord.getMinBufferSize(sampleRateInHz, channelConfig, audioFormat);
Run Code Online (Sandbox Code Playgroud)

我成功收集了一些byte []数组数据并将其写入本地文件.不幸的是,该文件无法播放.我做了一些在线搜索,发现了一个相关的帖子(如何使用Android MediaCodec生成AAC ADTS基本流).因此,遇到类似问题的其他人说主要问题是"MediaCodec编码器生成原始AAC流.原始AAC流需要转换为可播放格式,例如ADTS流".所以我尝试添加ADTS标头.然而,在我添加了ADTS头之后(我在下面的代码中注释掉了),我的AudioEncoder甚至都不会写输出音频文件.有什么我想念的吗?我的设置是否正确?

欢迎任何建议,意见和意见,非常感谢.多谢你们!

import android.media.MediaCodec;
import android.media.MediaCodecInfo;
import android.media.MediaFormat;
import android.os.Environment;
import android.util.Log;

import java.io.BufferedOutputStream;
import java.io.File;
import java.io.FileOutputStream;
import java.io.IOException;
import java.nio.ByteBuffer;

public class AudioEncoder {

    private MediaCodec mediaCodec;
    private BufferedOutputStream outputStream;
    private String mediaType = "audio/mp4a-latm";

    public AudioEncoder() …
Run Code Online (Sandbox Code Playgroud)

android aac audiorecord mediacodec

15
推荐指数
2
解决办法
2万
查看次数

Swift与Objective-C Fibonacci序列速度比较

我有个问题.我想知道哪一个确实更快(Swift或Objective-C),因为当我开始开发应用程序时,我想选择更快/更好的一个.根据许多消息来源(例如Apple的WWDC,或http://www.jessesquires.com/apples-to-apples-part-two/),Swift假设更快.

我刚刚在Swift和Objective-C中编写了一个简单的递归fibonacci序列程序.

但是,当我在模拟器上运行fib(35)时,我得到了惊人的结果:

Objective-C结果:

::: fib :::: 9227465 ::: duration ::: 0.122813秒

迅捷的结果

::: fib :::: 9227465 ::: duration ::: 0.606831073760986秒

现在,我甚至在所有Swift编译器优化级别(用于调试)中运行Swift版本,这是None,Fastest,Fastest-Unchecked.我还将代码生成优化级别改为无,快速......最快的进取优化.然而,所有Swift结果都接近0.6毫秒

现在我能想到的最后一件事可能是,我将Apple与Orange进行比较?你们看到我在这里失踪的东西吗?还有什么我必须打开(除了Swfit编译器和Apple LLVM代码生成的优化级别),以使Swift程序运行得更快?

欢迎任何建议或意见,并表示赞赏!^^!

Objective-C版本

-(int)fib:(int)num{
    if (num == 0) {
        return 0;
    }
    if (num == 1) {
        return 1;
    }    
    return [self fib:num - 1] + [self fib:num - 2];
}
Run Code Online (Sandbox Code Playgroud)

Swift版本

func fib(num: Int) -> Int{
    if(num == 0){
        return 0;
    }
    if(num == 1){
        return 1;
    }
    return fib(num - 1) + fib(num …
Run Code Online (Sandbox Code Playgroud)

xcode objective-c ios swift

14
推荐指数
3
解决办法
6318
查看次数

Android Force GPU渲染如何启用和禁用?

我正在构建一个需要在画布上进行大量绘制的应用程序.我注意到应用程序在高分辨率设备(例如nexus 7)中有点滞后.我看到开发人员选项中有一个Force GPU选项.启用强制GPU后,我的应用程序运行绝对流畅.

我已经读过这个Force GPU选项被称为硬件加速,它仅适用于Android 3.0及更高版本.

我的应用针对Android 2.3及更高版本.

是否有可能在任何Android 3.0或更高版本的设备上以编程方式启用硬件加速(或强制GPU - 无论魔法是什么)?

就像是:

if(Build.VERSION.SDK_INT >= Build.VERSION_CODES.HONEYCOMB){

    Turn On Hardware Accelerate HERE but How can i do this?
    any code snippet would be welcome/helpful/thanks

}
Run Code Online (Sandbox Code Playgroud)

android gpu canvas hardware-acceleration

10
推荐指数
1
解决办法
1万
查看次数

如何使用xcode 6中的通用故事板为uiview的宽度适合父视图的宽度和iphone和ipad的一些填充?

我正在学习xcode 6中的约束和Universal Storyboard,并且在这里遇到一些困难.

使用Universal Storyboard,我的目标是创建一个完美适合iPad模拟器(768 x 1024)和iPhone 4模拟器(_ x _)的UIView,左边和右边可以说50像素填充或边距.

目标应如下所示:

在此输入图像描述

我正在使用通用故事板和自动布局,我在预览中得到以下结果 在此输入图像描述

到目前为止我所做的只是将UIView拖入Universal Storyboard编辑器,然后给它一个填充iPad Screen的宽度(768),然后应用width = 768,height = 200约束和约束到center水平和约束垂直居中.

观察结果:

iPad屏幕完美填充宽度.然而,仔细看看我的iPhone屏幕(图1),UIView(绿色)的宽度不会填充到父级(其宽度远大于其父宽度)

问题:

问题1)有没有办法使用Universal Storyboard创建一个UIView,在iPad和iPhone上将其宽度填充到其父UIView?

问题2)如果问题1可以实现,那么如何在绿色UIView中左右添加填充或边距?

谢谢,并感谢任何建议,意见或意见.

storyboard uistoryboard universal-storyboard

10
推荐指数
1
解决办法
2万
查看次数

Android Camera onPreviewFrame帧率不一致

我正在尝试通过Camera的PreviewCall返回(onPreviewFrame)使用MediaCodec对每秒30帧的视频进行编码.我编码的视频总是播放得非常快(这是不可取的).所以,我试图通过设置一个int frameCount变量来检查进入我相机预览的帧数,以记住它的计数.我期待的是每秒30帧,因为我将相机的预览设置为30 fps预览(如下所示).我回来的结果是不一样的.我调用onPreviewFrame回调10秒钟,我得到的帧数量只有大约100帧.这很糟糕,因为我期待300帧.我的相机参数设置正确吗?这是Android的Camera预览回拨的限制吗?如果这是对Android相机预览回调的限制,那么还有其他相机回调能够以每秒30帧的速度返回相机的图像数据(nv21,yuv,yv12)吗?

感谢您阅读并花时间去帮忙.我将不胜感激任何评论和意见.

以下是使用Camera的onPreviewFrame编码视频的示例:

http://www.youtube.com/watch?v=I1Eg2bvrHLM&feature=youtu.be

                Camera.Parameters parameters = mCamera.getParameters();
                parameters.setPreviewFormat(ImageFormat.NV21);
                parameters.setPictureSize(previewWidth,previewHeight);
                parameters.setPreviewSize(previewWidth, previewHeight);
//              parameters.setPreviewFpsRange(30000,30000);

                parameters.setPreviewFrameRate(30);
                mCamera.setParameters(parameters);

                mCamera.setPreviewCallback(previewCallback);
                mCamera.setPreviewDisplay(holder);
Run Code Online (Sandbox Code Playgroud)

android android-camera mediacodec

8
推荐指数
1
解决办法
7387
查看次数

robotium测试每次点击之间的等待时间

在机器人测试中,是否可以设置点击之间的等待时间?例如,我有2个按钮(A和B).我希望robotium点击按钮A然后20秒后点击按钮B.

android robotium

6
推荐指数
1
解决办法
5326
查看次数

片段到活动通信的Android最佳做法

我是Android Fragment的新手,并尝试学习Fragment to Activity通信.Android中用于片段到活动通信的更好方法(最佳实践)是什么?

假设我有FragmentA和ActivityA.在我的屏幕弹出FragmentA后,我想在ActivityA中执行一些方法(可能与UI相关)

以下是两种(模式)可能的 解决方案:

  1. 在FragmentA中使用getActivity并将Activity转换为ActivityA然后调用somemethod.
  2. 在FragmentA中创建一个接口回调,然后在ActivityA中实现该回调.然后在回调上,调用somemethod.

Android开发中哪种模式更常见/更常见,以及为什么.或者您是否有更好的方式在Android中从片段到活动进行通信以与我分享?

任何评论,意见和建议都非常感谢和欢迎.^^.

android fragment android-fragments

6
推荐指数
1
解决办法
1086
查看次数