我构建了一个iOS应用程序,该应用程序使用Google Analytics for Firebase来跟踪用户属性和事件.
启用firebase日志记录时,出现以下错误:
5.1.0 - [Firebase/Analytics] [I-ACS006009]受众定义无效.观众不会被保存.受众,错误:,错误域= com.google.gmp.measurement.ErrorDomain代码= 9"受众过滤器数量超出范围"UserInfo = {NSLocalizedDescription =受众过滤器数量超出范围}
此错误似乎与任何特定代码行无关,但是一般警告我使用GAforF的方式存在问题.
由于这似乎是一个常见的警告,是否有人能够在他们的应用程序中解决这个问题?
所以,我有一个UICollectionView,我插入新项目.
我使用了Collection View Programming Guide中的大部分建议- "使插入和删除动画更有趣"一节
有没有办法调整动画时间?(也许我只是在文档中错过了它,但找不到任何关于此的信息)
PS:如果我可以编辑那些很酷的曲线.你知道Ease-In-Out等等.
我们在商店中有几个应用程序,ARFaceTrackingConfiguration用于检测带有 FaceID 摄像头的 iOS 设备中的用户面部。
正如您可能已经看到的那样,ARKit 还会跟踪您放在 iPad Pro/iPhoneX 前的面孔图片,就好像它们是面孔一样。例如,从我们的一个应用程序中拍摄一张照片(复制一个可以为 ARFaceTrackingConfiguration下载并运行 Apple示例应用程序):
现在我注意到 ARKit 在内部处理真实人脸的方式与处理人脸图片的方式不同。因为通常(对于ARWorldTrackingConfiguration以及ARFaceTrackingConfiguration)都ARKit试图匹配现实世界的大小和虚拟对象的大小,即 3D 编辑软件中 10x10cm 的对象将匹配相同 10x10cm 的现实世界对象。但是当使用人脸跟踪时,手机检测到异常大小的脸(如上图所示的 4 厘米宽的小脸或脸更大的人的海报)它会缩放 FaceGeometry 就好像检测到的脸是正常大小的头部,即头部宽度的测量值约为 ~14 厘米。然后所有虚拟对象将相应地缩放,这将在现实世界中产生错误的大小。看下一张图:
眼镜 3D 模型宽约 14 厘米,但它们仅显示为 4 厘米的物体。
相比之下,如果你把眼镜放在真正的3D脸上,它们会是正确的尺寸,在小人头上(比如12厘米)会稍微大一些,在大人头上(比如16厘米)会稍微大一点太小(因为在这两种情况下它们都是真正的 14 厘米)。
我什至可以看到 ARKit 在以下之间切换:
当您将婴儿抱在应用程序前时,这一点尤其突出。对于婴儿的头部,ARKit将首先尝试放大所有内容,使虚拟场景中婴儿的头部为 14 厘米宽,并且眼镜像成人一样适合。然后,通常在头部出现在相机中后 1-2sARFaceTrackingConfiguration会从模式 ( 1 )切换到模式 ( 2 ) 并显示 3D Object 的真实尺寸,从而导致婴儿头戴成人尺寸眼镜的超可爱照片(不是此处显示为 SO …
是的,我现在想知道这件事.在我的使用案例中,设备将相距50厘米到10米,我希望它准确到至少10厘米.(因此GPS不是一种选择)
2种方式让人想起:
声音:我在开发论坛上询问了这个问题,并且我正在与laanlabs联系,关于他们的声纳标尺的代码.
一台设备上的图片+另一台设备上的摄像头:似乎更容易设置,因为我的用户案例涉及用户面向90度的一台设备.但对于用户而言,面向喀麦隆的方向将是更多的工作,它不会对距离的变化作出反应.
现在的问题是:是否有人知道任何类似的代码?可能是非iPhone通用c-Project?
在testflight审核期间,我遇到了以下问题:
来自Apple2。3性能:准确的元数据性能-2.3
我们无法在运行OS3的Apple Watch上安装应用程序扩展。设置Info.plist中的UIRequiredDeviceCapabilities键的方式是,该应用程序不会安装在运行OS3的Apple Watch上。
下一步
请检查UIRequiredDeviceCapabilities密钥以验证其仅包含应用程序功能所需的属性或设备上不得存在的属性。如果需要,由字典指定的属性应设置为true,如果设备上不存在这些属性,则应设置为false。
现在,我的应用程序几乎是Watch OS3的Xcode示例项目,我没有以任何方式干预UIRequiredDeviceCapabilities。
实际上,“ Watch App”目标和“ Watch App Extension”目标都没有“ UIRequiredDeviceCapabilities”条目,只有iOS主要目标具有:
<key>UIRequiredDeviceCapabilities</key>
<array>
<string>armv7</string>
</array>
Run Code Online (Sandbox Code Playgroud)
直接通过Xcode将其提供给设备时,该应用也可以在带有Watch OS3的手表上很好地安装。
嘿那里,我在模拟器中尝试多任务(我只有第二代iPod和iPad),我仍然遇到一些问题.我的测试方法如下:
- (void)applicationDidBecomeActive:(UIApplication *)application {
NSLog(@"Entering %s",__FUNCTION__);
if (enteredFromBackground) {
NSLog(@"Entering from Background");
enteredFromBackground = NO;
}
}
- (void)applicationWillEnterForeground:(UIApplication *)application {
NSLog(@"Entering %s",__FUNCTION__);
enteredFromBackground = YES;
}
Run Code Online (Sandbox Code Playgroud)
不幸的是,我没有从applicationWillEnterForeground看到NSLog,这就是为什么我在applicationDidBecomeActive中添加该行来向我展示一些东西.我得到的只是
2010-11-20 15:58:12.796 iBeat[45997:207] Entering -[AppDelegate_Shared applicationDidEnterBackground:]
2010-11-20 15:58:18.160 iBeat[45997:207] Entering -[AppDelegate_Shared applicationDidBecomeActive:]
Run Code Online (Sandbox Code Playgroud) 我有一个 3 维的 boost::multi_array
boost::multi_array<Struct, 3>* newArr = new boost::multi_array<Struct, 3>(boost::extents[x][y][z], boost::fortran_storage_order())
Run Code Online (Sandbox Code Playgroud)
有没有方法来计算 newArr 的大小或者我应该使用
sizeof(Struct)*x*y*z ?
Run Code Online (Sandbox Code Playgroud)
它们会是一样的吗?(我希望 multi_array 有一点控制器数据)
我目前正在开发一个ARKit项目,在该项目中,我想使实际的摄影机源变暗,以使3D场景中的对象更加突出。
我到目前为止发现的2个解决方案:
A)手动将CIFilter应用于相机帧,并将其设置为SceneKit场景的背景图像,如本SO帖子所述 ,这里的问题是fps明显下降。
B)像这样设置背景色:
sceneView.scene.background.contents = UIColor(white: 0.0, alpha: 0.2)
Run Code Online (Sandbox Code Playgroud)
可悲的是,alpha <1的颜色仍然是不透明的,因此无论我设置了什么alpha,我都看不到相机的任何内容。
有人能想到其他方法来使摄影机的信号变暗吗?
我目前正在通过facebook-iphone-sdk和MGTwitterEngine工作,我想知道为什么这一切都必须如此努力.
我不打算从两个社交网络访问任何数据,只是允许我的应用程序的用户发布消息作为他们的状态/更新.
现在我安装了facebook-iphone-sdk后,我意识到他们只是将你送到safari进行身份验证,然后再回到你的应用程序中.现在这对我的应用程序的用户来说似乎过于复杂,如果他们只想发布他们就不必回去了.
有没有办法,我可以打电话给像
http://api.twitter.com/version/statuses/update?text="this is the new status text"
Run Code Online (Sandbox Code Playgroud)
?
编辑:第一个答案
http://twitter.com/home?status=[URL ENCODED TWEET].
Run Code Online (Sandbox Code Playgroud)
正是我需要的.不幸的是,这在笔记本电脑上完美运行,但如果你还没有登录iPhone,你将会看到一个屏幕,其中一个人必须按"登录"一次.(在网址"mobile.twitter.com/home?status= []").按登录会将您链接到"mobile.twitter.com/session/new"而不显示状态参数,因此一旦您通过身份验证,状态消息就会丢失.
在这里,我正在优化我的sprite-kit代码,试图测试我的游戏引擎的界限.
使用仪器时间分析我修复了我自己的大部分问题,现在是唯一的瓶颈
37.0ms 66.0% 0,0 -[SKTextureAtlas textureNamed:]
Run Code Online (Sandbox Code Playgroud)
(我的游戏每半秒从TextureAtlases加载很多精灵)奇怪的是,似乎在我的大多数测试中,似乎纯粹的NSString比较名称导致上面三分之一以上的工作方法.子树:
15.0ms 26.7% 0,0 -[NSString caseInsensitiveCompare:]
15.0ms 26.7% 0,0 -[NSString compare:options:range:]
15.0ms 26.7% 0,0 -[NSString compare:options:range:locale:]
15.0ms 26.7% 6,0 CFStringCompareWithOptionsAndLocale
Run Code Online (Sandbox Code Playgroud)
对于性能如此重要的东西,苹果提供的字符串比较真的很糟糕吗?为什么它们不能提供更简单的方法来访问地图集中的纹理,我们这里不需要花哨的字符串,它可以通过int迭代我们所关心的.
有这方面的比较经验吗?
我有3节课
class A {
//...
}
class B : public A {
//...
}
Run Code Online (Sandbox Code Playgroud)
和C类:
#include "A.h"
#include "B.h"
class C
{
void method(A anObjOfA);
void method(B anObjOfB);
}
Run Code Online (Sandbox Code Playgroud)
现在,如果我这样做
B* ptr = new B();
A* ptrToB = ptr;
c.method(*ptrToB);
Run Code Online (Sandbox Code Playgroud)
它调用A类型的对象的方法,而不是继承的实际类型B.我怎样才能确保调用inheritence-tree中最深的对象的正确函数,而不是在编译时实际知道它的类型?
PS:我确定这是一个noob问题,对于我的生活,我在这里找不到任何结果,因为每个人都在忙着理解"虚拟"关键字,这对我来说非常清楚,但不是问题这里.
ios ×6
iphone ×4
arkit ×2
objective-c ×2
apple-watch ×1
audio ×1
boost ×1
c++ ×1
cocoa-touch ×1
facebook ×1
firebase ×1
inheritance ×1
ios11 ×1
javascript ×1
optimization ×1
overloading ×1
performance ×1
php ×1
scenekit ×1
sonarqube ×1
sprite-kit ×1
swift ×1
twitter ×1
uikit ×1
watch ×1
watchos-3 ×1