我在一些HTML中有一个奇怪的小错误,它只出现在Firefox 17中(OSX 10.8.2,尚未测试其他操作系统).我有一个'sidebar'css类,它包含一些文本,这些文本是许多页面上的重复元素.在一个页面上(仅),此文本呈现为好像它的css visiblility属性设置为'hidden'(它不显示,但在自身周围留下正确的空间).
离开 Firefox 16.0.2; 对 Firefox 17.0.1
这是css类:
.sidebar {
position:fixed;
top: 2px;
left:4px;
display:table-cell;
vertical-align:bottom;
z-index: 2;
width: 700px;
height: 64px;
-webkit-transform: rotate(90deg) translateX(320px) translateY(340px) scale(1);
-moz-transform: rotate(90deg) translateX(320px) translateY(340px) scale(1);
-o-transform: rotate(90deg) translateX(320px) translateY(340px) scale(1);
-ms-transform: rotate(90deg) translateX(320px) translateY(340px) scale(1);
transform: rotate(90deg) translateX(320px) translateY(340px) scale(1);
}
Run Code Online (Sandbox Code Playgroud)
受影响的HTML:
<div class="sidebar" >
<span class="TMUP1">
<a href="/">Section_Header</a>
</span>
<span class="sidebarcontents" style="vertical-align: 50%">
Subsection_Header
</span>
</div>
Run Code Online (Sandbox Code Playgroud)
该网站上的所有页面都包含相同的谷歌分析异步跟踪JavaScript.如果我删除此代码,该错误消失.我检查了代码,这是正确的.它在网站的每个页面上使用,所有其他页面使用SAME html(它是一个重复的标题)渲染得很好
谷歌js代码:
<script type="text/javascript">
var _gaq = _gaq || [];
_gaq.push(['_setAccount', 'UA-000000-0']); …Run Code Online (Sandbox Code Playgroud) openCV 2.4.3/Xcode 4.5.2/mac osx 10.8.2
我想让openCV与iOS一起工作.我试图使用openCV.org中的预构建的2.4.3框架.但是我得到以下xcode项目构建错误,表明编译器不知道它正在处理c ++,例如
#include <list> !'list' file not found
namespace cv !unknown type name 'namespace'
Run Code Online (Sandbox Code Playgroud)
这似乎只涉及以下头文件:
"opencv2/nonfree/features2d.hpp"
"opencv2/nonfree/nonfree.hpp"
"opencv2/video/video.hpp"
如果我不在opencv.hpp(或其他任何地方)中包含这三个文件,我似乎能够编译并使用openCV ok.问题是,我确实需要非自由文件,因为我正在试验SURF - 最近已经转移到非自由.
这真是一个双重问题(对不起;-)
更新
我克隆了openCV git存储库,并从中构建了一个新的框架.这种方法以前没有用,但今天我意识到我没有使用当前版本的CMAKE.我一直在使用CMAKE 2.8.2,这将无法为ios构建opencv.当前版本的CMAKE 2.8.10构建它没有任何问题(这是一个服从文档的对象课程,确实需要CMAKE min.v2.8.8).
现在,当我在Xcode项目中添加opencv框架的当前版本时,我可以包含features2d和nonfree并顺利构建.唯一的问题仍然是一个标题:video/background_segm.hpp,仍然产生:
#include <list> !'list' file not found
Run Code Online (Sandbox Code Playgroud)
如果我评论该行,我会在下一行收到错误:
namespace cv !unknown type name 'namespace'
Run Code Online (Sandbox Code Playgroud)
很明显,编译器不会将其识别为C++标头,即使它是后缀.hpp.
在opencv2/video/video.hpp 如果我删除
#include "opencv2/video/background_segm.hpp"
Run Code Online (Sandbox Code Playgroud)
我也可以用video.hpp它来构建(虽然我猜它在实践中是无法使用的).
不幸的是,我仍然无法让SURF工作.当我运行该项目时,它崩溃了这个错误:
OpenCV错误:未实现功能/功能(OpenCV是在没有SURF支持的情况下构建的)
这是在legacy/features2d.cpp:
Ptr<Feature2D> surf = Algorithm::create<Feature2D>("Feature2D.SURF");
if( …Run Code Online (Sandbox Code Playgroud) 我正在拍摄a的内容的快照NSView,应用a CIFilter,并将结果放回到视图中.如果CIFilter是模糊的形式,例如CIBoxBlur或CIGuassianBlur,则过滤后的结果略小于原始模糊.当我迭代地这样做时,结果变得越来越小,我想避免.
这里提到的问题虽然略有不同(Quartz Composer).苹果FunHouse演示应用程序适用于Guassian blur没有图像缩小,但我还没有弄清楚这个应用程序是如何做到的(它似乎是使用OpenGL我不熟悉的).
这是代码的相关部分(在NSView子类内)
NSImage* background = [[NSImage alloc] initWithData:[self dataWithPDFInsideRect:[self bounds]]];
CIContext* context = [[NSGraphicsContext currentContext] CIContext];
CIImage* ciImage = [background ciImage];
CIFilter *filter = [CIFilter filterWithName:@"CIGaussianBlur"
keysAndValues: kCIInputImageKey, ciImage,
@"inputRadius", [NSNumber numberWithFloat:10.0], nil];
CIImage *result = [filter valueForKey:kCIOutputImageKey];
CGImageRef cgImage = [context createCGImage:result
fromRect:[result extent]];
NSImage* newBackground = [[NSImage alloc] initWithCGImage:cgImage size:background.size];
Run Code Online (Sandbox Code Playgroud)
如果我尝试使用颜色变化滤镜,例如CISepiaTone不会移动像素,则不会发生收缩.
我想知道是否有一个不涉及潜入的快速修复openGL?
我现在将ios6应用程序移植到ios7 sdk(使用Xcode 5和mavericks),我试图更改UIBarButtonItem颜色,这是我尝试做的:
self.navigationController.navigationBar.tintColor
Run Code Online (Sandbox Code Playgroud)
- 为条形更改颜色,但不对项目进行更改
[[UINavigationBar appearance] setTintColor:[UIColor greenColor]];
[[UIBarButtonItem appearance] setTintColor:[UIColor greenColor]];
Run Code Online (Sandbox Code Playgroud)
- 不起作用,颜色相同
self.navigationItem.rightBarButtonItem.tintColor = [UIColor greenColor];
self.navigationItem.leftBarButtonItem.tintColor = [UIColor greenColor];
Run Code Online (Sandbox Code Playgroud)
- 不起作用,颜色相同
UIBarButtonItem *close = [[UIBarButtonItem alloc]
initWithTitle:NSLocalizedString(@"Close",@"")
style:UIBarButtonItemStyleDone target:self
action:@selector(closeAddressBook:)];
close.tintColor = [UIColor greenColor];
Run Code Online (Sandbox Code Playgroud)
- 不起作用,颜色相同
for self.filterSegment.tintColor = [UIColor greenColor] where UISegmentedControl *filterSegment;
Run Code Online (Sandbox Code Playgroud)
我看到未选择的段具有正确的颜色,但所选的段是相同的错误颜色.
有任何想法吗?
在玩UIKit Dynamics时是否可以不使用UIViews,而是将物理属性,锚点,力等等绑定到一个UIView中的CALayers?
根据Ash Farrow的这个页面:
UIDynamicItem是一种定义中心,边界和变换的协议(仅使用二维变换).UIView符合此协议,是UIDynamicBehaviour最常用的用法.您也可以将UICollectionViewLayoutAttributes与UIDynamicBehaviours一起使用,但我们今天不打算介绍它.
这似乎表明任何事情都可以符合协议UIDynamicItem,但我找不到任何关于制作CALayers的其他人.
可以比这种方法更直接地完成:
https://www.invasivecode.com/weblog/uikit-dynamics-layer-constraint/
我找遍了所有地方,都找不到为 AVCaptureSession 调整输入设备的输入音量的方法。我能做的最好的事情是通过访问来自 AVCaptureAudioDataOutput 的连接 (AVCaptureConnections) 来获取设备的音频电平,即通过监视预览输出的电平。有没有办法改变输入增益,甚至直接在 AVFoundation 中获得音频输入电平?我还在学习,所以如果我错过了任何明显的东西,我深表歉意。
编辑:我应该注意这是针对 OSX 的。
我一直试图用openCV运行一个xcode项目.我构建了源代码,将其导入到项目中,并在.pch文件中包含#ifdef __cplusplus #import opencv2/opencv.hpp> #endif.
我按照http://docs.opencv.org/trunk/doc/tutorials/introduction/ios_install/ios_install.html上的说明进行操作
我编译时仍然遇到很多Apple Mach-O链接器错误.
Undefined symbols for architecture i386:
"std::__1::__vector_base_common<true>::__throw_length_error() const", referenced from:
Run Code Online (Sandbox Code Playgroud)
请帮帮我,我真的迷路了..
更新:
错误全部修复,现在我试图检测圈子..
Mat src, src_gray;
cvtColor( image, src_gray, CV_BGR2GRAY );
vector<Vec3f> circles;
/// Apply the Hough Transform to find the circles
HoughCircles( src_gray, circles, CV_HOUGH_GRADIENT, 1, image.rows/8, 200, 100, 0, 0 );
/// Draw the circles detected
for( size_t i = 0; i < circles.size(); i++ )
{
Point center(cvRound(circles[i][0]), cvRound(circles[i][1]));
int radius = cvRound(circles[i][2]);
// circle center
circle( src, …Run Code Online (Sandbox Code Playgroud) 所以我最近调查了核心数据并且仍然是新手.我无法理解我要录制的数据以及它如何影响整体数据流.所以对于某些背景,我有一个应用程序,使用webRTC在手机之间进行视频/音频流.但是,我想查看通过麦克风输入设备的数据和通过扬声器输出的数据.我查看了AurioTouch演示和Core Audio,目前我有这个:
- (void)setupIOUnit
{
// Create a new instance of AURemoteIO
AudioComponentDescription desc;
desc.componentType = kAudioUnitType_Output;
desc.componentSubType = kAudioUnitSubType_RemoteIO;
desc.componentManufacturer = kAudioUnitManufacturer_Apple;
desc.componentFlags = 0;
desc.componentFlagsMask = 0;
AudioComponent comp = AudioComponentFindNext(NULL, &desc);
AudioComponentInstanceNew(comp, &rioUnit);
// Enable input and output on AURemoteIO
// Input is enabled on the input scope of the input element
// Output is enabled on the output scope of the output element
UInt32 one = 1;
AudioUnitSetProperty(rioUnit, kAudioOutputUnitProperty_EnableIO, kAudioUnitScope_Input, 1, &one, sizeof(one));
AudioUnitSetProperty(rioUnit, kAudioOutputUnitProperty_EnableIO, kAudioUnitScope_Output, …Run Code Online (Sandbox Code Playgroud) ios ×4
objective-c ×3
cocoa ×2
macos ×2
opencv ×2
xcode ×2
c++ ×1
calayer ×1
cmake ×1
core-audio ×1
core-image ×1
css ×1
firefox ×1
html ×1
iphone ×1
javascript ×1
uikit ×1
uiview ×1