我正在尝试迁移到 Firebase。但在此之前,我通过执行以下操作对其进行了小尝试。我已成功添加和部署云功能,但出现错误
错误:禁止
您的客户端无权从此服务器获取 URL /app/lol。
这是在执行以下代码时发生的:
const functions = require('firebase-functions');
const express = require('express');
const app = express()
// tried adding this as middleware
// const cors = require('core'({origin: true}))
var admin = require('firebase-admin');
// app.use(cors)
var serviceAccount = require("./ServiceAccount.json");
admin.initializeApp({
credential: admin.credential.cert(serviceAccount),
databaseURL: "https://<my-app>.firebaseio.com/"
});
app.get('/lol', (req, res) => {
res.send(`${Date.now()}`);
})
exports.site = functions.https.onRequest(app);
Run Code Online (Sandbox Code Playgroud)
我的 firebase.json 如下:
{
"database": {
"rules": "database.rules.json"
},
"hosting": {
"public": "public",
"rewrites" :[{
"source" : "**",
"function" : "app"
}],
"ignore": …Run Code Online (Sandbox Code Playgroud) 我有一个集合视图,其中单元格的大小与集合视图完全相同,因此每个单元格都应占据整个屏幕。我已经实现了一个功能,当它在滚动中拖动或减速时,单元格会被捕捉到完整的视图。这就是用户体验的工作方式。
https://drive.google.com/open?id=1v8-WxCQUzfu8V_k9zM1UCWsf_-Zz4dpr
我想要的是:
正如您从剪辑中看到的那样,单元格会捕捉到整个屏幕。现在,我想在它捕捉后执行一个方法。在部分显示之前或之前不显示。
以下是我为捕捉效果编写的代码:
func scrollToMostVisibleCell(){
let visibleRect = CGRect(origin: collectionView.contentOffset, size: collectionView.bounds.size)
let visiblePoint = CGPoint(x: visibleRect.midX, y: visibleRect.midY)
let visibleIndexPath = collectionView.indexPathForItem(at: visiblePoint)!
collectionView.scrollToItem(at: visibleIndexPath as IndexPath, at: .top, animated: true)
print("cell is ---> ", visibleIndexPath.row)
}
func scrollViewDidEndDecelerating(_ scrollView: UIScrollView) {
scrollToMostVisibleCell()
}
func scrollViewDidEndDragging(_ scrollView: UIScrollView, willDecelerate decelerate: Bool) {
scrollToMostVisibleCell()
if !decelerate {
scrollToMostVisibleCell()
}
}
Run Code Online (Sandbox Code Playgroud)
如果我使用willDisplayCell方法,那么只要单元格在视图中,它就会立即返回我,即使它只是在collectionView.
有没有办法可以检查单元格是否完全在视图中,然后我可以执行功能?
我已经在这个问题上报废了互联网,但无法找到满意的答案。
uiscrollview ios uicollectionview uicollectionviewcell swift
我试图导入Parse和Bolts框架,但Xcode无法构建项目.我尝试了以下方法,但似乎没有任何结果:
我正在使用Xcode 7.0 beta(swift 2.0).附上相同的屏幕截图.

欢呼和感谢提前!! [
我将我的项目从swift 3转换为swift 4并使用最新版本的xcode 9.在构建时,我收到以下错误:
Undefined symbols for architecture arm64:
"__T0So22AVCapturePhotoSettingsC12AVFoundation01_abC16SwiftNativeTypesACWP", referenced from:
__T06SpotMi8CameraVCC12capturePhotoyypF in CameraVC.o
"__T012AVFoundation39_AVCapturePhotoSettingsSwiftNativeTypesPAAE016availablePreviewc11PixelFormatG0SaySo8NSNumberCGfg", referenced from:
__T06SpotMi8CameraVCC12capturePhotoyypF in CameraVC.o
ld: symbol(s) not found for architecture arm64
我没有线索.任何帮助都感激不尽.
干杯!
我在swift中有一个firebase应用程序.现在我的问题很容易解释,但调试真的很奇怪.
问题:每当我打开应用程序时,它都可以正常运行.是应该做的一切等等.但是当我在背景中离开应用程序一段时间并打开它时,我会崩溃.我必须重新打开它2次才能发生撞击或杀死它.
重新产生错误:第1步:打开应用程序(在那里做一些事情或者只是离开它)然后回到家里而不是杀死它,将它保留在后台
第2步:过一会儿打开应用程序.--->崩溃
步骤3:在一段时间之后在步骤2之后再次打开它或立即--->再次崩溃
第4步:第三次打开它.--->工作完全没问题.
注意:为了逃避崩溃我总是要杀死它.总的来说,这是一个非常糟糕
另外,我检查了我的plists.他们运作正常.然而,当它崩溃我得到这个错误:
2018-12-20 19:05:44.272413-0800 SpotMi[15557:862318] *** Terminating app due to uncaught exception 'FIRAppNotConfigured', reason: 'Failed to get default Firebase Database instance. Must call `[FIRApp configure]` (`FirebaseApp.configure()` in Swift) before using Firebase Database.'
*** First throw call stack:
(0x1a1e2bea0 0x1a0ffda40 0x1a1d32674 0x1030c8d20 0x102f9cd24 0x102f992b0 0x102f9926c 0x10f928dc8 0x10f92ae28 0x10ef95e18 0x102f9935c 0x102f49644 0x102f4a55c 0x102f4ad94 0x102e03b18 0x102d5cd4c 0x102f49260 0x102f493b0 0x102f4ac74 0x102f4b11c 0x102dbaf3c 0x102dbafd8 0x1cea6620c 0x1cea6663c 0x1cf0551e4 0x1cf051200 0x1cf0240a0 0x1cf02585c 0x1cf02b2a8 0x1ce8c7358 0x1ce8cffd8 0x1ce8c6fd4 0x1ce8c7974 0x1ce8c5a74 0x1ce8c5720 0x1ce8ca8e0 0x1ce8cb840 …Run Code Online (Sandbox Code Playgroud) 我正在运行 ios 12 swift 4.2。
我已经实现了一个基本的相机捕获会话,并且正在点击其中的图像。一切都很好,直到我在自动/开/关模式之间切换闪光灯。单击第一张照片然后更改闪光模式后,应用程序崩溃并显示错误:
[AVCapturePhotoOutput capturePhotoWithSettings:delegate:] Settings may not be re-used'
Run Code Online (Sandbox Code Playgroud)
以下是相机实现:
var captureSession: AVCaptureSession!
var videoPreviewLayer: AVCaptureVideoPreviewLayer!
var capturePhotoOutput: AVCapturePhotoOutput!
let capturePhotoSettings = AVCapturePhotoSettings()
var previewView: UIView!
override func viewDidLoad() {
startCameraSession()
setupCaptureOutput()
}
@objc // Tap on a button to capture
func takePhotoOnTap() {
guard let capturePhotoOutput = self.capturePhotoOutput else { return }
capturePhotoSettings.isAutoStillImageStabilizationEnabled = true
capturePhotoSettings.isHighResolutionPhotoEnabled = true
capturePhotoSettings.flashMode = .auto
let _ = getSettings(camera: captureDevice!, flashMode: spotmiCameraOptions.flashMode)
capturePhotoOutput.capturePhoto(with: capturePhotoSettings, delegate: self)
}
//This is …Run Code Online (Sandbox Code Playgroud) 嘿,我正在尝试在我的设备上运行实时提要。现在我想每 3 秒拍一张照片,但每次都拍。它发出快门声。这是糟糕的用户体验。
因此,我想从前置摄像头运行实时摄像头流并在特定持续时间(~3 秒)捕获帧。
如何从实时摄像机源中提取帧并将其存储在 UIImage 变量中?
谢谢和干杯!