我的iOS应用程序在注册期间使用Facebook的Graph API请求来获取用户信息,这在升级到Facebook的最新SDK之前工作正常.升级后,我收到一个运行时错误,声明:"FBSDKLog:从Graph API v2.4开始,对/ me的GET请求应该包含一个明确的"fields"参数".
这是代码:
func requestFacebook() {
let graphRequest : FBSDKGraphRequest = FBSDKGraphRequest(graphPath: "me", parameters: nil)
graphRequest.startWithCompletionHandler({ (connection, result, error) -> Void in
if ((error) != nil)
{
// Process error
println("Error: \(error)")
}
else if error == nil
{
let birthday : NSString = (result.valueForKey("birthday") as? NSString)!
var currentDate = NSDate()
var birthdayFormatter = NSDateFormatter()
let userCalendar = NSCalendar.currentCalendar()
birthdayFormatter.dateFormat = "MM/DD/YYYY"
var birthdayNSDate = birthdayFormatter.dateFromString(birthday as String)
var userAge = self.calculateAge(birthdayNSDate!)
PFUser.currentUser()!["age"] = userAge
var facebookID: …
Run Code Online (Sandbox Code Playgroud) 我正在尝试在我的应用程序中实现一个功能,用户可以从他们的相机胶卷中选择一张图片,并且应用程序将解码图像中的QR码.
我目前正在使用react-native-camera-roll-picker:https://github.com/jeanpan/react-native-camera-roll-picker 和react-native-qrcode-local-image:https:// github的.com/remobile /反应天然-QRCode的局部图像
问题是本地QR码图像库要求我传递本地路径,并且与react-native-camera-roll-picker提供的本机uri不兼容.我会使用另一个库来解码图像QR码但这个似乎是唯一适用于iOS和Android并从现有图像而不是从实际相机扫描的图像.
我也尝试实现react-native-fetch-blob以便在本地暂时保存相机胶卷图像,但这也给我带来了麻烦:https://github.com/wkh237/react-native-fetch-blob
这是我目前在一个函数中的尝试,我在react-native-camera-roll-picker的"回调"道具中调用(以前的尝试被注释掉了):
_pickedImage(array,currentImg) {
console.log(currentImg)
var path = RNFS.DocumentDirectoryPath + '/pickedqr';
let rnfbURI = RNFetchBlob.wrap(RNFetchBlob.fs.asset(currentImg.uri))
const Blob = RNFetchBlob.polyfill.Blob
Blob.build(rnfbURI, {type:'image/jpg'}).then((b) => {
tmpBlob = b;
RNFetchBlob.fs.readFile(tmpBlob, 'base64').then((data) => {
console.log("Base64", data)
QRDecoder.decode(`data:image/gif;base64,${data}`, (error, result)=>{
console.log("Code", result)
console.log("Error", error)
});
});
})
/*fullPath = currentImg.uri.replace("assets-library://", "cdvfile://localhost/assets-library/")
QRDecoder.decode(fullPath, (error, result)=>{
console.log("Code", result)
console.log("Error", error)
});*/
/*let blb = Blob.build( rnfbURI, { type: 'image/jpg'})
console.log(blb)*/
/*RNFetchBlob.fs.readFile(rnfbURI, 'base64').then((data) => { …
Run Code Online (Sandbox Code Playgroud) 我刚刚将ListView更改为React Native的新SectionList,现在当我尝试使用scrollTo函数时应用程序崩溃,声明它未定义.我尝试查找可能有用的新/替代功能,但它们似乎都没有工作.
使用新的SectionList以编程方式滚动到特定部分的正确协议是什么?
链接我到目前为止一直在咨询:https : //github.com/facebook/react-native/issues/13151 https://facebook.github.io/react-native/releases/0.43/docs/virtualizedlist.html# scrolltoend
我目前的尝试:
var params = {animated:true,offset:Platform.OS == "ios" ? 244 : 264}
_mainListView.scrollToOffset(params)
Run Code Online (Sandbox Code Playgroud) 我正在尝试使用Xcode 6.3将Parse和Facebook的SDK与我的应用程序集成,并在尝试构建时遇到这些错误:
Undefined symbols for architecture x86_64:
"_OBJC_CLASS_$_FBSDKAppEvents", referenced from:
__TMaCSo14FBSDKAppEvents in AppDelegate.o
"_OBJC_CLASS_$_FBSDKApplicationDelegate", referenced from:
__TMaCSo24FBSDKApplicationDelegate in AppDelegate.o
"_OBJC_CLASS_$_PFAnalytics", referenced from:
__TMaCSo11PFAnalytics in AppDelegate.o
"_OBJC_CLASS_$_PFFacebookUtils", referenced from:
__TMaCSo15PFFacebookUtils in AppDelegate.o
"_OBJC_CLASS_$_Parse", referenced from:
__TMaCSo5Parse in AppDelegate.o
ld: symbol(s) not found for architecture x86_64
clang: error: linker command failed with exit code 1 (use -v to see invocation)
Run Code Online (Sandbox Code Playgroud)
我不知道这意味着什么,但我已经尝试了许多其他解决方案,例如清理,删除Derived Data文件夹,检查我的所有框架,我仍然无法解决问题.如果有人知道如何解决这个问题,我将非常感激.感谢您的时间.
编辑 这是我正在使用的Bridging-Header.h:
#import <AFNetworking.h>
#import <BDBOAuth1RequestOperationManager.h>
#import <NSDictionary+BDBOAuth1Manager.h>
#import <UIImageView+AFNetworking.h>
#import <UIScrollView+SVInfiniteScrolling.h>
#import <FBSDKCoreKit/FBSDKCoreKit.h>
#import <FBSDKLoginKit/FBSDKLoginKit.h>
#import <FBSDKShareKit/FBSDKShareKit.h>
#import <Parse/Parse.h> …
Run Code Online (Sandbox Code Playgroud) 所以我的SceneKit
项目中有一个可以自由旋转和移动的摄像头,我有一个物体,在某些情况下,需要与摄像机保持恒定的距离并始终位于其视图的中心位置无论相机如何旋转.不幸的是,我是新手,SceneKit
不知道如何做到这一点.
所以我正在寻找的关键事项是:
如何使对象始终与相机保持相同的距离
如何使对象始终位于摄像机视图的中心,无论它看起来是什么方向
目前,相机和物体(SCNNode
具有盒子几何形状)都是同一场景的孩子.
我正在编码swift
所以我更喜欢使用它的答案,但如果你有一个解决方案objective-c
,那也是有效的.
谢谢你!
我正在尝试创建一个反应原生的渐变,当应用程序打开时将以一种颜色开始,然后每30秒逐渐变为另一种颜色.常规线性渐变无需添加动画即可工作.我尝试使用插值和动画时序,如本机文档中所示,但似乎没有任何作用.
我的代码:
import React, {Component} from 'react';
import {processColor, AppRegistry, StyleSheet, Dimensions, Animated, Image, Easing, View} from 'react-native';
import TimerMixin from 'react-timer-mixin';
import LinearGradient from 'react-native-linear-gradient';
var screenWidth = Dimensions.get('window').width;
var screenHeight = Dimensions.get('window').height;
//HEX version of colors
var gradientColors = [['#EF2A2A', '#EF6A2A'], //Red
['#EF6A2A', '#EFD82A'], //Orange
['#1BD170', '#61E822'], //Green
['#22D2E6', '#26F084'], //Aqua
['#2A3BEF', '#2ADCEF'], //Blue
['#EF2AD2', '#2A3BEF'], //Purple
['#EF2AD2', '#EF2A2A'] //Pink
]
var gradientColorsNoHash = [['EF2A2A', 'EF6A2A'], //Red
['EF6A2A', 'EFD82A'], //Orange
['1BD170', '61E822'], //Green
['22D2E6', '26F084'], //Aqua
['2A3BEF', '2ADCEF'], …
Run Code Online (Sandbox Code Playgroud) 有没有人有一个工作方法来发送支持从React Native项目附加本地图像的文本消息?我目前正在使用react-native-communications(https://github.com/anarchicknight/react-native-communications),它似乎不支持任何附件和文本.
在搜索支持附件的库时,我能找到的唯一一个是react-native-message-composer(https://github.com/anarchicknight/react-native-message-composer).但是,我按照安装说明进行了正确链接,并调用了文档中显示的函数,但没有任何反应.它也只支持iOS.
所以我的问题是,是否有人知道如何以支持iOS和Android图像附件的方式从React Native应用程序发送短信?
我正在尝试在swift中创建一个函数,准确计算任何位置与地球原点的垂直和水平距离(纬度:0,经度:0).我知道iOS有distanceFromLocation功能,但这给了我直接位置.我正在寻找的是那个方向的水平和垂直分量.我试着提出自己的解决方案,但是当我根据我得到的水平和垂直分量测试直接距离时,它与实际距离不匹配.这是我的功能:
func distanceFromOrigin(location:CLLocation) {
let lat = location.coordinate.latitude
let lon = location.coordinate.longitude
let earthOriginLocation = CLLocation(coordinate: CLLocationCoordinate2DMake(0.0, 0.0), altitude: CLLocationDistance(0.0), horizontalAccuracy: kCLLocationAccuracyBestForNavigation, verticalAccuracy: kCLLocationAccuracyBestForNavigation, timestamp: NSDate())
var horDistance = earthOriginLocation.distanceFromLocation(CLLocation(latitude: 0.0, longitude: location.coordinate.longitude))
var verDistance = earthOriginLocation.distanceFromLocation(CLLocation(latitude: location.coordinate.latitude, longitude: 0.0))
let overallDistance = earthOriginLocation.distanceFromLocation(location)
if lat < 0 {
print("Object is South of Equator")
verDistance *= -1
} else if lat > 0 {
print("Object is North of Equator")
} else {
print("Object is at the Equator")
}
if lon …
Run Code Online (Sandbox Code Playgroud) 我要做的就是将使用react-native-camera拍摄的照片上传到带有react-native-fetch-blob的Firebase存储中,但是无论如何都不会发生。
我浏览了所有可以找到的文档,但似乎没有任何效果。
如果有人拥有完成此任务的工作系统,请将其发布为答案。我可以获取react-native-camera返回的jpg的uri(它显示在ImageView和所有内容中),但是当需要放置Blob时,我的上传功能似乎停止工作。
我当前的功能:
uploadImage = (uri, imageName, mime = 'image/jpg') => {
return new Promise((resolve, reject) => {
const uploadUri = Platform.OS === 'ios' ? uri.replace('file://', '') : uri
let uploadBlob = null
const imageRef = firebase.storage().ref('selfies').child(imageName)
console.log("uploadUri",uploadUri)
fs.readFile(uploadUri, 'base64').then((data) => {
console.log("MADE DATA")
var blobEvent = new Blob(data, 'image/jpg;base64')
var blob = null
blobEvent.onCreated(genBlob => {
console.log("CREATED BLOB EVENT")
blob = genBlob
firebase.storage().ref('selfies').child(imageName).put(blob).then(function(snapshot) {
console.log('Uploaded a blob or file!');
firebase.database().ref("selfies/" + firebase.auth().currentUser.uid).set(0)
var updates = {};
updates["/users/" + …
Run Code Online (Sandbox Code Playgroud) javascript blob react-native react-native-camera react-native-fetch-blob