我正在浏览Apple的Vision API文档,我看到了几个与文本检测有关的类UIImages:
1) class VNDetectTextRectanglesRequest
看起来他们可以检测到角色,但我没有看到对角色做任何事情的方法.一旦你检测到了角色,你会如何将它们变成可被解释的东西NSLinguisticTagger?
这是一篇简短的概述Vision.
谢谢你的阅读.
我正在尝试向我的应用程序添加该选项,以在使用 Apple 的 Vision 框架识别文本时允许使用不同的语言。
似乎有一个功能,用于编程返回所支持的语言,但我不知道如果我正确地调用它,因为我只得到“EN-US”这回我相当 肯定不是唯一支持的语言?
这是我目前拥有的:
// current revision number of Vision
let revision = VNRecognizeTextRequest.currentRevision
var possibleLanguages: Array<String> = []
do {
possibleLanguages = try VNRecognizeTextRequest.supportedRecognitionLanguages(for: .accurate,
revision: revision)
} catch {
print("Error getting the supported languages.")
}
print("Possible languages for revision \(revision):\n(possibleLanguages.joined(separator: "\n"))")
Run Code Online (Sandbox Code Playgroud)
任何帮助将不胜感激,谢谢。
machine-learning augmented-reality swift apple-vision coreml