我想实现一个OCR应用程序,可以识别照片中的文本.
我成功地在iOS中编译和集成了Tesseract Engine,我成功地在拍摄清晰文档(或从屏幕上拍摄此文本的照片)时获得了合理的检测,但是对于其他文本,例如路标,商店标志,颜色背景,检测失败.
问题是需要什么样的图像处理准备才能获得更好的识别.例如,我希望我们需要将图像转换为灰度/黑白以及修复对比度等.
怎么能在iOS上完成,有没有这个包?
我试图从图像选择器中选择一个图像后创建一个模态视图控制器.我用的代码是:
- (void)imagePickerController:(UIImagePickerController *)picker didFinishPickingMediaWithInfo:(NSDictionary *)info
{
NSLog(@"Picker has returned");
[self dismissModalViewControllerAnimated:YES];
// TODO: make this all threaded?
// crop the image to the bounds provided
img = [info objectForKey:UIImagePickerControllerOriginalImage];
NSLog(@"orig image size: %@", [[NSValue valueWithCGSize:img.size] description]);
// save the image, only if it's a newly taken image:
if([picker sourceType] == UIImagePickerControllerSourceTypeCamera){
UIImageWriteToSavedPhotosAlbum(img, nil, nil, nil);
}
// self.image_View.image=img;
//self.image_View.contentMode = UIViewContentModeScaleAspectFit;
ModalViewController *sampleView = [[ModalViewController alloc] init];
[self presentModalViewController:sampleView animated:YES];
}
Run Code Online (Sandbox Code Playgroud)
但是,我收到警告:
Warning: Attempt to present <ModalViewController: 0x7561600> on …Run Code Online (Sandbox Code Playgroud) 我在Boingo的Wi-Finder iOS应用程序中注意到,一旦他到达Boingo数据库中的访问点,应用程序就会向用户发送通知.该通知告诉用户他可以访问wifi网络.
怎么做iOS?
我有一个想在纸上使用的Matlab图.该图包含多个cdfplots.现在问题是我不能使用标记因为在图中变得非常密集.如果我想使样本稀疏,我必须从cdfplot中删除一些样本,这将导致不同的cdfplot行.
如何在保持实际线条的同时添加足够的标记?

我正在运行C++代码,我需要从txt文件导入数据.文本文件包含10,000行.每行包含n列二进制数据.
代码必须循环100,000次,每次必须从txt文件中随机选择一行,并将列中的二进制值分配给某些变量.
编写此代码的最有效方法是什么?我应该先将文件加载到内存中,还是应该随机打开一个随机行号?
如何在C++中实现它?
我想将一个零和一个矩阵绘制成一个图形,这样每1个我有一个形状像垂直条的标记被画成"|".这样,当一系列1在同一x轴上时,看起来像一条长直线.
这个例子说明了我的意图:
给出以下矩阵:
0 0 1 1 0 1 0
0 1 0 1 1 1 0
0 1 0 1 1 1 0
1 0 0 1 1 1 0
Run Code Online (Sandbox Code Playgroud)
我明白了:

我在覆盆子Pi中运行python代码.代码应该永远持续下去.然而,几个小时后它崩溃了.由于它在远程计算机上运行,因此无法在崩溃期间看到它给出的消息.
如何将此消息存储在文件中,以便我可以看到问题是什么?这是在linux中自动完成的吗?或者我应该写一些函数来在崩溃期间导出错误.我怎样才能做到这一点?
我正在构建一个从右到左的导航控制器来支持 RTL 语言。在阅读 StackOverFlow 中的一些帖子后,使用 UINavigationController 从右到左推送 ViewController,我认为这种方法最合适:
DetailedViewController *DVC = [[DetailedViewController alloc]initWithNibName:@"DetailedViewController" bundle:nil];
NSMutableArray *vcs = [NSMutableArray arrayWithArray:self.navigationController.viewControllers];
[vcs insertObject:DVC atIndex:[vcs count]-1];
[self.navigationController setViewControllers:vcs animated:NO];
[self.navigationController popViewControllerAnimated:YES];
Run Code Online (Sandbox Code Playgroud)
这将创建一个详细的视图控制器并将其添加到 NavigationController 正下方的视图控制器堆栈中。当弹出 NavigationController 时,它看起来好像我们真的在加载DetailedViewController,整洁,嗯?
现在我面临两个问题:
1- 详细视图控制器不再显示返回按钮。所以我决定添加一个新按钮来代表它执行此操作。
2- 我不知道如何从DetailedViewController 返回到NavigationController。
有任何想法吗?
附件1是来自名为GeniusScan的应用程序的屏幕截图,您可以在其中拍摄任何文档,并在imageview上显示可调整的矩形网格.您可以用手指轻松调整网格边框,以选择要扫描的图像部分.然后它将转变为正确的前景.
1-如何在imageview上绘制网格并与其交互?
2-如何将网格的角点返回到视图控制器.

更新:我发现了一个名为BJImageCropper的精彩类,它允许使用手指调整边框,但仅限于矩形框.任何人都可以建议如何更新它以支持像GeniusScan应用程序中的形状?
我实施了一个作者归属项目,我能够使用 KNN 用两位作者的文章训练我的 KNN 模型。然后,我将一篇新文章的作者分类为作者 A 或作者 B。我使用 knn() 函数生成模型。模型的输出如下表。
Word1 Word2 Word3 Author
11 1 48 8 A
2 2 0 0 B
29 1 45 9 A
1 2 0 0 B
4 0 0 0 B
28 3 1 1 B
Run Code Online (Sandbox Code Playgroud)
从模型中可以明显看出,Word2 和 Word3 是导致 Author A 和 Author B 分类的最显着变量。
我的问题是如何使用 R 识别这一点。
我想使用find()找到完全匹配的单词.但是它的接缝find()也返回部分匹配的字符串.
参考stackoverflow中的先前帖子字符串完全匹配使用以下正则表达式:
import re
print(re.findall('\\blocal\\b', "Hello, locally local test local."))
// ['local', 'local']
Run Code Online (Sandbox Code Playgroud)
问题在于我的情况是"本地的".与"本地"不同
我怎样才能做到这一点?
更新:
我需要做的是替换包含本地工作的元素.
print("Hello, locally local test local#".replace('local','we'))
// should result in
Hello, locally we test local#
Run Code Online (Sandbox Code Playgroud) ios ×5
matlab ×2
objective-c ×2
plot ×2
python ×2
c++ ×1
gnuplot ×1
iphone ×1
ocr ×1
r ×1
regex ×1
statistics ×1
tesseract ×1
uitableview ×1
wifi ×1