Roc*_*nce 5 parallel-processing hadoop r distributed-computing scheduled-tasks
我想安排和分发几台机器--Windows或Ubuntu - (一项任务只在一台机器上)执行R脚本(例如使用RServe).
我不想重新发明轮子,并且想要使用已经存在的系统以最佳方式分发这些任务,并且理想情况下有一个GUI来控制脚本的正确执行.
1 /是否有R包或可用于此的库?
2 /一个似乎被广泛使用的库是mapReduce和Apache Hadoop.我没有这个框架的经验.你会为我的目的提供什么样的安装/插件/设置?
编辑:以下是有关我的设置的更多详细信息:
我确实有一个办公室,里面装满了机器(小型服务器或工作站),有时也用于其他目的.我想使用所有这些机器的计算能力并在其上分发我的R脚本.
我还需要一个调度程序,例如.用于在修复时或定期安排脚本的工具.我正在使用Windows和Ubuntu,但是对于其中一个系统来说,一个好的解决方案就足够了.最后,我不需要服务器来取回脚本的结果.脚本执行的操作包括访问数据库,保存文件等,但不返回任何内容.如果有的话,我只想找回错误/警告.