我正在通过hadoop权威指南,它清楚地解释了输入分裂.它就像
输入拆分不包含实际数据,而是具有HDFS数据的存储位置
和
通常,输入分割的大小与块大小相同
1)假设一个64MB的块在节点A上并在其他2个节点(B,C)之间复制,map-reduce程序的输入分割大小是64MB,这个分割只有节点A的位置吗?或者它是否具有所有三个节点A,b,C的位置?
2)由于数据是所有三个节点的本地数据,框架如何决定(选择)在特定节点上运行的maptask?
3)如果输入分割大小大于或小于块大小,如何处理?
问题:我对tomcat相对较新,我从我正在开发的新项目中部署了一个war文件,它部署得很好,没有任何问题,但是当我尝试运行该应用程序时,它给出了404。我尝试过:尝试找到合适的错误消息,但是,在 eclipse 控制台和 tomcat 安装目录中的日志文件夹中都没有看到错误。我该如何解决这个问题?任何帮助表示赞赏。