Nar*_*aki 2 java optimization asynchronous
我必须修改dropwizard应用程序以改善其运行时间.基本上,该应用程序每天接收大约300万个URL并下载并解析它们以检测恶意内容.问题是该应用程序只能处理100万个URL.当我查看应用程序时,我发现它正在进行大量的顺序调用.我想了解如何通过使其成为异步或其他技术来改进应用程序.
所需代码如下: -
/* Scheduler */
private long triggerDetection(String startDate, String endDate) {
for (UrlRequest request : urlRequests) {
if (!validateRequests.isWhitelisted(request)) {
ContentDetectionClient.detectContent(request);
}
}
}
/* Client */
public void detectContent(UrlRequest urlRequest){
Client client = new Client();
URI uri = buildUrl(); /* It returns the URL of this dropwizard application's resource method provided below */
ClientResponse response = client.resource(uri)
.type(MediaType.APPLICATION_JSON_TYPE)
.post(ClientResponse.class, urlRequest);
Integer status = response.getStatus();
if (status >= 200 && status < 300) {
log.info("Completed request for url: {}", urlRequest.getUrl());
}else{
log.error("request failed for url: {}", urlRequest.getUrl());
}
}
private URI buildUrl() {
return UriBuilder
.fromPath(uriConfiguration.getUrl())
.build();
}
/* Resource Method */
@POST
@Path("/pageDetection")
@Consumes(MediaType.APPLICATION_JSON)
@Produces(MediaType.APPLICATION_JSON)
/**
* Receives the url of the publisher, crawls the content of that url, applies a detector to check if the content is malicious.
* @returns returns the probability of the page being malicious
* @throws throws exception if the crawl call failed
**/
public DetectionScore detectContent(UrlRequest urlRequest) throws Exception {
return contentAnalysisOrchestrator.detectContentPage(urlRequest);
}
/* Orchestrator */
public DetectionScore detectContentPage(UrlRequest urlRequest) {
try {
Pair<Integer, HtmlPage> response = crawler.rawLoad(urlRequest.getUrl());
String content = response.getValue().text();
DetectionScore detectionScore = detector.getProbability(urlRequest.getUrl(), content);
contentDetectionResultDao.insert(urlRequest.getAffiliateId(), urlRequest.getUrl(),detectionScore.getProbability()*1000,
detectionScore.getRecommendation(), urlRequest.getRequestsPerUrl(), -1, urlRequest.getCreatedAt() );
return detectionScore;
} catch (IOException e) {
log.info("Error while analyzing the url : {}", e);
throw new WebApplicationException(e, Response.Status.INTERNAL_SERVER_ERROR);
}
}
Run Code Online (Sandbox Code Playgroud)
我在考虑以下方法: -
我没有通过POST调用dropwizard资源方法,而是orchestrator.detectContent(urlRequest)
直接从调度程序调用.
协调器可以返回detectionScore,我将所有的detectScores存储在map/table中,并执行批量数据库插入,而不是像在当前代码中那样单独插入.
我想对上述方法和可能的其他技术进行一些评论,以便我可以改善运行时间.另外,我刚刚阅读了Java异步编程,但似乎无法理解如何在上面的代码中使用它,所以也希望对此有所帮助.
谢谢.
编辑:我可以想到两个瓶颈:
系统有8 GB的内存,其中4 GB似乎是免费的
$ free -m
total used free shared buffers cached
Mem: 7843 4496 3346 0 193 2339
-/+ buffers/cache: 1964 5879
Swap: 1952 489 1463
Run Code Online (Sandbox Code Playgroud)
CPU使用率也很小:
top - 13:31:19 up 19 days, 15:39, 3 users, load average: 0.00, 0.00, 0.00
Tasks: 215 total, 1 running, 214 sleeping, 0 stopped, 0 zombie
Cpu(s): 0.5%us, 0.0%sy, 0.0%ni, 99.4%id, 0.1%wa, 0.0%hi, 0.0%si, 0.0%st
Mem: 8031412k total, 4605196k used, 3426216k free, 198040k buffers
Swap: 1999868k total, 501020k used, 1498848k free, 2395344k cached
Run Code Online (Sandbox Code Playgroud)
首先检查你大部分时间都在哪里.
我想大部分时间都没有下载网址了.
如果下载网址的时间超过90%,可能无法改善您的应用程序,因为瓶颈不是Java,而是您的网络.
仅当下载时间在网络功能下时才考虑以下内容
如果下载时间不是那么高,你可能会尝试提高你的表现.标准方法是使用生产者消费者链.详情请见此处.
基本上你可以将你的工作拆分如下:
Downloading --> Parsing --> Saving
Run Code Online (Sandbox Code Playgroud)
下载是生产者,解析是下载过程的消费者,生成器用于保存过程,保存是消费者.
每个步骤可以由不同数量的线程执行.例如,您可以拥有3个下载线程,5个解析线程和1个保存线程.
评论后编辑
假设瓶颈不是cpu时间,所以对java代码进行干预并不重要.
如果您知道每天下载的GigaBytes有多少可以查看它们是否接近您网络的最大带宽.
如果发生这种情况有不同的可能性:
Content-Encoding: gzip
(因此减少使用的带宽)