小编Rit*_*ari的帖子

如何使用react保存从服务器下载的文件?

我有一个后端API,它可以在我们调用时基本上下载模板.我在我的html页面上提供了一个href,因此每当有人点击该href时,它会调用后端API并且该文件应该被下载.

但该文件未下载.

我正在使用React.如果我只是从我的浏览器点击后端,文件会被下载,但如果我从反应中调用它,则不会.

任何线索?

REACT CODE:

const config = require('config');
var aws4 = require('aws4');
const Promise = require('axios');

const requestHelper = {
  appendHeaders(request){
    request.headers = request.headers || {};
    if(request.headers["Content-Type"]){
      return
    }
    request.headers["Content-Type"] = "application/json";
  },
  externalApi(request, serverResult){
    if(!request.method){
      request.method='POST';
    }
    request.path = request.url
    this.appendHeaders(request)
   console.log('request',request)
    return Promise(request)
    .then((apiResponse) => {
      if (apiResponse.data.errors) {
        var error = apiResponse.data.errors;
        console.log('api error response: ', error);
        serverResult.status(400).json({ error })
      } else {
        console.log('api response: ', apiResponse.data);
        serverResult.status(200).json(apiResponse.data);
      }
    }).catch((error) => {
      console.log('api error response: …
Run Code Online (Sandbox Code Playgroud)

reactjs

16
推荐指数
2
解决办法
6万
查看次数

在Python中解析Robots.txt

我想用 python 解析 robots.txt 文件。我已经探索了 robotsParser 和 robotsExclusionParser,但没有什么真正满足我的标准。我想一次性获取所有 diallowedUrls 和 allowedUrls ,而不是手动检查每个 url 是否允许。有没有图书馆可以做到这一点?

python robots.txt

2
推荐指数
1
解决办法
1万
查看次数

标签 统计

python ×1

reactjs ×1

robots.txt ×1