我知道如何保护 Flask 中的端点,并且我想对生成的 python 服务器存根做同样的事情。我想知道如何为 swagger python 服务器集成烧瓶令牌身份验证工作,以便端点得到保护。我可以轻松地将令牌认证装饰器添加到 Flask 中的端点。这就是flask-restplus中的工作方式,下面的这个完全有效:
from flask import Flask, request, jsonify
from flask_restplus import Api, Resource
app = Flask(__name__)
authorizations = {
'apikey' : {
'type' : 'apiKey',
'in' : 'header',
'name' : 'X-API-KEY'
},
}
api = Api(app, security = 'apikey',authorizations=authorizations)
def token_required(f):
@wraps(f)
def decorated(*args, **kwargs):
token = None
if 'X-API-KEY' in request.headers:
token = request.headers['X-API-KEY']
if not token:
return {'message' : 'Token is missing.'}, 401
if token != 'mytoken':
return {'message' : …
Run Code Online (Sandbox Code Playgroud) 我想对空气污染数据的月度时间序列进行前瞻性预测,例如比空气污染指数估计提前 3 到 6 个月。我尝试了scikit-learn
用于预测和将数据拟合到模型的模型工作正常。但我想要做的是做一个远期估计,比如空气污染输出指数将提前 6 个月。在我目前的尝试中,我可以通过使用来训练模型scikit-learn
. 但我不知道如何在 python 中进行前瞻性预测。要进行远期估计,我应该怎么做?谁能建议一个可能的解决方法来做到这一点?任何的想法?
我的尝试
import pandas as pd
from sklearn.preprocessing StandardScaler
from sklearn.metrics import accuracy_score
from sklearn.linear_model import BayesianRidge
url = "https://gist.githubusercontent.com/jerry-shad/36912907ba8660e11cd27be0d3e30639/raw/424f0891dc46d96cd5f867f3d2697777ac984f68/pollution.csv"
df = pd.read_csv(url, parse_dates=['dates'])
df.drop(columns=['Unnamed: 0'], inplace=True)
resultsDict={}
predictionsDict={}
split_date ='2017-12-01'
df_training = df.loc[df.index <= split_date]
df_test = df.loc[df.index > split_date]
df_tr = df_training.drop(['pollution_index'],axis=1)
df_te = df_test.drop(['pollution_index'],axis=1)
scaler = StandardScaler()
scaler.fit(df_tr)
X_train = scaler.transform(df_tr)
y_train = df_training['pollution_index']
X_test = scaler.transform(df_te)
y_test = df_test['pollution_index']
X_train_df = pd.DataFrame(X_train,columns=df_tr.columns)
X_test_df …
Run Code Online (Sandbox Code Playgroud) 我有 numpy 数组,我想使用 taylor series of 之类的幂级数e^x
,我想知道如何在 python 中实现它。为简单起见,我想我可以使用 maclaurin series at x0=0
,其中x
是 numpy 数组。基本上,我有 1 个暗像素向量,我想通过使用 e^x 的泰勒级数展开来非线性地展开每个像素值。换句话说,在输出向量中,每个像素将被泰勒级数展开项的第一项和第二项替换。有什么想法可以在python中实现吗?
数学概念:
这是我想要完成的简单数学概念,其中 nummpy 数组预计将通过使用幂级数(如 maclaurin series of e^x
.
我的尝试:
import numpy as np
arr= np.array([[120.0,24.0,12.0],[14.0,28.0,43.0]])
arr= arr/255.0
def maclurin_exp(x, power):
res = x*0
for i in range(power):
res += x**i/math.factorial(i)
return res
## test my code:
maclurin_exp(x=arr, power=3)
Run Code Online (Sandbox Code Playgroud)
新更新2:
确切地说,F
是 的泰勒级数e^x
,x
是每个像素值,x0
是 0 处的近似点。例如,如果我们在 1 …
我正在使用 CNN 进行多类图像分类,但准确性不是很好。我假设我需要使用通道均值和标准差对训练数据进行标准化,因此它可能有助于提高准确性。我想出了一种方法来做到这一点,但它不是很有效,因为我只是为均值设置了随机值,并为标准化设置了标准差。我不知道如何找到通道均值及其标准差。我想知道有什么办法可以做到这一点。谁能指出我如何实现这一目标?有什么可能的想法吗?
我目前的尝试:
import tensorflow as tf
from tensorflow.keras.models import Model
from tensorflow.keras.layers import Dense, Conv2D, MaxPooling2D, Dropout, Flatten, Input
from keras.datasets import cifar10
from keras.utils import to_categorical
(X_train, y_train), (X_test, y_test)= cifar10.load_data()
output_class = np.unique(y_train)
n_class = len(output_class)
input_shape = (32, 32, 3)
X_train = X_train.astype('float32')
X_test = X_test.astype('float32')
y_train_one_hot = to_categorical(y_train)
y_test_one_hot = to_categorical(y_test)
x = tf.keras.Input(shape=(32, 32, 3))
conv = Conv2D(128, (3, 3), activation='relu',input_shape=(32, 32, 3))(x)
conv = MaxPooling2D(pool_size=(2,2))(conv)
conv = Conv2D(64, (2,2))(conv)
conv = …
Run Code Online (Sandbox Code Playgroud) 我用 构建了我的 api flask, connexion and swagger UI
。我用 openapi 定义了我的 apispec。我从 swagger 编辑器创建了 swagger python 服务器存根,您可以在 github 上找到示例项目。当我反序列化请求 JSON 数据进行验证时,util.py
将使用它,但出现以下错误:
错误
Traceback (most recent call last):
File "C:\Users\kim\AppData\Local\Programs\Python\Python37\lib\site-packages\flask\app.py", line 2447, in wsgi_app
response = self.full_dispatch_request()
File "C:\Users\kim\AppData\Local\Programs\Python\Python37\lib\site-packages\flask\app.py", line 1952, in full_dispatch_request
rv = self.handle_user_exception(e)
File "C:\Users\kim\AppData\Local\Programs\Python\Python37\lib\site-packages\flask\app.py", line 1821, in handle_user_exception
reraise(exc_type, exc_value, tb)
File "C:\Users\kim\AppData\Local\Programs\Python\Python37\lib\site-packages\flask\_compat.py", line 39, in reraise
raise value
File "C:\Users\kim\AppData\Local\Programs\Python\Python37\lib\site-packages\flask\app.py", line 1950, in full_dispatch_request
rv = self.dispatch_request()
File "C:\Users\kim\AppData\Local\Programs\Python\Python37\lib\site-packages\flask\app.py", line 1936, in …
Run Code Online (Sandbox Code Playgroud) 我想为我的时间序列数据制作时间序列散点图,其中我的数据具有分类列,需要按组聚合以首先绘制数据,然后使用seaborn
或制作散点图matplotlib
。我的数据是产品销售价格时间序列数据,我想看到每个产品所有者在不同市场阈值下的价格趋势。我尝试使用pandas.pivot_table
,groupby
来塑造绘图数据,但无法获得我想要制作的所需绘图。
可重复数据:
这是我使用的示例产品数据;我想看到每个经销商关于不同蛋白质类型的价格趋势threshold
。
我的尝试
这是我目前尝试汇总我的数据以制作绘图数据,但它没有给出我正确的绘图。我敢打赌,我聚合绘图数据的方式是不正确的。谁能指出我如何正确地获得所需的情节?
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sn
mydf = pd.read_csv('foo.csv')
mydf=mydf.drop(mydf.columns[0], axis=1)
mydf['expected_price'] = mydf['price']*76/mydf['threshold']
g = mydf.groupby(['dealer','protein_type'])
newdf= g.apply(lambda x: pd.Series([np.average(x['threshold'])])).unstack()
Run Code Online (Sandbox Code Playgroud)
但上述尝试不起作用,因为我想绘制每个经销商的市场购买价格在每日时间序列中protein_type
不同threshold
的数据。我不知道处理这个时间序列的最佳方式是什么。谁能建议我或纠正我如何做到这一点?
我也尝试pandas/pivot_table
聚合我的数据,但它仍然不代表绘图数据。
pv_df= pd.pivot_table(mydf, index=['date'], columns=['dealer', 'protein_type', 'threshold'],values=['price'])
pv_df= pv_df.fillna(0)
pv_df.groupby(['dealer', 'protein_type', 'threshold'])['price'].unstack().reset_index()
Run Code Online (Sandbox Code Playgroud)
但上述尝试仍然无效。同样在我的数据中,日期不是连续的,所以我假设我可以绘制月度时间序列折线图。
我试图制作情节:
这是我制作情节的尝试:
def scatterplot(x_data, y_data, x_label, y_label, title):
fig, ax …
Run Code Online (Sandbox Code Playgroud) python ×6
flask ×2
connexion ×1
datetime ×1
keras ×1
matplotlib ×1
numpy ×1
pandas ×1
pixel ×1
scikit-learn ×1
seaborn ×1
swagger ×1
tensorflow ×1
time-series ×1
typing ×1