我有问题
ValueError:至少需要一个数组来连接
以下是整个错误消息。
    Training mode
Traceback (most recent call last):
  File "bcf.py", line 342, in <module>
    bcf.train()
  File "bcf.py", line 321, in train
    self._learn_codebook()
  File "bcf.py", line 142, in _learn_codebook
    feats_sc = np.concatenate(feats_sc, axis=1).transpose()
ValueError: need at least one array to concatenate
下面是问题的区域。
    def _learn_codebook(self):
    MAX_CFS = 800 # max number of contour fragments per image; if above, sample randomly
    CLUSTERING_CENTERS = 1500
    feats_sc = []
    for image in self.data.values():
        feats = image['cfs']
        feat_sc = feats[1]
        if feat_sc.shape[1] > MAX_CFS: …即使在回答和评论中应用建议后,看起来尺寸不匹配问题仍然存在。这也是要复制的确切代码和数据文件:https : //drive.google.com/drive/folders/1q67s0VhB-O7J8OtIhU2jmj7Kc4LxL3sf?usp=sharing
这个怎么改啊!?最新代码、模型摘要、使用的函数和我得到的错误如下
type_ae=='dcor'
#Wrappers for keras
def custom_loss1(y_true,y_pred):
    dcor = -1*distance_correlation(y_true,encoded_layer)
    return dcor
def custom_loss2(y_true,y_pred):
    recon_loss = losses.categorical_crossentropy(y_true, y_pred)
    return recon_loss
input_layer =  Input(shape=(64,64,1))
encoded_layer = Conv2D(filters = 128, kernel_size = (5,5),padding = 'same',activation ='relu', 
                       input_shape = (64,64,1))(input_layer)
encoded_layer = MaxPool2D(pool_size=(2,2))(encoded_layer)
encoded_layer = Dropout(0.25)(encoded_layer)
encoded_layer = (Conv2D(filters = 64, kernel_size = (3,3),padding = 'same',activation ='relu'))(encoded_layer)
encoded_layer = (MaxPool2D(pool_size=(2,2)))(encoded_layer)
encoded_layer = (Dropout(0.25))(encoded_layer)
encoded_layer = (Conv2D(filters = 64, kernel_size = (3,3),padding = 'same',activation ='relu'))(encoded_layer)
encoded_layer = (MaxPool2D(pool_size=(2,2)))(encoded_layer)
encoded_layer = …我在对包含大约 7500 个数据点的数据集执行多重回归时遇到问题,其中某些列和行中缺少数据 (NaN)。每行至少有一个 NaN 值。某些行仅包含 NaN 值。
我正在使用 OLS Statsmodel 进行回归分析。我尽量不使用 Scikit Learn 来执行 OLS 回归,因为(我可能错了,但是)我必须在我的数据集中估算缺失的数据,这会在一定程度上扭曲数据集。
我的数据集如下所示: KPI
这就是我所做的(目标变量是 KP6,预测变量是剩余变量):
est2 = ols(formula = KPI.KPI6.name + ' ~ ' + ' + '.join(KPI.drop('KPI6', axis = 1).columns.tolist()), data = KPI).fit()
它返回一个 ValueError: zero-size array to reduce operation maximum,它没有身份。
---------------------------------------------------------------------------
ValueError                                Traceback (most recent call last)
<ipython-input-207-b24ba316a452> in <module>()
      3 #test = KPI.dropna(how='all')
      4 #test = KPI.fillna(0)
----> 5 est2 = ols(formula = KPI.KPI6.name + ' ~ ' + ' + …我不明白为什么它适用于不同的场景,但不适用于这个场景。基本上,一些绅士在这里帮助我改进了我的代码以刮取天气,这非常有效。然后我尝试做同样的事情来刮取 span 标签中的 ETH 值<span class="text-large2" data-currency-value="">$196.01</span>。所以,我在代码中采用了相同的技术,替换了字段,并希望它能够工作。
代码在这里:
import requests
from BeautifulSoup import BeautifulSoup
import time
url = 'https://coinmarketcap.com/currencies/litecoin/'
def ltc():
    while (True):
        response = requests.get(url)
        soup = BeautifulSoup(response.content)
        price_now = int(soup.find("div", {"class": "col-xs-6 col-sm-8 col-md-4 text-left"}).find(
        "span", {"class": "text-large2"}).getText())
        print(u"LTC price is: {}{}".format(price_now))
        # if less than 150
        if 150 > price_now:
            print('Price is Low')
        # if more than 200
        elif 200 < price_now:
            print('Price is high')
if __name__ == "__main__":
    ltc()
输出如下所示:
Traceback (most …我想对数据系列执行快速傅里叶变换。该系列包含 407 天内一致采样的每日地震振幅值。我想在这个数据集中搜索任何周期性周期。
我在这里使用 SciPy 文档进行了初步尝试:https://docs.scipy.org/doc/scipy/reference/tutorial/fftpack.html。类似于这个问题(链接),然后我将 y 的参数从人工正弦函数更改为我的数据集。
但是,我收到以下错误:
ValueError: x and y must have same first dimension, but have shapes (203,) and (407, 1)
我希望能帮助您理解为什么会出现此错误以及如何修复它。
我还希望获得有关 FFT 处理数据集所需的正确频率和采样输入值的帮助。我的数据集中有 407 个值,每个值代表一天。因此,我定义了 N(样本点数)= 407,T(样本间距)= 1 / 84600(1 / 一天的秒数)。那是对的吗?
这是我的完整代码:
import numpy as np
import matplotlib.pyplot as plt
from scipy.fftpack import fft, ifft
import pandas as pd
# Import csv file
df = pd.read_csv('rsam_2016-17_fft_test.csv', index_col=['DateTime'], parse_dates=['DateTime'])
print(df.head())
#plot data
plt.figure(figsize=(12,4))
df.plot(linestyle = '', marker = '*', color='r') …我需要一些帮助...我在使用 pandas 函数 read_sas 读取 python 中的 sas 表时遇到了一些麻烦。我收到以下错误:
"ValueError: Length of values does not match length of index".
这是我运行的代码:
import pandas as pd
data=pd.read_sas("my_table.sas7bdat")
data.head()
我的 sas 表非常大,有 505 列和 100 000 行。
感谢你的帮助。
我已经使用 Keras 的函数式 API 构建了一个模型,当我将 tensorboard 实例添加到我的 model.fit() 函数中的回调时,它会抛出一个错误: "AttributeError: 'Model' object has no attribute 'run_eagerly'"
Model 类确实没有属性 run_eagerly,但在 Keras 文档中,它说它可以作为参数传递给 model.compile() 函数。这返回
"ValueError: ('Some keys in session_kwargs are not supported at this time: %s', dict_keys(['run_eagerly']))"
这是否意味着我没有合适的 Tensorflow/Keras 版本?
张量流:1.14.0
Keras:2.2.4-tf
model = Model(inputs=[input_ant1, input_ant2], outputs=main_output)
tensorboard = TensorBoard(log_dir='.logs/'.format(time()))
[...]
model.fit([input1, input2],[labels], epochs=10, callbacks=[tensorboard])
最近我在使用deepreplay 包时遇到了一个问题,因为它的 Traceback 如下:
---------------------------------------------------------------------------
ValueError                                Traceback (most recent call last)
<ipython-input-43-c3b5d8180301> in <module>()
----> 1 model.fit(X, y, epochs=50, batch_size=16, callbacks=[replay])
2 frames
/usr/local/lib/python3.7/dist-packages/keras/utils/traceback_utils.py in error_handler(*args, **kwargs)
     65     except Exception as e:  # pylint: disable=broad-except
     66       filtered_tb = _process_traceback_frames(e.__traceback__)
---> 67       raise e.with_traceback(filtered_tb) from None
     68     finally:
     69       del filtered_tb
/usr/local/lib/python3.7/dist-packages/deepreplay/callbacks.py in on_train_begin(self, logs)
     83         self.n_epochs = self.params['epochs']
     84 
---> 85         self.group = self.handler.create_group(self.group_name)
     86         self.group.attrs['samples'] = self.params['samples']
     87         self.group.attrs['batch_size'] = self.params['batch_size']
/usr/local/lib/python3.7/dist-packages/h5py/_hl/group.py in create_group(self, name, track_order)
     63 …我最近尝试使用 Pip 安装库,但收到此错误消息。我无法安装任何软件包,因为不断弹出相同的错误消息。
我在我的主环境和 venv 虚拟环境中都注意到这个问题。
任何帮助都感激不尽。
WARNING: Ignoring invalid distribution -illow (c:\users\brdwoo\appdata\local\programs\python\python39\lib\site-packages)
WARNING: Ignoring invalid distribution -aleido (c:\users\brdwoo\appdata\local\programs\python\python39\lib\site-packages)
WARNING: Ignoring invalid distribution -illow (c:\users\brdwoo\appdata\local\programs\python\python39\lib\site-packages)
WARNING: Ignoring invalid distribution -aleido (c:\users\brdwoo\appdata\local\programs\python\python39\lib\site-packages)
ERROR: Exception:
Traceback (most recent call last):
  File "c:\users\brdwoo\appdata\local\programs\python\python39\lib\site-packages\pip\_internal\cli\base_command.py", line 167, in exc_logging_wrapper
    status = run_func(*args)
  File "c:\users\brdwoo\appdata\local\programs\python\python39\lib\site-packages\pip\_internal\cli\req_command.py", line 205, in wrapper
    return func(self, options, args)
  ...
    resp = self.send(prep, **send_kwargs)
  File "c:\users\brdwoo\appdata\local\programs\python\python39\lib\site-packages\pip\_vendor\requests\sessions.py", line 645, in send
    r = adapter.send(request, **kwargs)
  File "c:\users\brdwoo\appdata\local\programs\python\python39\lib\site-packages\pip\_vendor\cachecontrol\adapter.py", line 57, in send
    resp = …我的GET端点收到一个需要满足以下条件的查询参数:
int0 和 10 之间1.直接使用Query(gt=0, lt=10). 但是,我不清楚如何扩展Query以进行额外的自定义验证,例如2.. 该文档最终导致了 pydantic。但是,当第二次验证失败时,我的应用程序遇到内部服务器错误2.。
下面是一个最小范围的示例
from fastapi import FastAPI, Depends, Query
from pydantic import BaseModel, ValidationError, validator
app = FastAPI()
class CommonParams(BaseModel):
    n: int = Query(default=..., gt=0, lt=10)
    @validator('n')
    def validate(cls, v):
        if v%2 != 0:
            raise ValueError("Number is not even :( ")
        return v
@app.get("/")
async def root(common: CommonParams = Depends()):
    return {"n": common.n}
以下是按预期工作的请求和失败的请求:
# requsts that work …valueerror ×10
python ×9
keras ×2
csv ×1
data-science ×1
dimensions ×1
exception ×1
fastapi ×1
fft ×1
h5py ×1
keyerror ×1
pandas ×1
pip ×1
pydantic ×1
regression ×1
sas ×1
scipy ×1
statsmodels ×1
tensorflow ×1
web-scraping ×1