我正试图在堆积条形图中"稳健地"将数据标签居中.下面给出一个简单的代码和结果.如您所见,数据标签并未真正居中于所有矩形.我错过了什么?
import numpy as np
import matplotlib.pyplot as plt
A = [45, 17, 47]
B = [91, 70, 72]
fig = plt.figure(facecolor="white")
ax = fig.add_subplot(1, 1, 1)
bar_width = 0.5
bar_l = np.arange(1, 4)
tick_pos = [i + (bar_width / 2) for i in bar_l]
ax1 = ax.bar(bar_l, A, width=bar_width, label="A", color="green")
ax2 = ax.bar(bar_l, B, bottom=A, width=bar_width, label="B", color="blue")
ax.set_ylabel("Count", fontsize=18)
ax.set_xlabel("Class", fontsize=18)
ax.legend(loc="best")
plt.xticks(tick_pos, ["C1", "C2", "C3"], fontsize=16)
plt.yticks(fontsize=16)
for r1, r2 in zip(ax1, ax2):
    h1 = r1.get_height() …是否可以从 HoloViews 生成的图中删除 Bokeh 徽标?没有什么反对的……只是在某些报告中显示它可能没有意义。:)
我知道在 Bokeh 中我可以简单地执行以下操作:
p = bkp.figure(...)
...
p.toolbar.logo = None
更新
这是我的导入部分:
import sys
import os
import numpy as np
np.random.seed(0)
import random
random.seed(0)
import pandas as pd
from bokeh.models import HoverTool
import holoviews as hv
hv.extension("bokeh", logo=False)
删除*.tar.gz文件会不会有问题C:\Users\username\AppData\Local\conda\pkgs?我也看到了同样的Python包的Python中的子目录,但在不同的版本(例如pandas-0.19.2-np111py27_1,pandas-0.19.2-np111py35_1,pandas-0.20.1-np112py27_0,pandas-0.20.1-np112py35_0,pandas-0.20.1-np112py36_0,pandas-0.20.2-np112py27_0,pandas-0.20.2-np112py36_0,pandas-0.20.2-np113py36_0).我目前有两个环境(Python 2.7和3.6),所以我不想浪费同一个软件包的不同版本的存储,或者我目前没有使用的Python版本(我在这里谈论GB!).是否有正确的方法来删除这些文件/目录(这样做有问题)?
我有一个带有两个索引的DataFrame,并希望通过其中一个索引对其进行重新索引。
from pandas_datareader import data
import matplotlib.pyplot as plt
import pandas as pd
# Instruments to download
tickers = ['AAPL']
# Online source one should use
data_source = 'yahoo'
# Data range
start_date = '2000-01-01'
end_date = '2018-01-09'
# Load the desired data
panel_data = data.DataReader(tickers, data_source, start_date, end_date).to_frame()
panel_data.head()
重新索引如下:
# Get just the adjusted closing prices
adj_close = panel_data['Adj Close']
# Gett all weekdays between start and end dates
all_weekdays = pd.date_range(start=start_date, end=end_date, freq='B')
# Align the existing …如何将Vectors.dense列添加到pyspark数据框?
import pandas as pd
from pyspark import SparkContext
from pyspark.sql import SQLContext
from pyspark.ml.linalg import DenseVector
py_df = pd.DataFrame.from_dict({"time": [59., 115., 156., 421.], "event": [1, 1, 1, 0]})
sc = SparkContext(master="local")
sqlCtx = SQLContext(sc)
sdf = sqlCtx.createDataFrame(py_df)
sdf.withColumn("features", DenseVector(1))
在文件anaconda3/lib/python3.6/site-packages/pyspark/sql/dataframe.py第1848行中给出错误:
AssertionError: col should be Column
它不喜欢将DenseVector类型作为列。本质上,我有一个pandas数据框,我想将其转换为pyspark数据框并添加type的列Vectors.dense。还有另一种方法吗?
我有一个包含8760个小时数据行的CSV文件,其中很多都有24:00的时间.似乎MATLAB不允许小时数为24(从0到23).我无法找到一种方法来解析时间24:00的行.
MATLAB示例(给出错误):
datetime('7/16/02 24:00','InputFormat','MM/dd/yy HH:mm')
R中的相同示例(工作正常,即自动转换为7月17日,0:00):
as.POSIXct("7/16/02 24:00",format="%m/%d/%Y %H:%M")
python ×3
dataframe ×2
anaconda ×1
apache-spark ×1
bokeh ×1
datetime ×1
holoviews ×1
matlab ×1
matplotlib ×1
multi-index ×1
packages ×1
pandas ×1
pyspark ×1
python-3.x ×1
reindex ×1