小编Bru*_*uno的帖子

带有中心标签的堆积条形图

我正试图在堆积条形图中"稳健地"将数据标签居中.下面给出一个简单的代码和结果.如您所见,数据标签并未真正居中于所有矩形.我错过了什么?

import numpy as np
import matplotlib.pyplot as plt

A = [45, 17, 47]
B = [91, 70, 72]

fig = plt.figure(facecolor="white")

ax = fig.add_subplot(1, 1, 1)
bar_width = 0.5
bar_l = np.arange(1, 4)
tick_pos = [i + (bar_width / 2) for i in bar_l]

ax1 = ax.bar(bar_l, A, width=bar_width, label="A", color="green")
ax2 = ax.bar(bar_l, B, bottom=A, width=bar_width, label="B", color="blue")
ax.set_ylabel("Count", fontsize=18)
ax.set_xlabel("Class", fontsize=18)
ax.legend(loc="best")
plt.xticks(tick_pos, ["C1", "C2", "C3"], fontsize=16)
plt.yticks(fontsize=16)

for r1, r2 in zip(ax1, ax2):
    h1 = r1.get_height() …
Run Code Online (Sandbox Code Playgroud)

python matplotlib

10
推荐指数
2
解决办法
5707
查看次数

删除 HoloViews 中的 Bokeh 徽标

是否可以从 HoloViews 生成的图中删除 Bokeh 徽标?没有什么反对的……只是在某些报告中显示它可能没有意义。:)

我知道在 Bokeh 中我可以简单地执行以下操作:

p = bkp.figure(...)
...
p.toolbar.logo = None
Run Code Online (Sandbox Code Playgroud)

更新

这是我的导入部分:

import sys
import os

import numpy as np
np.random.seed(0)
import random
random.seed(0)

import pandas as pd
from bokeh.models import HoverTool
import holoviews as hv
hv.extension("bokeh", logo=False)
Run Code Online (Sandbox Code Playgroud)

python-3.x bokeh holoviews

6
推荐指数
1
解决办法
2508
查看次数

Anaconda Python:删除pkgs中的.tar.gz

删除*.tar.gz文件会不会有问题C:\Users\username\AppData\Local\conda\pkgs?我也看到了同样的Python包的Python中的子目录,但在不同的版本(例如pandas-0.19.2-np111py27_1,pandas-0.19.2-np111py35_1,pandas-0.20.1-np112py27_0,pandas-0.20.1-np112py35_0,pandas-0.20.1-np112py36_0,pandas-0.20.2-np112py27_0,pandas-0.20.2-np112py36_0,pandas-0.20.2-np113py36_0).我目前有两个环境(Python 2.7和3.6),所以我不想浪费同一个软件包的不同版本的存储,或者我目前没有使用的Python版本(我在这里谈论GB!).是否有正确的方法来删除这些文件/目录(这样做有问题)?

python packages anaconda

5
推荐指数
1
解决办法
2950
查看次数

重新索引MultiIndex数据框的特定级别

我有一个带有两个索引的DataFrame,并希望通过其中一个索引对其进行重新索引。

from pandas_datareader import data
import matplotlib.pyplot as plt
import pandas as pd

# Instruments to download
tickers = ['AAPL']

# Online source one should use
data_source = 'yahoo'

# Data range
start_date = '2000-01-01'
end_date = '2018-01-09'

# Load the desired data
panel_data = data.DataReader(tickers, data_source, start_date, end_date).to_frame()
panel_data.head()
Run Code Online (Sandbox Code Playgroud)

屏幕截图

重新索引如下:

# Get just the adjusted closing prices
adj_close = panel_data['Adj Close']

# Gett all weekdays between start and end dates
all_weekdays = pd.date_range(start=start_date, end=end_date, freq='B')

# Align the existing …
Run Code Online (Sandbox Code Playgroud)

python multi-index dataframe pandas reindex

5
推荐指数
1
解决办法
2144
查看次数

将向量列添加到pyspark DataFrame

如何将Vectors.dense列添加到pyspark数据框?

import pandas as pd
from pyspark import SparkContext
from pyspark.sql import SQLContext
from pyspark.ml.linalg import DenseVector

py_df = pd.DataFrame.from_dict({"time": [59., 115., 156., 421.], "event": [1, 1, 1, 0]})

sc = SparkContext(master="local")
sqlCtx = SQLContext(sc)
sdf = sqlCtx.createDataFrame(py_df)
sdf.withColumn("features", DenseVector(1))
Run Code Online (Sandbox Code Playgroud)

在文件anaconda3/lib/python3.6/site-packages/pyspark/sql/dataframe.py第1848行中给出错误:

AssertionError: col should be Column
Run Code Online (Sandbox Code Playgroud)

它不喜欢将DenseVector类型作为列。本质上,我有一个pandas数据框,我想将其转换为pyspark数据框并添加type的列Vectors.dense。还有另一种方法吗?

dataframe apache-spark pyspark apache-spark-ml

1
推荐指数
1
解决办法
1122
查看次数

在MATLAB中用24小时解析日期

我有一个包含8760个小时数据行的CSV文件,其中很多都有24:00的时间.似乎MATLAB不允许小时数为24(从0到23).我无法找到一种方法来解析时间24:00的行.

MATLAB示例(给出错误):

datetime('7/16/02 24:00','InputFormat','MM/dd/yy HH:mm')
Run Code Online (Sandbox Code Playgroud)

R中的相同示例(工作正常,即自动转换为7月17日,0:00):

as.POSIXct("7/16/02 24:00",format="%m/%d/%Y %H:%M")
Run Code Online (Sandbox Code Playgroud)

matlab datetime

0
推荐指数
1
解决办法
439
查看次数