我正在尝试将 1 个 Redis 主服务器和 2 个 Redis 副本绑定到 Kubernetes 上的 3 个 Quorum Sentinel。我对 Kubernetes 非常陌生。
我最初的计划是让主节点在与 1 个 Kubernetes SVC 绑定的 pod 上运行,让 2 个副本在与另一个 Kubernetes SVC 绑定的自己的 pod 上运行。最后,3 个 Sentinel pod 将绑定到它们自己的 SVC。副本将绑定到主 SVC(因为没有 svc,ip 将发生变化)。哨兵也将被配置并绑定到主 SVC 和副本 SVC。但我不确定这是否可行,因为当主 Pod 崩溃时,其中一个副本 Pod 将如何移动到主 SVC 并成为主 Pod?那可能吗?
我采用的第二种方法是将 redis pod 包装在复制控制器中,对于哨兵也是如此。但是,我不确定如何使用复制控制器将其中一个 Pod 设为主节点,并将其他 Pod 设为副本。
这两种方法中的任何一种都有效吗?如果没有,我可以采用更好的设计吗?任何线索将不胜感激。
我正在尝试从文本文件中读取字符串,然后将其写入Excel工作表而不进行覆盖。我发现某个地方可以更新excel工作表,使用过的openpyxl。但是我的脚本只会覆盖整个工作表。我希望其他数据相同。
python脚本:
from openpyxl import Workbook
file_name="D:\\a.txt"
content={}
with open(file_name) as f:
for line in f:
(key,value)=line.split(":")
content[key]=value
wb=Workbook()
ws=wb.active
r = 2
for item in content:
ws.cell(row=r, column=3).value = item
ws.cell(row=r, column=4).value = content[item]
r += 1
wb.save("D:\\Reports.xlsx")
Run Code Online (Sandbox Code Playgroud)
脚本前的Excel工作表:
脚本后的Excel工作表:
我该如何写数据以覆盖其他内容而表现出色?救命。
我将大量数据存储在Postres数据库中,我需要使用Django通过REST API将数据发送到客户端。要求是分块发送数据,并且不要一次将整个内容加载到内存中。我知道Django中有一个StreamingHttpResponse类,我将对此进行探讨。但是还有其他更好的选择吗?我听说过Kafka和Spark用于流式应用程序,但是我检查过的这两个教程往往涉及流式实时数据(例如与Twitter数据进行交互等)。但是是否可以使用这两种方法从数据库中流式传输数据?如果是,我如何将其与REST集成在一起,以便客户端可以与其交互?任何线索将不胜感激。谢谢。
database streaming apache-kafka django-rest-framework apache-spark
apache-kafka ×1
apache-spark ×1
database ×1
excel ×1
kubernetes ×1
openpyxl ×1
python ×1
redis ×1
streaming ×1