我试图同时运行两个 python 文件(A.py 和 B.py)。我尝试以两种不同的方式运行它们,并使用两个单独的命令来运行它们,效果很好。
问题是,我希望有一个脚本文件来并行运行它们。我尝试了多重处理,如下代码:
if __name__ == '__main__':
jobs=[]
jobs.append(Process(target=A.start))
jobs.append(Process(target=B.start))
for job in jobs:
job.start()
for job in jobs:
job.join()
Run Code Online (Sandbox Code Playgroud)
结果是它运行 A 和 B 两次,我希望它们每个只运行一次。
问题的原因是什么?我该如何解决?或者还有其他解决方案可以并行运行两个 python 文件吗?
提前感谢您的帮助。
对于导入信息,我有三个文件:A.py、B.py 和 run.py。
在 A.py 中,我有:
from scapy.all import *
from scapy.layers.http import HTTPRequest
from scapy.layers.http import HTTPResponse
from colorama import init, Fore
import docker
import time
import redis
Run Code Online (Sandbox Code Playgroud)
在 B.py 中,我有:
import json
import docker
import socket
import time
import psutil
import socket
import redis
import …Run Code Online (Sandbox Code Playgroud) 我正在开发一个项目,该项目使用 Raspberry Pi 作为工作节点,使用我的笔记本电脑作为主节点。我希望从笔记本电脑控制容器的部署,但我希望容器仅在工作节点上运行(这意味着主节点上没有容器)。我该如何使用 Docker Swarm 来做到这一点?