小编Cha*_*esC的帖子

Python多进程多次运行

我试图同时运行两个 python 文件(A.py 和 B.py)。我尝试以两种不同的方式运行它们,并使用两个单独的命令来运行它们,效果很好。

问题是,我希望有一个脚本文件来并行运行它们。我尝试了多重处理,如下代码:

if __name__ == '__main__':
    jobs=[]
    jobs.append(Process(target=A.start))
    jobs.append(Process(target=B.start))

    for job in jobs:
        job.start()

    for job in jobs:
        job.join()
Run Code Online (Sandbox Code Playgroud)

结果是它运行 A 和 B 两次,我希望它们每个只运行一次。

问题的原因是什么?我该如何解决?或者还有其他解决方案可以并行运行两个 python 文件吗?

提前感谢您的帮助。

对于导入信息,我有三个文件:A.py、B.py 和 run.py。

在 A.py 中,我有:

from scapy.all import *
from scapy.layers.http import HTTPRequest 
from scapy.layers.http import HTTPResponse
from colorama import init, Fore
import docker
import time
import redis
Run Code Online (Sandbox Code Playgroud)

在 B.py 中,我有:

import json
import docker
import socket
import time
import psutil
import socket
import redis
import …
Run Code Online (Sandbox Code Playgroud)

python multiprocessing python-multiprocessing

2
推荐指数
1
解决办法
3825
查看次数

不在 Docker Swarm 中的主节点上部署容器

我正在开发一个项目,该项目使用 Raspberry Pi 作为工作节点,使用我的笔记本电脑作为主节点。我希望从笔记本电脑控制容器的部署,但我希望容器仅在工作节点上运行(这意味着主节点上没有容器)。我该如何使用 Docker Swarm 来做到这一点?

docker docker-swarm

0
推荐指数
1
解决办法
842
查看次数