Mtz*_*Sam 5 web-crawler amazon-ec2 scrapy docker splash-js-render
我正在使用Scrapy使用Scrapinghub/splash docker容器对Splash进行一些爬行,但是容器会在退出代码139之后退出一段时间,我在AWS EC2实例上运行刮刀,并分配了1GB交换.
我也尝试在后台运行它并稍后查看日志,但没有任何表示它只是退出的错误.
根据我的理解139是UNIX中的分段错误错误,无论如何都要检查或记录正在访问的内存部分或正在执行的代码来调试它?
或者我可以增加容器内存或交换大小以避免这种情况吗?