无法将大型数据库导入 docker mysql 容器

Gih*_*han 6 mysql docker docker-compose

我正在尝试将大型数据库导入 mysql 容器。我已将主机目录安装为 mysql 容器的卷。所以数据在主机上是持久的。导入的sql文件是14 GB+。mysql 容器在导​​入中途变得无响应。当我运行时,docker stats我可以看到一旦 mysql 容器吃掉了所有可用内存,CPU %使用情况就变成< 1了。我尝试增加 docker 的内存,10 GB当我为 Docker 分配更多内存时,它会从导入中创建更多表。但我不能10GB从主机分配更多。

以下是我的docker-compose.yml文件

mysql:
    image: mysql:5.6
    environment:
        - MYSQL_ROOT_PASSWORD=12345678
    volumes:
        - ./mysql/lib:/var/lib/mysql
        - ./mysql/conf.d:/etc/mysql/conf.d
        - ./mysql/log:/var/log/mysql
        - /tmp:/tmp
    ports:
        - "3306:3306"
Run Code Online (Sandbox Code Playgroud)

我正在使用Docker for mac具有 docker 版本的1.12.1

我正在使用docker exec -it docker_mysql_1 /bin/bash登录到容器并从中导入 sql 文件/tmp

我还尝试了 mysql repo 推荐的方法,将 sql 文件挂载到/docker-entrypoint-initdb.d. 但这也停止了mysql init。

更新 1

$ docker info
Containers: 1
 Running: 0
 Paused: 0
 Stopped: 1
Images: 2
Server Version: 1.12.1
Storage Driver: aufs
 Root Dir: /var/lib/docker/aufs
 Backing Filesystem: extfs
 Dirs: 18
 Dirperm1 Supported: true
Logging Driver: json-file
Cgroup Driver: cgroupfs
Plugins:
 Volume: local
 Network: host bridge null overlay
Swarm: inactive
Runtimes: runc
Default Runtime: runc
Security Options: seccomp
Kernel Version: 4.4.20-moby
Operating System: Alpine Linux v3.4
OSType: linux
Architecture: x86_64
CPUs: 4
Total Memory: 9.744 GiB
Name: moby
ID: 43S4:LA5E:6MTG:IFOG:HHJC:HYLX:LYIT:YU43:QGBQ:K5I5:Z6LP:AENZ
Docker Root Dir: /var/lib/docker
Debug Mode (client): false
Debug Mode (server): true
 File Descriptors: 16
 Goroutines: 27
 System Time: 2016-10-12T07:52:58.516469676Z
 EventsListeners: 1
No Proxy: *.local, 169.254/16
Registry: https://index.docker.io/v1/
Insecure Registries:
 127.0.0.0/8


$ df -h
Filesystem      Size   Used  Avail Capacity iused      ifree %iused  Mounted on
/dev/disk1     233Gi  141Gi   92Gi    61% 2181510 4292785769    0%   /
devfs          193Ki  193Ki    0Bi   100%     668          0  100%   /dev
map -hosts       0Bi    0Bi    0Bi   100%       0          0  100%   /net
map auto_home    0Bi    0Bi    0Bi   100%       0          0  100%   /home
/dev/disk2s2   466Gi   64Gi  401Gi    14%    1857 4294965422    0%   /Volumes/mac
/dev/disk2s3   465Gi   29Gi  436Gi     7%  236633    3575589    6%   /Volumes/PORTABLE
/dev/disk3s1   100Mi   86Mi   14Mi    86%      12 4294967267    0%   /Volumes/Vagrant
Run Code Online (Sandbox Code Playgroud)

我正在使用 /dev/disk1 目录来挂载卷。

小智 6

我通过更改 docker-compose.yml 中的环境变量解决了 phpmyadmin->import of large Database 错误

UPLOAD_LIMIT=1G


myadmin:
        image: phpmyadmin/phpmyadmin
        container_name: phpmyadmin
        ports:
            - "8083:80"
        environment:
            - UPLOAD_LIMIT=1G
            - PMA_ARBITRARY=1
            - PMA_HOST=${MYSQL_HOST}
        restart: always
        depends_on:
            - mysqldb
Run Code Online (Sandbox Code Playgroud)


n2o*_*n2o 3

当我尝试将一个大的 sql 文件加载到数据库中时,我遇到了类似的问题。我只需增加容器中的最大数据包大小,导入即可按预期进行。例如,您想要将 SQL 文件的最大大小增加到 512 MB,并且您的容器名为my_mysql,您可以使用以下命令调整正在运行的容器中的包大小:

docker exec -it my_mysql bash -c "echo 'max_allowed_packet = 512M' >> /etc/mysql/mysql.conf.d/mysqld.cnf" 
Run Code Online (Sandbox Code Playgroud)

这会将行附加到配置文件中。之后,您需要重新启动容器:

docker restart my_mysql
Run Code Online (Sandbox Code Playgroud)