我在 Ubuntu 机器上安装了 MySQL。
我在 /etc/mysql/my.cnf 中添加了这一行
group_concat_max_len=15360
但是没有效果。每次我重新启动 mysql 时,该值都会设置为 1,024。我必须手动运行
SET GLOBAL group_concat_max_len=15360
Run Code Online (Sandbox Code Playgroud)
...每次我启动mysql。
为什么 my.cnf 没有按照我认为应该的方式工作?谢谢
Ubuntu 精确 (12.04.1 LTS)
我对 PEAR 比较陌生。
我安装了梨。然后,使用 pear 我安装了 phpdoc。
除了图形功能外,它似乎工作得很好。
我运行了这个命令:
/var/www/site5 $ phpdoc -f models/classes.php -t ./docs/classes
Collecting files .. OK
Initializing parser .. OK
Parsing files
Parsing /var/www/site5/models/classes.php
Storing cache in "/var/www/site5/docs/classes" .. OK
Load cache .. 0.026s
Preparing template "clean" .. 0.069s
Preparing 15 transformations .. 0.000s
Build "elements" index .. 0.017s
Replace textual FQCNs with object aliases .. 0.151s
Build "packages" index .. 0.015s
Collect all markers embedded in tags .. 0.015s
Build "namespaces" …Run Code Online (Sandbox Code Playgroud) 我正在一个新的 CentOS 服务器上工作,我非常恼火地发现 yum 不像 Ubuntu 上的“apt-get install”那样顺利和出色地工作。
安装 LAMP 堆栈,我运行了以下命令:
$ yum install php
$ yum install mysql
Run Code Online (Sandbox Code Playgroud)
此外:
$ yum install mysql-server
$ yum install mysql-devel
$ yum install php-mysql
Run Code Online (Sandbox Code Playgroud)
现在运行:
$ rpm -qa | grep php
Run Code Online (Sandbox Code Playgroud)
...表明我安装了各种 php 5.1.6 包,我至少需要 5.2。此外,我看到它安装了 mysql 5.0.77,即使当前版本是 5.5.20。但希望 mysql 5.0 会工作。PHP 5.1 不会。
所以真正的问题是(是):
如何修复我的 PHP 以使其成为最新的稳定版本(根据 PHP.net 为 5.3.9)?如何让我的 CentOS 机器更像 Ubuntu,这样我就不必再处理这个问题了?
非常感谢。
编辑:CentOS 5.7 上周由托管公司安装,所以我不知道他们为什么会安装旧版本的 CentOS,而不是最新版本。我至少需要 PHP 3.2,所以我很欣赏如何做到这一点的建议。我对软件包和存储库不是很熟悉,但似乎任何人都可以启动存储库,因此我担心从可能感染服务器的某个随机存储库安装东西。
我安装了 php 5.3 和一些使用的模块
yum install php53-{module-name}
Run Code Online (Sandbox Code Playgroud)
但是 mcrypt 没有用。
我是这样搜索的:
yum list php* | grep mcry
Run Code Online (Sandbox Code Playgroud)
唯一出现的包是
php-mcrypt.x86-64 5.1.6-15.e15.centos.1 extras
Run Code Online (Sandbox Code Playgroud)
我对 mhash 有同样的问题。php 的结果更令人困惑。
我知道这可能是一个愚蠢的问题,但任何帮助将不胜感激。我习惯了 Ubuntu 的简单“apt-get install”,一切正常。CentOS 似乎更加注重细节。
谢谢。
编辑:这是我尝试过的:
yum install php53-mcrypt
Run Code Online (Sandbox Code Playgroud)
结果:
No package php53-mcrypt available
Run Code Online (Sandbox Code Playgroud)
并尝试这个:
yum install php-mcrypt
Run Code Online (Sandbox Code Playgroud)
结果是:
Error: php53-common conflicts with php-common
Run Code Online (Sandbox Code Playgroud)
因为 php-mcrypt 试图将 php-common 作为依赖项(?),而我正在尝试使用 php 5.3 而不是 CentOS 5.7 上的默认 php 5.1。
还有其他开发人员以 root 身份登录,我想踢出去。
所以我发出
pkill -KILL -u root
Run Code Online (Sandbox Code Playgroud)
然后我意识到我可能杀死了各种root进程。
我是否损坏了我的系统?我现在无法通过 SSH 访问它。
更新:Web 服务器仍在运行。但是我现在无法通过 SSH 连接。我不知道我做了什么。
我们的旧服务器在 /home/user/public_html/ 中有它,但在 /var/www/ 中似乎更有意义。
旧服务器有 cpanel,我想作为该设置的一部分,它将虚拟服务器分成自己的 /home/ 文件夹,并为每个服务器提供一个 Web 根目录。/home/user/ 中的所有文件也归用户所有,而不是 root。
但是我们没有子帐户,而且我习惯于在 /var/www/ 中创建各种虚拟主机(根据我的 Ubuntu 经验),那么在 CentOS 中仅使用 /var/www/ 有什么缺点吗?然后我将拥有一个包含我和其他开发人员的组所有的文件。
CentOS系统。
总结:更改了 master 和本地 php.ini 中的 memory_limit,但特定虚拟主机的本地值没有变化。
为了提高性能,我在 /etc/php.ini 中将 memory_limit 设置为 1024M
phpinfo() 将服务器上其他虚拟主机的 Master 和 Local 值显示为 1024M。更改 /etc/php.ini 中的值会更改所有值,但一个除外。
一个站点的本地值为 256M。
我以为我发现了问题:该站点的根目录中有一个 php.ini 文件(我不知道),它有
memory_limit = 256M
Run Code Online (Sandbox Code Playgroud)
我把它改成了1024M。问题解决了?不。现在我不知道去哪里找。显然,我已经重新启动了 apache(/etc/init.d/httpd restart),这通常可以解决问题。
我还关闭了 APC 缓存,但我认为它不会缓存 ini 文件。
最后,我尝试将其添加到 httpd.conf 中的虚拟主机:
php_value memory_limit 536870912
Run Code Online (Sandbox Code Playgroud)
(是的,那将是 512MB)这没有任何影响。
还有什么问题?
谢谢。
我特别关注具有 850 GB 实例存储空间的标准大型按需实例。
我真正不明白的是,如果实例关闭和/或销毁后数据会立即消失,那么为什么实例上有 850 GB 的存储空间。
似乎 EBS 是为实例(包括根卷)提供永久磁盘空间的标准方式。你可以给它们条纹。您可以将它们备份到不同的可用区和/或 S3 和/或完全脱离 Amazon 的系统。
如果您必须经常在实例外 (EBS/S3?) 进行备份以避免丢失所有内容,为什么还要在实例存储上保留任何内容?它是否具有超出条带化 EBS 卷所能提供的速度优势?
似乎安全和易于设置的最佳配置是根本不使用实例存储,而是将 EBS 卷带条带备份到 S3 或异地。
我是对的,还是有充分的理由使用 850 GB 的实例存储?
谢谢
当 CentOS 6.3 可用时,我很困惑为什么我的新服务器上安装了 CentOS 5.9。
但事实证明,CentOS 5.9 实际上是最新版本。
为什么要发布 5.x 版本,因为它们是一个死胡同,将在不到 1 年的时间内失去完全支持?
是否有任何理由在新服务器上安装 CentOS 5.9 而不是 6.x?是否有任何理由避免使用 6.x?我假设 6 > 5。
查看具有 8 GB DDR3 RAM 的至强 E3-1230 系统。
我读过(在某处)Cent OS 64 位有问题和/或 32 位版本“更好”。
另外,我知道 Windows 需要 64 位才能使用更多的 RAM,但我不知道这是否适用于此。
谢谢
我有一些 tar.gz 文件,在 CentOS 系统上总共有很多 GB。大多数 tar.gz 文件实际上很小,但带有图像的文件很大。一个是7.7G,另一个是4G左右,还有一对1G左右。
我已经解压了一次文件,现在我想要所有这些文件的第二个副本。
我认为复制解压缩的文件比重新解压缩它们要快。但是我大约在 10 分钟前开始运行 cp -R 并且到目前为止复制了不到 500M。我确信拆包过程更快。
我对吗?
如果是这样,为什么?解包比简单地复制现有结构更快似乎没有意义。
我试过这个:
pkill -KILL -u root
Run Code Online (Sandbox Code Playgroud)
事实证明那不是我想要的。现在我无法通过 SSH 登录。
什么是正确的方法?
编辑 - 我在问题中添加了“安全”这个词。我知道您不应该踢出 root 用户,因为他们可能正在做一些重要的事情。但是假设该用户是一家大型托管公司的客户服务代理,只要他们登录到您的机器,他们就会向您收取大约每分钟 5 美元的费用。假设你告诉他们问题已经解决,他们现在可以退出并停止向你收费,但他们假装没有收到你的电子邮件,因为你的老板已经授权了两个小时的工作,而且他们想对其中的 100% 收费。假设你不是一般的没有灵魂的公司奴隶,你想为你的老板省点钱。所以无论如何,我把他们踢出去了。我做错了,但没有造成任何伤害,我学到了一些东西,我至少为老板节省了 100 美元。
centos ×6
php ×3
kill ×2
linux ×2
mysql ×2
ubuntu ×2
32-bit ×1
32bit-64bit ×1
64-bit ×1
amazon-ebs ×1
amazon-ec2 ×1
amazon-s3 ×1
centos5 ×1
centos6 ×1
compression ×1
copy ×1
debian ×1
graph ×1
httpd.conf ×1
mcrypt ×1
memory ×1
path ×1
pear ×1
php.ini ×1
rpm ×1
virtualhost ×1
web-server ×1
yum ×1