这是我的.htaccess文件:
Options +FollowSymlinks
RewriteEngine on
Rewritecond %{http_host} ^mysite.com [nc]
Rewriterule ^(.*)$ http://www.mysite.com/$1 [r=301,nc]
RewriteCond %{REQUEST_FILENAME} !-d
RewriteCond %{REQUEST_FILENAME} !-f
RewriteRule . /404.php
Run Code Online (Sandbox Code Playgroud)
第一个重写/重写块是将用户重定向到www,如果他们输入的地址没有www.
第二个rewritecond/rewriterule块用于将用户重定向到我创建的页面,如果他们输入不存在的地址.
这些规则中的每一个都是独立运作的:
如果我的.htaccess文件只包含第一个块,则它会成功将非www地址重定向到www地址.
如果输入了不存在的地址,则用户成功重定向到我的页面404.php.
但是,如果.htaccess文件包含两个块,并且输入了非www地址,则会发生以下情况,而不是成功重定向到www地址:
(1)页面上显示以下内容:
永久移动
该文件已移至此处.
此外,尝试使用ErrorDocument处理请求时遇到500内部服务器错误错误.
mysite.com端口80的Apache/1.3.41服务器
(2)在错误日志中生成以下条目:
[2012年5月4日星期五01:54:19] [错误] [客户端109.109.109.109] mod_rewrite:达到的内部重定向的最大数量.假设配置错误.如有必要,使用"RewriteOptions MaxRedirects"增加限制.
我假设发生的是无限循环以某种方式生成.
我想知道如果第一个条件得到满足,是否告诉.htaccess文件停止处理命令可以解决问题.那么有谁知道如何做到这一点?
(旁注.总的来说,我发现.htaccess上的文档绝对是可怕的.我想知道是否有其他人感觉相似.)
提前致谢.
我正在调整一个所见即所得的编辑器,我正在尝试创建一个将删除所选文本的图标h2.
在以前的版本中,以下命令完美地运行:
oRTE.document.execCommand("removeformat", false, "");
Run Code Online (Sandbox Code Playgroud)
但是在当前版本中,尽管该命令成功地从选定文本中删除了诸如粗体,下划线和斜体之类的h2标记,但它使标记保持不变.
(有趣的是,execCommand("formatblock"...)成功创建了h2标签.)
我想我将不得不放弃execCommand并找到另一种方式,但我也认为它不仅仅是一行代码!将不胜感激的建议.
以下MYSQL语句需要0.577251秒:
SELECT synonym_group FROM synonym WHERE name LIKE '%ak%'
Run Code Online (Sandbox Code Playgroud)
Name是varchar(250)字段.同义词数据库表中目前有356,187条记录.数据:21 MB.索引:23 MB.总大小:45 MB.每行字节数:67.
那么合理的时间是0.577251秒吗?如果没有,那是什么,我应该做什么?我已经阅读过这类问题的几个主题,而我能看到的主要解决方案是使用像sphinx这样的东西.
事实是,我桌子上的几个字段可能是无关紧要的.比方说,如果我将每行的字节数减少一半,通过消除不必要的字段,会使搜索速度提高一倍吗?
提前致谢.
如果我的javascript代码中有错误,并且我在google chrome上运行该页面,我会点击扳手图标>工具> JavaScript控制台,它会显示我(红色)我js中的确切行导致错误.
在IE上,我点击黄色"!" 状态栏中的图标,它会给我一条错误消息,以及一行#.虽然这通常很有帮助,但很多时候它不是:(1)我的源文件中的行#经常与IE给我的行#不同; (2)在复杂系统中,可能涉及几个js文件,IE消息不告诉我哪一个.
所以我的问题是:是否有任何选项让IE8向我显示错误的确切js行 - 无需安装任何东西?
我知道IE8有一个内置的javascript控制台,我记得使用它,但我不记得搞清楚如何用它实现我在这篇文章中所说的目标.
提前致谢.
我已经建立了几年的网站,主要是在PHP.有些网站有cronjobs,通常每天运行一次.该cronjobs运行PHP文件都存储在服务器上,与提供的网站页面的文件一起.
我知道各种爬虫,合法而非合法,访问我的网站的各个页面.现在,如果爬虫会访问我的一个cronjob文件,这将激活cronjob,有时会产生不良结果.
我很确定这从未发生过,虽然我很感激,但我正在努力理解为什么.当然,我的任何一个cronjob网址都没有任何链接,但我很确定各种抓取工具已访问过其他网页,即使它们从未链接过.
其他开发人员如何解决这个问题呢?在robots.txt文件中添加一行?设置cronjob-related php文件的权限?
提前致谢.