是否有任何压缩算法 - 有损或无损 - 已经专门用于处理真实世界(混乱和无效)的HTML内容?
如果没有,我们可以利用什么特性来创建这样的算法?潜在的性能提升有哪些?
此外,我不是要问这个问题(通过Apache或任何其他服务器),虽然这当然很有趣,但存储和分析它.
更新:我不是指GZIP--这是显而易见的 - 而是一种专门用于利用HTML内容特征的算法.例如,可预测的标记和树结构.
我正在开发一个Web应用程序,它将根据用户输入返回一组可变模块.每个模块是一个Python类与接受单个参数,并且具有包含在输出一个"html的"属性的构造函数.
从全局命名空间动态提取类的工作原理如下:
result = globals()[classname](param).html
Run Code Online (Sandbox Code Playgroud)
而且它肯定比以下更简洁:
if classname == 'Foo':
result = Foo(param).html
elif classname == 'Bar':
...
Run Code Online (Sandbox Code Playgroud)
什么被认为是风格上写这个的最佳方式?是否存在不使用全局命名空间的风险或原因?