我有用户使用 Samba 3.5.4 通过 squid (NTLM) 对 Active Directory 服务器进行身份验证,我想记录用户的登录尝试。
我想要一行显示如下内容:
TIMESTAMP username@DOMAIN SUCCESS/FAILURE
我正在尝试将 Squid 配置为缓存服务器。我有一个局域网,其中网络服务器 (apache) 位于192.168.122.11squid 处,192.168.122.21而我的客户端位于192.168.122.22. 问题是,当我查看 Squid 的访问日志时,我看到的只是TCP_MISS消息。Squid 似乎根本没有缓存。我检查了缓存目录是否具有所有适当的权限。这里还有什么问题?这是我的鱿鱼配置:
acl manager proto cache_object
acl localhost src 127.0.0.1/32 ::1
acl to_localhost dst 127.0.0.1/8 0.0.0.0/32 ::1
acl SSL_ports port 443
acl Safe_ports port 80
acl Safe_ports port 21
acl Safe_ports port 443
acl Safe_ports port 70
acl Safe_ports port 210
acl Safe_ports port 1025-65535
acl Safe_ports port 280
acl Safe_ports port 488
acl Safe_ports port 591
acl Safe_ports port 777
acl CONNECT method …Run Code Online (Sandbox Code Playgroud) 我对鱿鱼有以下问题:
一些客户端通过鱿鱼代理同时访问 62 个服务器。所有服务器都具有相同的主机名(www.example.com)但具有不同的公共 IP(123.123.123.2 到 123.123.123.63)。服务器所有者使用一种 dns 循环。
我只能访问鱿鱼服务器和客户端。仅允许通过代理 IP 连接到服务器。
没有代理,我只是发送一个从 http//123.123.123.5/dataforme 加载数据的请求,但我发送了主机头“www.example.com”。这就像它应该的那样工作。
但是现在使用 squid 作为非缓存代理,这不再可能了。Squid 会覆盖发送的请求主机标头。通过这样做,目标服务器不知道要传送什么数据,因为主机头没有正确传输。
我设置
url_rewrite_host_header off
Run Code Online (Sandbox Code Playgroud)
但这没有任何效果。似乎只有在使用 squid 作为重定向器时才使用此选项。那不是我所做的。
如果没有其他网站可以获取,以下将起作用:
header_access Host deny all
header_replace Host www.example.com
Run Code Online (Sandbox Code Playgroud)
但是当我这样做时,每个请求都会得到 www.example.com 主机头。然后就不能再访问其他站点了。
我能做什么?
在此先感谢您的帮助!
我目前使用 squid 作为本地网络的代理服务器,但我对它并不完全满意。Nginx 是否也适合用作本地网络上的代理服务器?它是否被积极用于此目的?
我需要从多个客户端到 Internet 上的单个端口的加密 TCP 连接。这可以用 Squid 实现吗?
我们在公司中使用了可通过 LAN 和 VPN 访问的监控和客户端管理解决方案。现在应该可以从不使用公司 VPN 的外部笔记本访问它。通信必须加密 (TLS)。客户端身份验证必须使用客户端证书。通信由客户端发起并使用单个 TCP 端口。
NGINX Plus似乎提供此功能,但我们的管理员更喜欢 squid 或 apache。在鱿鱼维基上,我发现:功能:HTTPS(HTTP 安全或 HTTP over SSL/TLS),其中提到了 TCP 加密。但我也发现了这个警告:
需要注意的是,通过 CONNECT 传递的协议不限于 Squid 通常处理的协议。从字面上看,任何使用双向 TCP 连接的东西都可以通过 CONNECT 隧道传递。这就是为什么 Squid 默认 ACL 以 deny CONNECT !SSL_Ports 开头的原因,以及为什么您必须有一个很好的理由将任何类型的允许规则放在它们之上。
这个问题Encrypt client connection with squid forward proxy using SSL是类似的,但不处理反向代理/TLS 终止代理。
我只有有关该技术的基本知识,我们的管理员询问了我的一般可行性。
我已经能够使用基本身份验证在我的 Ubuntu 服务器上安装鱿鱼,并且一切正常。最近老板要求阻止 facebook 访问,我没有问题。现在看起来他想让用户在午餐时间访问......
有任何想法吗?
我安装了 Squid 3.1.18。我想将任何 IP 可以使用的最大带宽限制为 128 Kbps。可以使用鱿鱼吗?
我没有使用鱿鱼身份验证,因此无法识别用户和设置限制。需要一些方法来限制连接到鱿鱼的本地 IP 地址访问 Web。
我正在尝试设置一个鱿鱼代理,该代理将通过一系列端口接受一个 IPv4 上的多个入站连接,并且每个端口连接都连接到唯一的 IPv6 地址。
我已经命名了每个端口连接,并根据连接名称指定了一个 ACL,然后我尝试为每个端口定义一个传出 IPv6。下面的脚本有效,因为它接受不同端口上的连接并通过 IPv6 路由出去,但是,即使每个用户定义了不同的 ipv6,所有出站连接都使用相同的 IPv6(user5) - 奇怪的是,即使我评论- 从 squid.conf 中删除 user5 IPv6,它仍然用于出站连接。
任何人都可以看到这里有什么问题吗?(在 Centos 6 64 位上使用 Squid 3.1.1)
## declare an acl that is true for all ipv6 destinations
acl to_ipv6 dst ipv6
##tell Squid to listen on sequential ports and to designate a name for each inbound connection.
http_port 241.xxx.xxx.101:3128 name=3128
http_port 241.xxx.xxx.101:3129 name=3129
http_port 241.xxx.xxx.101:3130 name=3130
http_port 241.xxx.xxx.101:3131 name=3131
http_port 241.xxx.xxx.101:3132 name=3132
## designate acl based on inbound connection name …Run Code Online (Sandbox Code Playgroud) 我正在尝试下载包的源代码,但是当我运行时
root@proxy:~# apt-get source squid3
Reading package lists... Done
Building dependency tree
Reading state information... Done
E: Can not find version '3.3.8-1.1' of package 'squid3'
E: Unable to find a source package for squid3
Run Code Online (Sandbox Code Playgroud)
无法找到。但是当我运行时apt-cache search squid3它会找到它。
root@proxy:~# apt-cache search squid3
squid-cgi - Full featured Web Proxy cache (HTTP proxy) - control CGI
squid3 - Full featured Web Proxy cache (HTTP proxy)
squid3-common - Full featured Web Proxy cache (HTTP proxy) - common files
squid3-dbg - Full featured …Run Code Online (Sandbox Code Playgroud) 对不起,如果这是一个新手问题。我试着先描述一下情况,然后鱿鱼questin就会进来。
当前的 Fedora/Centos 安装在 /etc/yum.repos.conf 中的正常配置文件中有一个如下所示的金属链接。
metalink=https://mirrors.fedoraproject.org/metalink?repo=fedora-$releasever&arch=$basearch
Run Code Online (Sandbox Code Playgroud)
这个 metalink 实际上让 yum/dnf 选择一个“随机”的服务器站点(由服务器根据 metalink 客户端的位置在世界区域随机选择)。
这也用于下载速度较慢的情况下切换到下一个更好的站点。
我注意到由于 docker 构建了大量下载,这就是为什么我正在考虑所有机器都必须使用的鱿鱼代理。但是 yum/dnf 的这种“随机”策略让我很担心。我确实理解 fedora/centos 分配这个免费存储库的负载的意图,所以实际上我不想破坏这个策略
鱿鱼可以以某种方式智能地检测到客户端只是使用“另一个 fedora/centos 存储库 url”并智能地缓存它吗?metalink 列表本身似乎非常稳定(它只是在询问时更改顺序,但列表本身似乎是相同的)。
意图:不要存储 1000 个相同文件的副本,仅仅因为它来自不同的服务器。
我怎么用鱿鱼做到这一点?
编辑:有人有使用这个http://wiki.squid-cache.org/Features/StoreID缓存 dnf/yum 的经验吗?