简而言之,我正在寻找一种简单的方法来执行以下操作(如果可能,请提供代码示例):
现在,更多细节来充分解释我的情况:
在我的机构中,需要通过代理进行身份验证,以便我们可以连接到互联网.我通常会在弹出窗口时输入我的ldap用户名/密码进行身份验证.
现在,我想将手机连接到学院WiFi,但我的手机没有选择身份验证的选项.只能指定代理地址.因此,我计划在我的计算机上设置本地代理以捕获来自手机的所有请求,添加身份验证详细信息并通过我的计算机将其传递给我的机构代理.
我安装了squid3(在Ubuntu上),但是查看配置文件,我迷路了.我试过谷歌搜索,但它看起来太复杂了.
希望有人可以提供帮助.
我正在使用脚本,在那里我可以浏览网页内容或"网址",但我无法将网页内容复制到其中并作为文件下载.这是我到目前为止所做的:
$url = "http://sp-fin/sites/arindam-sites/_layouts/xlviewer.aspx?listguid={05DA1D91-F934-4419-8AEF-B297DB81A31D}&itemid=4&DefaultItemOpen=1"
$ie=new-object -com internetexplorer.application
$ie.visible=$true
$ie.navigate($url)
while($ie.busy) {start-sleep 1}
Run Code Online (Sandbox Code Playgroud)
如何复制内容$url并将其作为文件保存到本地驱动器?
我收到了这些错误:
使用"2"参数调用"DownloadFile"的异常:"远程服务器返回错误:(401)未经授权." 在:行:6 char:47 +(New-Object system.net.webclient).DownloadFile(<<<<"$ url/download-url-content",'save.html')
方法调用中缺少')'.在:行:6 char:68 +(New-Object system.net.webclient).DownloadFile("$ url",'save.html'<<<<
使用"2"参数调用"DownloadFile"的异常:"远程服务器返回错误:(401)未经授权." 在:行:6 char:47 +(New-Object system.net.webclient).DownloadFile(<<<<"$ url",'save.html')
好吧,让我解释一下,关于我想要做的事情:我在我们的共享点网站上有一个excel文件,这是我试图在本地下载的文件(任何格式),这是脚本的一部分,所以对于脚本的后半部分,我可以将此文件与其他数据进行比较并获得输出.
现在,如果我能以某种方式从网站上映射"我的文档"并能够下载文件,那对我也有用.