使用R从ftp下载文件

Ser*_*.pv 6 ftp r web-scraping

我试图从这个FTP获取文件

ftp://ftp.pride.ebi.ac.uk/pride/data/archive/2015/11/PXD000299/

从那里,我只需要以.dat扩展名开头的文件.但是还有其他我不感兴趣的文件.

我想避免一次下载每个,所以我想创建一个带有名称和循环的向量.

如何只下载我想要的文件?

谢谢

编辑:我尝试过以下操作

downloadURL <- "ftp://ftp.pride.ebi.ac.uk/pride/data/archive/2015/11/PXD000299/F010439.dat"
download.file(downloadURL, "F010439.dat") #this is a trial using one file
Run Code Online (Sandbox Code Playgroud)

几秒钟后,我收到以下错误:

trying URL 

    'ftp://ftp.pride.ebi.ac.uk/pride/data/archive/2015/11/PXD000299/F010439.dat'
    Error in download.file(downloadURL, "F010439.dat") : 
      cannot open URL 'ftp://ftp.pride.ebi.ac.uk/pride/data/archive/2015/11/PXD000299/F010439.dat'
    In addition: Warning message:
    In download.file(downloadURL, "F010439.dat") :
      InternetOpenUrl failed: 'Die FTP-Sitzung wurde beendet.

'
Run Code Online (Sandbox Code Playgroud)

Mar*_*gan 8

使用curl库提取目录列表

> library(curl)
> url = "ftp://ftp.pride.ebi.ac.uk/pride/data/archive/2015/11/PXD000299/"
> h = new_handle(dirlistonly=TRUE)
> con = curl(url, "r", h)
> tbl = read.table(con, stringsAsFactors=TRUE, fill=TRUE)
> close(con)
> head(tbl)
                                                 V1
1  12-0210_Druart_Uterus_J0N-Co_1a_ORBI856.raw.mzML
2  12-0210_Druart_Uterus_J0N-Co_2a_ORBI857.raw.mzML
3  12-0210_Druart_Uterus_J0N-Co_3a_ORBI858.raw.mzML
4 12-0210_Druart_Uterus_J10N-Co_1a_ORBI859.raw.mzML
5 12-0210_Druart_Uterus_J10N-Co_2a_ORBI860.raw.mzML
6 12-0210_Druart_Uterus_J10N-Co_3a_ORBI861.raw.mzML
Run Code Online (Sandbox Code Playgroud)

将相关的内容粘贴到网址上并使用

urls <- paste0(url, tbl[1:5,1])
fls = basename(urls)
curl_fetch_disk(urls[1], fls[1])
Run Code Online (Sandbox Code Playgroud)

  • 要添加到这个已经很好的答案中,您可以使用“curl::curl_download()”保存文件。 (2认同)