我想使用 s3 cp 将文件 (.csv) 从 s3 复制到我的本地计算机。该文件很大,我想知道是否有办法只复制其中的一部分,例如文件的前 10000 行或 5MB。
我想从URL“ http://www.nycgo.com/venues/thalia-restaurant#menu ”中抓取文本,我感兴趣的文本位于页面的“菜单”选项卡中。我尝试了BeautifulSoup来获取页面上的所有文本,但是以下代码的返回值缺少菜单中的所有文本。
html = urllib2.urlopen("http://www.nycgo.com/venues/thalia-restaurant#menu")
html=html.read()
soup = BS(html)
print soup.get_text()
Run Code Online (Sandbox Code Playgroud)
当我检查菜单内容中的元素时,菜单的内容似乎是页面上html的一部分。我确实注意到,当实际浏览页面时,菜单完全加载需要几秒钟。不知道这是否就是上面的代码无法获取菜单内容的原因。
任何见识将不胜感激。