像Perl或Python中的lex一样模拟功能

pra*_*bhu 4 python perl parsing lex

这是交易.有没有办法让基于多个正则表达式的行中的字符串标记?

一个例子:

我必须根据不同的正则表达式获取所有href标签,相应的文本和其他一些文本.所以我有3个表达式,并且想要对行进行标记并提取与每个表达式匹配的文本标记.

我实际上是使用flex完成的(不要与Adobe混淆),这是一个很好的老lex的实现.lex通过基于表达式执行"actions"来提供一种优雅的方法.人们也可以控制lex读取文件的方式(基于块/行的读取).

问题是flex实际上产生的C/C++代码实际上是标记化工作.我有一个包含所有这些东西的make文件.我想知道perl/python是否能以某种方式做同样的事情.它只是我想用一种编程语言本身做我喜欢的一切.

令牌化只是我想要在我的应用程序中执行的操作之一.

除了perl或python之外,任何语言(功能也可以)都可以这样做吗?

我在这里读过关于PLY和ANTLR的内容(解析,我在哪里可以了解它).

但有没有办法在python本身自然地做到这一点?请原谅我的无知,但这些工具是否适用于任何受欢迎的产品/服务?

谢谢.

sla*_*ais 8

查看以下模块的文档 CPAN

HTML :: TreeBuilder作为

HTML :: TableExtract

解析:: RecDescent的

我已经使用这些模块来处理相当大而复杂的网页.


pjf*_*pjf 7

如果您专门解析网页中的链接,那么Perl的WWW :: Mechanize模块将以非常优雅的方式为您解决问题.这是一个示例程序,它抓取Stack Overflow的第一页并解析所有链接,打印其文本和相应的URL:

#!/usr/bin/perl
use strict;
use warnings;
use WWW::Mechanize;

my $mech = WWW::Mechanize->new;

$mech->get("http://stackoverflow.com/");

$mech->success or die "Oh no! Couldn't fetch stackoverflow.com";

foreach my $link ($mech->links) {
    print "* [",$link->text, "] points to ", $link->url, "\n";
}
Run Code Online (Sandbox Code Playgroud)

在主循环中,每个$link都是WWW :: Mechanize :: Link对象,因此您不仅限于获取文本和URL.

祝一切顺利,

保罗


Jer*_*rub 5

听起来你真的只想解析HTML,我建议你看看这些精彩的软件包:

要么!您可以使用类似以下之一的解析器:

  • PyParsing
  • DParser - 具有良好python绑定的GLR解析器.
  • ANTLR - 一个递归的解析器生成器,可以生成python代码.

这个例子来自BeautifulSoup 文档:

from BeautifulSoup import BeautifulSoup, SoupStrainer
import re

links = SoupStrainer('a')
[tag for tag in BeautifulSoup(doc, parseOnlyThese=links)]
# [<a href="http://www.bob.com/">success</a>, 
#  <a href="http://www.bob.com/plasma">experiments</a>, 
#  <a href="http://www.boogabooga.net/">BoogaBooga</a>]

linksToBob = SoupStrainer('a', href=re.compile('bob.com/'))
[tag for tag in BeautifulSoup(doc, parseOnlyThese=linksToBob)]
# [<a href="http://www.bob.com/">success</a>, 
#  <a href="http://www.bob.com/plasma">experiments</a>]
Run Code Online (Sandbox Code Playgroud)