自然语言(如英语和法语)与C++和Perl等编程语言之间的主要区别是什么?
我对模糊性问题很熟悉,但不能使用交互式编译器或使用严格语法使用自然语言的子集来解决这个问题,但是所有时间仍然保留了语言的本质?
另一个问题是背景.但律师有办法解决这个问题.(这个问题不是关于降低编程的复杂性,而是关于使用自然语言指导计算机的简明理由和障碍.)
除了这两个之外还有其他重大问题吗?或者这两个比我上面提到的更大的后果?交互式解决方案和律师语言在技术上是否不适合编程?
这是我几年前开始使用Python编程以来最奇怪的错误.
首先,这些是我的课程(抱歉长代码):
class Quran(Iterable):
    def __init__(self):
        self.sourats = []
    def __iadd__(self, other):
        # There is some code here
        pass
    def __getitem__(self, sourat_num):
        if not (isinstance(sourat_num, int) or isinstance(sourat_num, slice)):
            raise TypeError('Indexing Quran can be done only using ints or slices')
        if isinstance(sourat_num, int):
            sourat_num -= 1
        else:
            sourat_num = slice(sourat_num.start - 1, sourat_num.stop)
        try:
            return self.sourats[sourat_num]
        except IndexError:
            return None
    def __len__(self):
        return len(self.sourats)
    # Other methods ...
class Sourat(Iterable):
    sourats_titles = [ # 114 strs here
    ]
    def __init__(self, …Run Code Online (Sandbox Code Playgroud) 嗨,我被打到这里了,请帮助我解决这个问题
我收到此错误
TypeError: language_model_learner() missing 1 required positional argument: 'arch'
Run Code Online (Sandbox Code Playgroud)
我正在关注本教程:-https: //www.analyticsvidhya.com/blog/2018/11/tutorial-text-classification-ulmfit-fastai-library/
我正在尝试从Web上挖掘一些文本的应用程序,但我不确定执行文本挖掘的最佳方法是什么.
我对这个问题的要求是了解什么是最常用的技术/算法来执行文本挖掘并在文档中进行一些信息检索(而不是用于索引).
是否有可用于改进文档聚类结果的人工智能算法?用于聚类的算法可以是分层的或任何其他的.
谢谢
nlp artificial-intelligence cluster-analysis machine-learning
例如,我们有以下文本:
“Spark 是一个用于编写快速分布式程序的框架。Spark 解决了与 Hadoop MapReduce 类似的问题,但采用了快速的内存方法和简洁的函数式 API。......”
我需要这个文本的所有可能的部分,一字一字,然后两两,三三到五到五。像这样:
: ['Spark', 'is', 'a', 'framework', 'for', 'writing, 'fast', 'distributed', 'programs', ...]
twos : ['Spark is', 'is a', 'a framework', 'framework for', 'for writing' ...]
三:['Spark is a', 'is a framework', 'a framework for', 'framework for writing', 'for write fast', ...]
. . .
五:['Spark 是一个框架','是一个写作框架','一个快速写作的框架','一个快速分布式写作的框架',...]
请注意,要处理的文本是大文本(约 100GB)。我需要这个过程的最佳解决方案。可能应该并行处理多线程。
我不需要一次完整的列表,它可以流式传输。
我想解析Malayalam(印度语)文本语料库来开发一个问答系统.是否有任何NLP工具用于语言解析除英语以外的语言.
或者问题也可能是:获取词袋的 Go 方法是什么?
例如,如果输入是
"This is a big apple tree. I love big big apple! 42"
那么我如何获得带有每个单词计数的 map 输出(并且,如果方便的话,在此过程中进行一些简单的字符串解析,例如只保留字母并降低它们):
{this=1, is=1, a=1, big=3, apple=2, tree=1, i=1, love=1}
一些 Kotlin 代码的简单版本可能是这样的:
fun main(args: Array<String>) {
    val inputText = "This is a big apple tree. I love big big apple! 42"
    val map = inputText.replace("[^a-zA-Z]+".toRegex(), " ") // only keep letters
            .trim()
            .toLowerCase()
            .split(" ")
            .groupingBy { it }
            .eachCount()
    println(map)
}
Run Code Online (Sandbox Code Playgroud)
给出输出 {this=1, is=1, a=1, big=3, apple=2, tree=1, i=1, love=1}
我想知道做这样的事情的等效 …
我想找到两个同义词之间的相关性,我遇到了许多算法,如resnik,lin,wu palmer,路径算法,leacock chodorow等.有人能告诉我哪些算法最有效吗?
lexpr究竟是什么意思,以及r'/ F xx的含义是什么?什么是Application Expression?
from nltk.sem.logic import *
lexpr = Expression.fromstring
zero = lexpr(r'\F x.x')
one = lexpr(r'\F x.F(x)')
two = lexpr(r'\F x.F(F(x))')
three = lexpr(r'\F x.F(F(F(x)))')
four = lexpr(r'\F x.F(F(F(F(x))))')
succ = lexpr(r'\N F x.F(N(F,x))')
plus = lexpr(r'\M N F x.M(F,N(F,x))')
mult = lexpr(r'\M N F.M(N(F))')
pred = lexpr(r'\N F x.(N(\G H.H(G(F)))(\u.x)(\u.u))')
v1 = ApplicationExpression(succ, zero).simplify()
Run Code Online (Sandbox Code Playgroud) nlp ×10
python ×5
nltk ×2
python-3.x ×2
bigdata ×1
go ×1
natural-language-processing ×1
parsing ×1
performance ×1
semantics ×1
text-mining ×1
wordnet ×1