.load()给我带来麻烦.我正在处理一个节段加载器项目,我似乎无法获取我需要的文件.
我想要实现的目标:
#sectionContainer在文档加载时是空的,但在文档就绪时它被"填充"了Pages1.html.这是通过JavaScript文件完成的sections.js.JS文件和index.html不在同一个文件夹中.这是网站结构(我在我的网站上运行了很多项目)
我用来加载Pages1.html的代码:
$(document).ready(function () {
$("#sectionContainer").load("../Pages1.html", function (response, status, xhr) {
if (status == "error") {
var msg = "An error occurred. Status code: ";
$("#error").html(msg + xhr.status + ". Status text: " + xhr.statusText);
}
});
});
Run Code Online (Sandbox Code Playgroud)
我已经尝试了我所知道的所有可能的方法(/,.,.,..,...),似乎没有任何工作.这是测试用例.
有谁知道我做错了什么?
根据语言模型获得标记的概率相对容易,如下面的片段所示。您可以获取模型的输出,将自己限制在屏蔽标记的输出,然后在输出向量中找到您请求的标记的概率。然而,这仅适用于单标记词,例如本身在标记器词汇表中的词。当词汇表中不存在某个单词时,分词器会将其分成它确实知道的部分(参见示例底部)。但是由于输入的句子只有一个被屏蔽的位置,并且请求的标记比这个多,我们如何得到它的概率呢?最终,我正在寻找一种解决方案,无论一个单词有多少个子词单元,它都可以工作。
在下面的代码中,我添加了许多注释来解释正在发生的事情,以及打印出打印语句的给定输出。您会看到预测诸如“爱”和“恨”之类的标记很简单,因为它们位于标记器的词汇表中。然而,'reprimand' 不是,所以它不能在单个掩码位置预测 - 它由三个子词单元组成。那么我们如何在蒙面位置预测“谴责”呢?
from transformers import BertTokenizer, BertForMaskedLM
import torch
# init model and tokenizer
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
model = BertForMaskedLM.from_pretrained('bert-base-uncased')
model.eval()
# init softmax to get probabilities later on
sm = torch.nn.Softmax(dim=0)
torch.set_grad_enabled(False)
# set sentence with MASK token, convert to token_ids
sentence = f"I {tokenizer.mask_token} you"
token_ids = tokenizer.encode(sentence, return_tensors='pt')
print(token_ids)
# tensor([[ 101, 1045, 103, 2017, 102]])
# get the position of the masked token
masked_position = (token_ids.squeeze() == tokenizer.mask_token_id).nonzero().item()
# forward
output …Run Code Online (Sandbox Code Playgroud) python transformer-model pytorch bert-language-model huggingface-transformers
我在看CSS3 calc(),我想知道是否可以使用jQuery(或RegEx)从输入字符串中减去一个值.
例如:
div {
width: calc(100% - 50px);
}
Run Code Online (Sandbox Code Playgroud)
我想要得到的百分比值(100%)和像素值(50px),我需要知道它是什么,然后(px,em,pt,%).
所以基本上:
calc(和前一个分隔符(+,-,*,/))calc(100% - 20px - 0.8em)编辑: Spudley谈论解析整个CSS样式表,但这可能会导致开销.因为这个项目为它赫克,开销允许的,所以你可以去失控,做任何你想做到这一点!
谢谢.
我想知道是否可以使用另一个伪元素扩展伪元素.我尝试了以下,但它没有用.
li {
float: left;
text-align: center;
list-style-type: none;
position: relative;
padding: 12px 6px 0 6px;
&:before {
content: "";
position: absolute;
top: 0;
right: 50%;
border-top: 1px solid #ccc;
width: 50%;
height: 12px;
}
&:after{
@extend &:before;
right: auto;
left: 50%;
border-left: 1px solid #ccc;
}
}
Run Code Online (Sandbox Code Playgroud) 我们大多数人都知道,现在有些标签会被弃用,这意味着它已经过时了.它后面跟着一个较新的HTML构造,或者它可以在CSS中完成(例如<center>).但是,我想知道的问题是:当标签或元素被弃用时,它将来会从浏览器支持中删除吗?换句话说,目前我所知道的所有浏览器都支持<center>,但我可以想象,浏览器继续支持已弃用的内容可能效率不高.因此,支持必须在一段时间后下降.
浏览器是否可能会删除对曾经非常常见的标记或元素的支持?为了提供一个更适合SO问答模板的问题,我将重新阐述以上所有内容:是否知道浏览器已经放弃了对曾经常见的属性或元素的支持?
我能找到的唯一一件事是在文档中,说明:
不推荐使用已弃用的元素或属性是较新构造已过时的元素或属性.不推荐使用的元素在参考手册中的适当位置定义,但明确标记为已弃用.在将来的HTML版本中,不推荐使用的元素可能会过时.
出于向后兼容性的原因,用户代理应继续支持已弃用的元素.
元素和属性的定义清楚地表明哪些被弃用.
我认为,这不是基于意见的.我想知道是否存在已经被浏览器实际上不再支持的标签的情况.这不受意见的约束.但我确实理解这个问题对此有一种开放的感觉.因此,我想澄清一下,我正在寻找浏览器放弃支持的实际和事实证据.我不是要求任何预见者站出来承认他们的神奇力量,我只是在寻找过去发生的案例.
请注意,欢迎提出有关我的问题有效性的评论 - 而不是简单地投票.
我正在浏览strsplitR中的一些答案.示例文本:
fileName <- c("hello.w-rp-al",
"how.nez-r",
"do.qs-sdz",
"you.d-aerd",
"do.dse-e")
Run Code Online (Sandbox Code Playgroud)
我想获得创建列表的第一个元素,并认为我可以使用诸如此类的东西
fileNameSplit <- strsplit(fileName, "[.]")
node_1 <- fileNameSplit[0]
node_2 <- fileNameSplit[1]
Run Code Online (Sandbox Code Playgroud)
但那没用.
然后我发现这个答案是建议使用sapply带[.这确实有效.
d <- data.frame(fileName)
fileNameSplit <- strsplit(d$fileName, "[.]")
d$node_1 <- sapply(fileNameSplit, "[", 1)
d$node_2 <- sapply(fileNameSplit, "[", 2)
Run Code Online (Sandbox Code Playgroud)
但是,我正在试图找出原因.到底发生了什么,以及[与任何事情有什么关系?在我看来,它在语义上令人困惑.
为了在不同的Windows 10设备上无缝工作,我在OneDrive(OneDrive/Eclipse)中添加了一个Eclipse工作区.这个文件夹的内容是我的项目,一个.metadata(~45MB)文件夹和一个(隐藏?).recommenders(~5MB)文件夹.
因为所有这些都在OneDrive中,所以所有文件和项目都在设备之间同步.如果我下班回家,项目将同步到我的家用电脑,但 .metadata和.recommenders文件夹也是如此.
问题是OneDrive经常遇到问题:某些东西无法同步或覆盖,因此它会创建一个本地副本 - 这显然很烦人.经过仔细检查,我意识到我甚至不知道.metadata和.comcommenders是什么,或者他们做了什么.
在我的笔记本中,我从抓取的网页中打印了一些数据。其中一些是没有标签的超链接,例如https://stackoverflow.com。不幸的是,Notebook 在输出页面上将这些打印为实际的超链接(即,将其包装在标签中)并将其缩短。(因此 HTML 中的最终结果如下所示:<a href="https://stackoverflow.com">https://stacko...</a>.)该字段设置为 code,但这仍然会发生。有没有办法禁用这种行为?
我正在改进一个解析XML并对其子树进行分类和索引的程序.实际程序太大而无法显示在这里,所以我把它归结为一个最小的测试用例,显示我遇到的问题.
这个想法是:
alpino_ds并行处理文件中的所有节点请注意,在实际代码中还有一些注意事项:
dicts of four levels deep consisting of dicts, sets, ints, and strings, as well as dict-to-filehandle, and Counter() objects;ThreadPoolExecutor) and even though there was some gain (I calculated around 5% improvement in speed), this …python parallel-processing shared-memory python-3.x python-multiprocessing
我正在尝试使用Python读取和处理大块文件。我正在关注这个博客,该博客提出了一种非常快速的方式来读取和处理散布在多个进程中的大量数据。我只稍微更新了现有代码,即使用stat(fin).st_sizeover os.path.getsize。在该示例中,我也未实现多处理,因为该问题在单个过程中也很明显。这使得调试更加容易。
我在这段代码中遇到的问题是它返回断句。这是有道理的:指针不考虑行尾,而只返回给定的字节大小。实际上,人们会假定您可以通过在提取的行中省略最后一项来解决此问题,因为这很可能是折线。不幸的是,这也不可靠。
from os import stat
def chunkify(pfin, buf_size=1024):
file_end = stat(pfin).st_size
with open(pfin, 'rb') as f:
chunk_end = f.tell()
while True:
chunk_start = chunk_end
f.seek(buf_size, 1)
f.readline()
chunk_end = f.tell()
yield chunk_start, chunk_end - chunk_start
if chunk_end > file_end:
break
def process_batch(pfin, chunk_start, chunk_size):
with open(pfin, 'r', encoding='utf-8') as f:
f.seek(chunk_start)
batch = f.read(chunk_size).splitlines()
# changing this to batch[:-1] will result in 26 lines total
return batch
if __name__ == '__main__': …Run Code Online (Sandbox Code Playgroud)