小编Siv*_*man的帖子

即使Chrome或Firefox关闭,有没有办法显示桌面通知?

我们正在开发一个网站,使用GCM向最终用户发送推送通知.我们经历了服务工作者和所有人.我们使用这个codelab教程开发了一个原型.它目前正在运行,但唯一的问题是只有在Chrome打开时才会显示通知.Chrome关闭后,通知无法覆盖用户.

我想知道有没有什么办法可以解决这个问题,即使浏览器关闭也会显示通知,类似于Safari推送通知.提前致谢!

google-chrome push-notification web-notifications google-cloud-messaging web-push

7
推荐指数
1
解决办法
1万
查看次数

NiFi:ExtractText中的正则表达式获取CSV标头而不是数据

我正在获取CSV文件的流程中。我想根据CSV记录的第一个字段将记录放入不同的目录中。

例如,CSV文件如下所示

country,firstname,lastname,ssn,mob_num
US,xxxx,xxxxx,xxxxx,xxxx
UK,xxxx,xxxxx,xxxxx,xxxx
US,xxxx,xxxxx,xxxxx,xxxx
JP,xxxx,xxxxx,xxxxx,xxxx
JP,xxxx,xxxxx,xxxxx,xxxx
Run Code Online (Sandbox Code Playgroud)

我想获取第一个字段(即国家/地区)的字段值。将这些记录放入特定目录。美国记录进入美国目录,英国记录进入英国目录,依此类推。

我现在的流程是:

GetFile----> SplitText(行拆分计数= 1&标题行计数= 1)----> ExtractText(行=(。+))----> PutFile(目录= \ tmp \ data \ $ {line:getDelimitedField( 1)})。我需要将头文件跨所有拆分文件复制,以达到不同的目的。所以我需要他们。

关键是,传入的CSV文件被成功拆分为多个流文件,并且标头成功。但是,我在ExtractText处理器中给出的正则表达式将根据拆分后的流文件的CSV标头(而不是记录)对它进行评估。因此,我总是得到“国家”而不是使美国或英国进入“行”属性。因此,所有文件都转到\tmp\data\country。帮我解决这个问题。

csv apache-nifi

5
推荐指数
1
解决办法
3230
查看次数

Apache Nifi - 使用 Kafka + 合并内容 + 放置 HDFS 以避免小文件

我在 Kafka 主题中有大约 2000000 条消息,我想使用 NiFi 将这些记录放入 HDFS,所以我PutHDFS为此使用处理器,但ConsumeKafka_0_10它在 HDFS 中生成小文件,所以我使用合并内容处理器来合并记录在推送文件之前。 在此输入图像描述 如果配置需要更改,请提供帮助 这对于少量消息来说效果很好,但当涉及到具有大量数据的主题时,会为每条记录写入一个文件。

谢谢你!!

apache-nifi hortonworks-dataflow

5
推荐指数
1
解决办法
1548
查看次数

如何在Apache NiFi中处理具有相同名称的文件?

我正在学习NiFi,我正在研究使用文件的流程,GetFile然后我做了一些处理,然后使用PutHDFS处理器将它们存储到HDFS中.问题是,我很可能会得到同名文件.例如,我可能每30分钟获取一个文件,并且每30分钟生成的文件将具有相同的名称.

现在,当我将该文件放入HDFS时,我得到一个"已存在同名文件".我该如何克服这个问题?有没有办法在运行时更改文件名?

hadoop hdfs apache-nifi

4
推荐指数
1
解决办法
1445
查看次数

线程开始运行并终止自身


更新:谢谢大家!我根据建议修改了程序,下面给出的代码是修改后的代码.


原帖: 我经历了一些"应用和分析"类型的问题,在一个问题中,程序员被要求在电影院的三个预订柜台应用多线程概念,并计算总预订数量和收集的数量.节目.

我已经编写了一个相同的程序,你可以在下面看到:

import java.io.*;
import java.lang.*;

class Cinema
{
    int no=0,price=0;
    synchronized void reservation(int n,int p)
    {
        no=no+n;
        price=price+p;
    }
}


class Counter implements Runnable
{
    BufferedReader br=new BufferedReader(new InputStreamReader(System.in));
    Cinema c;
    int not,cost;
    Counter(Cinema c)
    {
        this.c=c;
    }
    public void run()
    {
        try
        {
            System.out.print("\nCounter 1");
            System.out.print("\nEnter the no. of tickets :");
            not=Integer.parseInt(br.readLine());
            cost=not*150;
            c.reservation(not,cost);
        }
        catch(IOException e){System.out.print("\n"+e);}
    }
}

class CinemaMain
{
    public static void main(String args[])throws IOException
    {
        Cinema c=new Cinema();
        System.out.print("\nCounter 1");
        Thread …
Run Code Online (Sandbox Code Playgroud)

java multithreading

3
推荐指数
1
解决办法
926
查看次数

蜂巢插入与蜂巢负载:有什么权衡?

我正在学习Hadoop /大数据技术.我想将数据大量摄取到hive中.我开始使用一个简单的CSV文件,当我尝试使用INSERT命令按记录加载每个记录时,一个记录插入本身大约需要1分钟.当我将文件放入HDFS然后使用该LOAD命令时,它是瞬间的,因为它只是将文件复制到hive的仓库中.我只是想知道当他们选择LOAD代替时,必须要面对的是什么INSERT.

hive hdfs hiveql apache-nifi

3
推荐指数
1
解决办法
761
查看次数

如何在Nifi ReplaceText处理器中用属性值替换文本?

我想用属性说var1的属性值123(如图所示)替换flowfile(基于我拥有的rgex)的某些内容。我正在使用Nifi中的“替换文本处理器”来执行此操作,但是不会替换内容,而是会删除流文件。

数据流的图像

replace apache-nifi

3
推荐指数
1
解决办法
7615
查看次数

如何读取Apache NiFi中的属性值

我正在研究一个样本NiFi流程,我将Json文件作为输入.我使用EvaluateJsonPath处理器来获取所需路径的值.我已将EvaluateJsonPath的目标设置为"flow-file属性",并使用所需的JsonPath添加了新属性.例如:属性名称:用户名,值:$ .input.username.现在,我将在下一个处理器中需要这个值.所以我想知道我应该使用哪个处理器来读取流文件的属性.

json jsonpath apache-nifi

2
推荐指数
1
解决办法
5305
查看次数

是否可以使用其余API获取apache NiFi中处理器/连接器的ID?

我正在探索NiFi提供的其余API功能.我有一个问题:我们可以NiFi-API通过查询组件的名称来获取组件的ID,无论是处理器,处理器组,控制器服务等吗?

我试过http://localhost:8080/nifi-api/flow/search-results?q=sample在我的NiFi Flow中有一个名为sample的处理器组.

在此输入图像描述

我有一个GetFile名为的处理器sample get file,我查询了这个:http://localhost:8080/nifi-api/controller/search-results/q='sample get file'.他们似乎都没有工作.NiFi-API文档在这些方面并不十分有用.所以指导我如何实现这一目标.

rest apache-nifi

2
推荐指数
1
解决办法
2583
查看次数

从Row创建DataFrame会导致"推断架构问题"

当我开始学习PySpark时,我使用了一个列表来创建一个dataframe.现在推断列表中的模式已被弃用,我收到了警告,它建议我使用pyspark.sql.Row.但是,当我尝试创建一个使用时Row,我会推断出架构问题.这是我的代码:

>>> row = Row(name='Severin', age=33)
>>> df = spark.createDataFrame(row)
Run Code Online (Sandbox Code Playgroud)

这会导致以下错误:

Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/spark2-client/python/pyspark/sql/session.py", line 526, in createDataFrame
    rdd, schema = self._createFromLocal(map(prepare, data), schema)
  File "/spark2-client/python/pyspark/sql/session.py", line 390, in _createFromLocal
    struct = self._inferSchemaFromList(data)
  File "/spark2-client/python/pyspark/sql/session.py", line 322, in _inferSchemaFromList
    schema = reduce(_merge_type, map(_infer_schema, data))
  File "/spark2-client/python/pyspark/sql/types.py", line 992, in _infer_schema
    raise TypeError("Can not infer schema for type: %s" % type(row))
TypeError: Can not infer …
Run Code Online (Sandbox Code Playgroud)

apache-spark apache-spark-sql pyspark

2
推荐指数
1
解决办法
9161
查看次数