我们正在开发一个网站,使用GCM向最终用户发送推送通知.我们经历了服务工作者和所有人.我们使用这个codelab教程开发了一个原型.它目前正在运行,但唯一的问题是只有在Chrome打开时才会显示通知.Chrome关闭后,通知无法覆盖用户.
我想知道有没有什么办法可以解决这个问题,即使浏览器关闭也会显示通知,类似于Safari推送通知.提前致谢!
google-chrome push-notification web-notifications google-cloud-messaging web-push
我正在获取CSV文件的流程中。我想根据CSV记录的第一个字段将记录放入不同的目录中。
例如,CSV文件如下所示
country,firstname,lastname,ssn,mob_num
US,xxxx,xxxxx,xxxxx,xxxx
UK,xxxx,xxxxx,xxxxx,xxxx
US,xxxx,xxxxx,xxxxx,xxxx
JP,xxxx,xxxxx,xxxxx,xxxx
JP,xxxx,xxxxx,xxxxx,xxxx
Run Code Online (Sandbox Code Playgroud)
我想获取第一个字段(即国家/地区)的字段值。将这些记录放入特定目录。美国记录进入美国目录,英国记录进入英国目录,依此类推。
我现在的流程是:
GetFile----> SplitText(行拆分计数= 1&标题行计数= 1)----> ExtractText(行=(。+))----> PutFile(目录= \ tmp \ data \ $ {line:getDelimitedField( 1)})。我需要将头文件跨所有拆分文件复制,以达到不同的目的。所以我需要他们。
关键是,传入的CSV文件被成功拆分为多个流文件,并且标头成功。但是,我在ExtractText处理器中给出的正则表达式将根据拆分后的流文件的CSV标头(而不是记录)对它进行评估。因此,我总是得到“国家”而不是使美国或英国进入“行”属性。因此,所有文件都转到\tmp\data\country。帮我解决这个问题。
我正在学习NiFi,我正在研究使用文件的流程,GetFile然后我做了一些处理,然后使用PutHDFS处理器将它们存储到HDFS中.问题是,我很可能会得到同名文件.例如,我可能每30分钟获取一个文件,并且每30分钟生成的文件将具有相同的名称.
现在,当我将该文件放入HDFS时,我得到一个"已存在同名文件".我该如何克服这个问题?有没有办法在运行时更改文件名?
更新:谢谢大家!我根据建议修改了程序,下面给出的代码是修改后的代码.
原帖: 我经历了一些"应用和分析"类型的问题,在一个问题中,程序员被要求在电影院的三个预订柜台应用多线程概念,并计算总预订数量和收集的数量.节目.
我已经编写了一个相同的程序,你可以在下面看到:
import java.io.*;
import java.lang.*;
class Cinema
{
int no=0,price=0;
synchronized void reservation(int n,int p)
{
no=no+n;
price=price+p;
}
}
class Counter implements Runnable
{
BufferedReader br=new BufferedReader(new InputStreamReader(System.in));
Cinema c;
int not,cost;
Counter(Cinema c)
{
this.c=c;
}
public void run()
{
try
{
System.out.print("\nCounter 1");
System.out.print("\nEnter the no. of tickets :");
not=Integer.parseInt(br.readLine());
cost=not*150;
c.reservation(not,cost);
}
catch(IOException e){System.out.print("\n"+e);}
}
}
class CinemaMain
{
public static void main(String args[])throws IOException
{
Cinema c=new Cinema();
System.out.print("\nCounter 1");
Thread …Run Code Online (Sandbox Code Playgroud) 我正在学习Hadoop /大数据技术.我想将数据大量摄取到hive中.我开始使用一个简单的CSV文件,当我尝试使用INSERT命令按记录加载每个记录时,一个记录插入本身大约需要1分钟.当我将文件放入HDFS然后使用该LOAD命令时,它是瞬间的,因为它只是将文件复制到hive的仓库中.我只是想知道当他们选择LOAD代替时,必须要面对的是什么INSERT.
我正在研究一个样本NiFi流程,我将Json文件作为输入.我使用EvaluateJsonPath处理器来获取所需路径的值.我已将EvaluateJsonPath的目标设置为"flow-file属性",并使用所需的JsonPath添加了新属性.例如:属性名称:用户名,值:$ .input.username.现在,我将在下一个处理器中需要这个值.所以我想知道我应该使用哪个处理器来读取流文件的属性.
我正在探索NiFi提供的其余API功能.我有一个问题:我们可以NiFi-API通过查询组件的名称来获取组件的ID,无论是处理器,处理器组,控制器服务等吗?
我试过http://localhost:8080/nifi-api/flow/search-results?q=sample在我的NiFi Flow中有一个名为sample的处理器组.
我有一个GetFile名为的处理器sample get file,我查询了这个:http://localhost:8080/nifi-api/controller/search-results/q='sample get file'.他们似乎都没有工作.NiFi-API文档在这些方面并不十分有用.所以指导我如何实现这一目标.
当我开始学习PySpark时,我使用了一个列表来创建一个dataframe.现在推断列表中的模式已被弃用,我收到了警告,它建议我使用pyspark.sql.Row.但是,当我尝试创建一个使用时Row,我会推断出架构问题.这是我的代码:
>>> row = Row(name='Severin', age=33)
>>> df = spark.createDataFrame(row)
Run Code Online (Sandbox Code Playgroud)
这会导致以下错误:
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "/spark2-client/python/pyspark/sql/session.py", line 526, in createDataFrame
rdd, schema = self._createFromLocal(map(prepare, data), schema)
File "/spark2-client/python/pyspark/sql/session.py", line 390, in _createFromLocal
struct = self._inferSchemaFromList(data)
File "/spark2-client/python/pyspark/sql/session.py", line 322, in _inferSchemaFromList
schema = reduce(_merge_type, map(_infer_schema, data))
File "/spark2-client/python/pyspark/sql/types.py", line 992, in _infer_schema
raise TypeError("Can not infer schema for type: %s" % type(row))
TypeError: Can not infer …Run Code Online (Sandbox Code Playgroud)