Apache zeppelin教程,错误"未找到sql解释器"

tho*_*and 8 apache-spark-sql apache-zeppelin

在" Zeppelin教程 "笔记本中,我无法使用%sql解释器.它将输出" sql interpreter not found".但是火花命令做工精细,以及%md%sh.

这是日志:

错误[2015-10-20 10:13:35,045]({qtp885851948-51} NotebookServer.java [runParagraph]:615) - 运行异常org.apache.zeppelin.interpreter.InterpreterException:在org.apache中找不到sql解释器.zeppelin.notebook.NoteInterpreterLoader.get(NoteInterpreterLoader.java:148)org.apache.zeppelin.notebook.Note.run(Note.java:282)org.apache.zeppelin.socket.NotebookServer.runParagraph(NotebookServer.java) :613)org.apache.zeppelin.socket.NotebookServer.onMessage(NotebookServer.java:126)位于org.eclipse.jetty.websocket的org.apache.zeppelin.socket.NotebookSocket.onMessage(NotebookSocket.java:56). WebSocketConnectionRFC6455 $ WSFrameHandler.onFrame(WebSocketConnectionRFC6455.java:835)位于org.eclipse.jetty.websocket.WebSocketParserRFC6455.parseNext(WebSocketParserRFC6455.java:349)atg.eclipse.jetty上的org.eclipse.jetty.webocket.WebSocketConnectionRFC6455.handle(WebSocketConnectionRFC6455.java:225)org.eclipse.jetty.nle.SelectChannelEndPoint.handle(SelectChannelEndPoint.java:667) .io.nio.SelectChannelEndPoint $ 1.run(SelectChannelEndPoint.java:52)atg.eclipse.jetty.util.thread.QueuedThreadPool.runJob(QueuedThreadPool.java:608)org.eclipse.jetty.util.thread.QueuedThreadPool $ 3 .run(QueuedThreadPool.java:543)在java.lang.Thread.run(Thread.java:745)java:52)org.eclipse.jetty.util.thread.QueuedThreadPool.runJob(QueuedThreadPool.java:608)at org.eclipse.jetty.util.thread.QueuedThreadPool $ 3.run(QueuedThreadPool.java:543)at java. lang.Thread.run(Thread.java:745)java:52)org.eclipse.jetty.util.thread.QueuedThreadPool.runJob(QueuedThreadPool.java:608)at org.eclipse.jetty.util.thread.QueuedThreadPool $ 3.run(QueuedThreadPool.java:543)at java. lang.Thread.run(Thread.java:745)

gal*_*esh 10

我有同样的错误.问题是取消选择了火花解释器.在教程页面的顶部,打开齿轮图标并确保"spark%spark ..."为蓝色,然后单击"保存".

用户界面有点令人困惑.默认情况下,所有解释器都被选中(蓝色).你只需要点击"保存"

  • 关于Zeppelin教程的相当混乱的事实.你看到的第一件事是:"为这个笔记绑定解释器.点击绑定/取消绑定解释器.拖放以重新排序解释器.列表上的第一个解释器变为默认.要创建/删除解释器,请转到解释器菜单." 所以我有点自然地点击了Spark解释器 - 然后导致了这个问题...... (4认同)