我正在尝试用来spark-submit在spark集群中执行我的python代码.
通常我们spark-submit使用如下的python代码运行.
# Run a Python application on a cluster
./bin/spark-submit \
--master spark://207.184.161.138:7077 \
my_python_code.py \
1000
Run Code Online (Sandbox Code Playgroud)
但我想my_python_code.py通过传递几个参数来运行是否有聪明的方法来传递参数?
我在 Next.js 项目中应用了 tailwind CSS 和 Ant 设计。
我发现主按钮是白色的。
但当鼠标悬停时它会显示自己的主按钮颜色。
全局.css
@tailwind base;
@tailwind components;
@tailwind utilities;
@layer base {
h1 {
@apply text-2xl;
}
h2 {
@apply text-xl;
}
/* ... */
}
@import '~antd/dist/antd.css';
Run Code Online (Sandbox Code Playgroud)
Home.module.css
.container {
padding: 0 2rem;
}
.main {
min-height: 100vh;
padding: 4rem 0;
flex: 1;
display: flex;
flex-direction: column;
justify-content: center;
align-items: center;
}
.footer {
display: flex;
flex: 1;
padding: 2rem 0;
border-top: 1px solid #eaeaea;
justify-content: center;
align-items: center;
}
.footer …Run Code Online (Sandbox Code Playgroud) 我正在尝试交叉编译GStreamer.版本是1.2.3.主机PC的操作系统是x86 linux,而目标系统的操作系统是MIPSEL linux操作系统.
我成功编译了目标设备的gstreamer和插件.并且gst-launch-1.0可以执行.所以我尝试使用基本插件libgstvideotestsrc.但它没有用.所以我运行```gst-inspect-1.0'来检查插件,然后我发现结果如下.
# gst-inspect-1.0 -b
Blacklisted files:
libgstinterlace.so
libgstfbdevsink.so
libgstgeometrictransform.so
libgstmultifile.so
libgstencodebin.so
libgstfestival.so
libgstlevel.so
libgstdvdspu.so
libgstauparse.so
libgsty4menc.so
libgstvideofilter.so
libgstvideoscale.so
libgstaccurip.so
libgstvideoconvert.so
libgstaudioparsers.so
libgsttcp.so
libgstvolume.so
libgstcoreelements.so
libgstmpegtsdemux.so
libgstid3tag.so
libgstadpcmdec.so
libgstmfc.so
libgstrtpmanager.so
libgstaudiotestsrc.so
libgstdeinterlace.so
libgstdebug.so
libgstplayback.so
libgstspeed.so
libgstasfmux.so
libgsticydemux.so
libgstmpegpsdemux.so
libgstalaw.so
libgstwavparse.so
libgstpnm.so
libgstnavigationtest.so
libgstcamerabin2.so
libgstsdpelem.so
libgstisomp4.so
libgstliveadder.so
libgstmpegtsmux.so
libgstautodetect.so
libgstmultipart.so
libgstvideofiltersbad.so
libgstaudioresample.so
libgstautoconvert.so
libgstdvbsuboverlay.so
libgstid3demux.so
libgstvideobox.so
libgstgio.so
libgstdtmf.so
libgstremovesilence.so
libgstreplaygain.so
libgstaudioconvert.so
libgstcutter.so
libgstgaudieffects.so
libgstdvb.so
libgstaudiovisualizers.so
libgstudp.so
libgstimagefreeze.so
libgstadder.so
libgstpcapparse.so
libgstmxf.so
libgstshapewipe.so
libgstgdp.so
libgstwavenc.so
libgstshm.so
libgstflv.so
libgstfreeverb.so
libgstoss4audio.so …Run Code Online (Sandbox Code Playgroud) 我用scala代码在spark-shell中测试Spark.我正在构建使用Kafka和Spark的原型.
我在spark-shell下面运行了.
spark-shell --jars ~/spark/external/kafka-assembly/target/spark-streaming-kafka-assembly_2.10-1.3.1.jar
Run Code Online (Sandbox Code Playgroud)
我在shell中运行了下面的代码.
import kafka.serializer.StringDecoder
import org.apache.spark.streaming._
import org.apache.spark.streaming.kafka._
import org.apache.spark.SparkConf
// Create context with 2 second batch interval
val sparkConf = new SparkConf().setAppName("DirectKafkaWordCount")
val ssc = new StreamingContext(sparkConf, Seconds(2) )
Run Code Online (Sandbox Code Playgroud)
然后我在创建时发现了错误ssc.spark-shell告诉我下面的消息.
scala> val ssc = new StreamingContext(sparkConf, Seconds(2) )
15/06/05 09:06:08 INFO SparkContext: Running Spark version 1.3.1
15/06/05 09:06:08 INFO SecurityManager: Changing view acls to: vagrant
15/06/05 09:06:08 INFO SecurityManager: Changing modify acls to: vagrant
15/06/05 09:06:08 INFO SecurityManager: SecurityManager: …Run Code Online (Sandbox Code Playgroud) 我正在尝试读取CSV文件并构建数据框.
像打击一样的CSV格式.我使用ISO8602日期/时间格式进行数据/时间字符串表示.
2015-6-29T12:0:0,b82debd63cffb1490f8c9c647ca97845,G1J8RX22EGKP,2015-6-29T12:0:5,2015-6-29T12:0:6,0QA97RAM1GIV,2015-6-29T12:0:10,2015-6-29T12:0:11,2015-6-29T12:0:12,2015-6-29T12:5:42,1
2015-6-29T12:20:0,0d60c871bd9180275f1e4104d4b7ded0,5HNB7QZSUI2C,2015-6-29T12:20:5,2015-6-29T12:20:6,KSL2LB0R6367,2015-6-29T12:20:10,2015-6-29T12:20:11,2015-6-29T12:20:12,2015-6-29T12:25:13,1
......
Run Code Online (Sandbox Code Playgroud)
为了加载这些数据,我在Zeppelin中编写了scala代码,如下所示
import org.apache.spark.sql.types.DateType
import org.apache.spark.sql.functions._
import org.joda.time.DateTime
import org.joda.time.format.DateTimeFormat
import sys.process._
val logCSV = sc.textFile ("log_table.csv")
case class record(
callingTime:DateTime,
userID:String,
CID:String,
serverConnectionTime:DateTime,
serverResponseTime:DateTime,
connectedAgentID:String,
beginCallingTime:DateTime,
endCallingTime:DateTime,
Succeed:Int)
val formatter = DateTimeFormat.forPattern("yyyy-mm-dd'T'kk:mm:ss")
val logTable = logCSV.map(s => s.split(",") ).map(
s => record(
formatter.parseDateTime( s(0) ),
s(1),
s(2),
formatter.parseDateTime( s(3) ),
formatter.parseDateTime( s(4) ),
s(5),
formatter.parseDateTime( s(6) ),
formatter.parseDateTime( s(7) ),
s(8).toInt
)
).toDF()
Run Code Online (Sandbox Code Playgroud)
它像下面那样犯了错误.主要问题是DateTime不可序列化.
logCSV: org.apache.spark.rdd.RDD[String] = log_table.csv MapPartitionsRDD[38] at textFile at <console>:169
defined class …Run Code Online (Sandbox Code Playgroud) 我正在使用 Vagrant 在桌面上配置 3 个虚拟机。我想用这 3 个虚拟机构建集群。我想在专用网络中配置这3台机器的IP,并仅访问我桌面上的每个虚拟机。这种配置的原因是我将仅使用这三个虚拟机进行开发。
那么你能回答我如何使用 Vagrant 配置虚拟机的 IP 的问题吗?我无法理解如何配置专用网络的 IP 地址。
apache-spark ×3
scala ×2
antd ×1
apache-kafka ×1
cluster-mode ×1
csv ×1
datetime ×1
gstreamer ×1
linux ×1
mips ×1
next.js ×1
plugins ×1
python ×1
tailwind-css ×1
vagrant ×1