我想在我的一个软件包中放入一些JavaScript文件,让Struts像他们一样服务 /struts/js/foo.js
Struts为'template'包中的文件执行此操作(这是jQuery插件的文件所在的位置,由struts.ui.templateDir选项保护).但是我想把这些文件放到另一个包中; 如果我重新定义,struts.ui.templateDir那么struts停止工作,因为它无法找到它的模板.
所以现在的问题是:如何判断的Struts中提供文件服务org.foo.some.package.js的/struts/js/whatever.js?
是否有一个模块用于apache/nginx来提供来自archive(zip,tgz,tbz ...)的静态文件,这样如果指定位置没有文件,那么会要求说明该文件?
在app引擎中,我可以使用我的应用程序的默认存储桶来提供像pdf这样的cloudstorage文件:
http://storage.googleapis.com/<appid>.appspot.com/<file_name>
Run Code Online (Sandbox Code Playgroud)
但是,如何在不使用blob_key的情况下在SDK中提供本地cloudstorage文件?
我这样写默认存储桶:
gcs_file_name = '/%s/%s' % (app_identity.get_default_gcs_bucket_name(), file_name)
with gcs.open(gcs_file_name, 'w') as f:
f.write(data)
Run Code Online (Sandbox Code Playgroud)
SDK ='app_default_bucket'中默认存储桶的名称
在SDK数据存储区中,我有一个:GsFileInfo显示:filename:/app_default_bucket/example.pdf
更新和解决方法:您可以获取非图像文件(如css,js和pdf)的服务URL.
gs_file = '/gs/%s/%s/%s' % (app_identity.get_default_gcs_bucket_name(), folder, filename)
serving_url = images.get_serving_url(blobstore.create_gs_key(gs_file))
Run Code Online (Sandbox Code Playgroud) 我正在尝试使用带有laravel的swagger来自动记录我们的RESTful API.目标是在laravel控制器中保持swagger注释,然后swagger解析注释并生成相关的.json/.php文件.理想情况下,我希望laravel项目能够提供swagger文件,以便将所有内容保存在同一个引擎盖下并保持同步.
为了实现这一点,我在laravel项目的根目录中创建了一个docs目录(public所在的目录).然后我将以下路由添加到routes.php:
Route::get('docs/{page?}', function($page='index.php') {
header('Access-Control-Allow-Origin: *');
$parts = pathinfo($page);
$path = $_SERVER["DOCUMENT_ROOT"] . "/../docs/$page";
if ($parts['extension'] === 'php') {
require($path);
} else {
return file_get_contents($path);
}
});
Run Code Online (Sandbox Code Playgroud)
使用这种方法,我可以将我的swagger-ui网站指向http:// mydomain/docs,剩下的就是魔术.
对于你们所有的laravel大师,这是服务这些招摇文件的最佳方式吗?我尝试将docs目录公开,但这会导致重定向循环.
另一种实现此目的的方法是在我的Web服务器配置中创建一个直接指向这些swagger文件的虚拟主机,但此时我不想进行额外的配置.
我知道没有一个愚蠢的问题,但这是:你可以通过adsense或完全落后于https的网站上的其他人提供基于内容的广告吗?
我开发了一个应用程序,它将创建大量PDF并提供这些文件.(它正常的Servlet-Buffering服务).
如何通过多个请求确保我的应用程序有效?是否有任何工具可用于测试负载/可伸缩性/效率以及我的代码使用当前服务器配置处理多少并行请求?
关于如何继续,我有点困惑.我正在设置Django以在Mediatemple DV服务器上运行.我正在尝试找出适当的设置来提供图像/视频/等内容.
我不太明白这对http://docs.djangoproject.com/en/dev/howto/deployment/modwsgi/的意义
我们建议使用一个单独的Web服务器 - 即一个不运行Django的服务器 - 用于服务媒体.以下是一些不错的选择:
lighttpd,Nginx,TUX,Apache的精简版,切诺基
这是否意味着我应该在一个Apache实例(通过mod_wsgi)上提供Django,然后在另一个Apache实例或上述替代方案之一上提供其内容?我可以在同一个专用虚拟服务器上执行此操作,对吧?如果是的话,有关我应该如何做的任何建议?
谢谢!
时间序列数据是在 kafka 主题中生成的。我需要读取每条记录并用数据库中的一些数据进行修饰,并最终调用 REST API。收到响应后,输出到 kafka 主题。如何使用 kafka Streams API 高效且可扩展地做到这一点?
脚步 -
我认为,上述算法有两个瓶颈——
进行数据库调用会减慢速度。这可以通过缓存元数据并在存在错误或使用状态存储时加载元数据来避免。
同步进行 REST API 调用会减慢速度。
final KStream<String, String> records = builder.stream(InputTopic);
//This is bad
final KStream<String, String> output = records
.mapValues(value -> { //cache hit otherwise database call});
.mapValues(value -> { //prepare http request and convert the http resonse };
output.to(OutputTopic)
Run Code Online (Sandbox Code Playgroud)
如果数据库调用或 REST API 需要较长时间才能完成,上面的代码将对吞吐量产生依赖性和不利影响。具有相同键的记录不应乱序处理。预计吞吐量约为1m/分钟。当一条记录到达 REST API 时,可以并发进行数据库调用。
不知道如何编写可以在这种情况下扩展的拓扑。我是卡夫卡流的新手。
现在我curl -I用来检索标题.
在即将采用的浏览器采用HTTP/2时,网站会采用不同的方式为HPACK提供标头,这会使我对curl命令的使用无效吗?
目前,我们已成功使用Tensorflow服务为模型提供服务.我们使用以下方法导出模型并使用Tensorflow服务托管它.
------------
For exporting
------------------
from tensorflow.contrib.session_bundle import exporter
K.set_learning_phase(0)
export_path = ... # where to save the exported graph
export_version = ... # version number (integer)
saver = tf.train.Saver(sharded=True)
model_exporter = exporter.Exporter(saver)
signature = exporter.classification_signature(input_tensor=model.input,
scores_tensor=model.output)
model_exporter.init(sess.graph.as_graph_def(),
default_graph_signature=signature)
model_exporter.export(export_path, tf.constant(export_version), sess)
--------------------------------------
For hosting
-----------------------------------------------
bazel-bin/tensorflow_serving/model_servers/tensorflow_model_server --port=9000 --model_name=default --model_base_path=/serving/models
Run Code Online (Sandbox Code Playgroud)
但是我们的问题是 - 我们希望keras与Tensorflow服务集成.我们希望通过使用Keras的Tensorflow服务该模型.我们希望拥有的原因是因为 - 在我们的架构中,我们采用了几种不同的方式来训练我们的模型,如deeplearning4j + Keras,Tensorflow + Keras,但是为了服务,我们只想使用一个Tensorflow服务的可用引擎.我们没有看到任何直接的方法来实现这一目标.任何意见 ?
谢谢.
serving ×10
apache ×2
java ×2
adsense ×1
apache-kafka ×1
archive ×1
curl ×1
django ×1
dl4j ×1
file ×1
http ×1
http2 ×1
https ×1
keras ×1
laravel ×1
mediatemple ×1
mod-wsgi ×1
model ×1
nginx ×1
performance ×1
python ×1
rest ×1
scalability ×1
sdk ×1
static ×1
struts2 ×1
swagger ×1
tensorflow ×1
tomcat ×1