我的系统在Amazon自动缩放组上运行,一个功能允许用户进行用户消息传递,我有以下用例要解决.
最初我打算在每个应用程序服务器上使用cronjob轮询消息队列,但是对我来说,使用SNS调用某种电子邮件发送端点(可能在Lambda中)会更有效.
我看不出有任何方法可以进行SNS调查SQS,但有人可以建议如何做到这一点吗?基本上我希望SNS有延迟,这样我就不会在电子邮件警报的"实时"聊天中向某人发送垃圾邮件.
谢谢
我有一个使用doctrine的大型多租户Symfony2应用程序和MySQL中大约40到50个数据库表.
有没有人有过设置审计日志记录过程的经验,至少要跟踪在大型应用程序中创建,编辑或删除数据的所有Doctrine操作?
理想情况下它应该"恰好发生",以便其他开发人员不必担心使他们的新实体或代码"可记录".
我没有具体的要求(HIPAA等),但是尽可能接近任何ISO27000最佳实践是很好的.
我的初步计划是查看使用一些Doctrine生命周期回调来获取信息并将其推送到一个没有DELETE或UPDATE权限的独立MySQL数据库中.我担心这种方法可能会对性能产生很大影响.
有没有人在此之前做过这个或类似的任何有任何提示或警告措辞的计划方法?
如果重要的是整个堆栈在AWS上运行,我可以在EU-WEST-1区域使用他们的任何服务.我已经在使用RDS,Elasticache和SQS之类的东西了.
谢谢!
我有多个由各种不相关的客户提供的 AWS 控制台登录信息。如果我同时在多个客户端上工作,这意味着基本上使用多个浏览器及其私有模式来保持它们全部打开。
有没有人对此有更优雅的解决方案?它们适用于不同的客户,因此 AWS Organizations 不是一种选择。
谢谢!
在过去,我使用go以如下所示的方式从API端点解码JSON.
client := &http.Client{}
req, err := http.NewRequest("GET", "https://some/api/endpoint", nil)
res, err := client.Do(req)
defer res.Body.Close()
buf, _ := ioutil.ReadAll(res.Body)
// ... Do some error checking etc ...
err = json.Unmarshal(buf, &response)
Run Code Online (Sandbox Code Playgroud)
我很快就要开发一个端点,它可以按以下格式向我发送几兆字节的JSON数据.
{
"somefield": "value",
"items": [
{ LARGE OBJECT },
{ LARGE OBJECT },
{ LARGE OBJECT },
{ LARGE OBJECT },
...
]
}
Run Code Online (Sandbox Code Playgroud)
JSON在某些时候将包含一个大的,任意长度的对象数组.我想将这些对象中的每一个分别放入消息队列中.我不需要解码对象本身.
如果我使用我的常规方法,这将在解码之前将整个响应加载到内存中.
是否有一种很好的方法可以拆分每个LARGE OBJECT项目,因为响应仍在流入并将其发送到队列中?我这样做是为了避免在内存中保存尽可能多的数据.
谢谢!
amazon-iam ×1
amazon-sns ×1
amazon-sqs ×1
audit ×1
audit-trail ×1
devops ×1
doctrine ×1
doctrine-orm ×1
go ×1
http ×1
json ×1
streaming ×1
symfony ×1