如果我们在 cassandra.yaml 中设置auto_snapshot: true,并且删除一些表,那么将会创建该特定表的快照,对吗?那么这些快照什么时候会被删除呢?我们需要通过运行脚本手动删除它们吗?或者是否有一个设置可以让我在一段时间后自动删除它?
snapshot cassandra datastax-enterprise datastax cassandra-2.1
我正在关注Django 教程。相比之下,我有两个数据库——MySql 和 Cassandra。因此,我还需要使用包含UUID类型的 Cassandra 模型。UUID 的形式为 32 个字母数字字符和四个连字符 (8-4-4-12)。因此,我的 urls.py 中有相当复杂的正则表达式:
^([A-Fa-f0-9]{8}))(-[A-Fa-f0-9]{4}){3}-[A-Fa-f0-9]{12}
Run Code Online (Sandbox Code Playgroud)
在polls/templates/polls/detail.htmlteplate 中是以下行:
<form action="{% url 'polls:vote' question.question_id %}" method="post">
Run Code Online (Sandbox Code Playgroud)
然后将 UUID 类型question.question_id转换为:
/polls/UUID('47de663a-57f2-4ca1-9ad9-81df9ae25973')/
代替
/polls/47de663a-57f2-4ca1-9ad9-81df9ae25973/
因此,我收到了错误消息:
使用参数 '(UUID('47de663a-57f2-4ca1-9ad9-81df9ae25973'),)' 和关键字参数 '{}' 未找到反向'投票'。尝试了 1 个模式:[u'polls/(?P^([A-Fa-f0-9]{8})(-[A-Fa-f0-9]{4}){3}-[ A-Fa-f0-9]{12})/vote/$'
如何处理 UUID 类型?
我想我不能在{% url}标签中使用 str(question.question_id) 函数。
根网址 - mysite/urls.py:
from django.conf.urls import url
from . import views
app_name= 'polls'
urlpatterns = [
#ex: /polls/
url(r'^$',views.index, name='index'),
#ex: /polls/uuid …Run Code Online (Sandbox Code Playgroud) 我们有顶点来存储各种作业及其类型,并算作属性。我必须按状态和数量进行分组。我尝试了以下查询,该查询适用于一个属性(receiveCount)
g.V().hasLabel("Jobs").has("Type",within("A","B","C")).group().by("Type").by(fold().match(__.as("p").unfold().values("receiveCount").sum().as("totalRec")).select("totalRec")).next()
Run Code Online (Sandbox Code Playgroud)
我想提供 10 个以上的属性,例如 successCount、FailedCount 等。有没有更好的方法来提供呢?
如何在单个 gremlin 查询中向相同顶点类型添加边和删除边。
假设我们有两种类型的顶点类型 A --is--> B 现在我有一个顶点连接到 B 的其他顶点。
我想将 A 的顶点更新为 B 的其他顶点。
目前,我正在删除当前的 B 顶点,然后添加新的顶点。
gremlin datastax-enterprise tinkerpop datastax datastax-enterprise-graph
我一直在网上寻找一段时间,一般来说,什么是CRUD(创建,删除,更新,删除)cassandra集群/密钥空间/列系列和列的最佳方法是什么?
有很多框架和驱动程序和api(节俭,hector,datastax驱动程序,cassandra sharp驱动程序,aquiles,fluentcassandra ...),我真的很困惑选择哪一个.
任何人都可以提供一份关于做这种事情的最佳方式的小简历/概述吗?
提前致谢
使用DSE和SOLR,我们将RF从1增加到3.我们立即注意到SOLR查询导致数据丢失与1:3比率一致.为了使用DSR 3.1.3和SOLR将RF从1增加到3,我们需要做些什么特别的事情.
编辑:
我知道应该运行修复以获取其他节点上的数据,并且我们正在运行修复.但是,仍然不应该提供任何空白结果,因为这是布隆过滤器的目的.
我似乎错误地使用了布隆过滤器.似乎我必须在升高ALL射频之前增加CL,并在修复完成后将其降低.
刚从3.1使用指南更新到DSE 3.2以运行更新,现在日志中充斥着此异常.当通过SOLR查询时,我们正在丢失数据,但是当使用cqlsh或cli进行查询时,似乎存在数据.
ERROR [IndexPool work thread-6] 2013-11-18 22:32:18,748 AbstractSolrSecondaryIndex .java (line 912) _yaqn8_Lucene41_0.tip
java.io.FileNotFoundException: _yaqn8_Lucene41_0.tip
at org.apache.lucene.store.bytebuffer.ByteBufferDirectory.fileLength( ByteBufferDirectory.java:129)
at org.apache.lucene.store.NRTCachingDirectory.sizeInBytes(NRTCachingDirectory .java:158)
at org.apache.lucene.store.NRTCachingDirectory.doCacheWrite( NRTCachingDirectory.java:289)
at org.apache.lucene.store.NRTCachingDirectory.createOutput( NRTCachingDirectory.java:199)
at org.apache.lucene.store.TrackingDirectoryWrapper.createOutput( TrackingDirectoryWrapper.java:62)
at org.apache.lucene.codecs.compressing.CompressingStoredFieldsWriter.<init>( CompressingStoredFieldsWriter.java:107)
at com.datastax.bdp.cassandra.index.solr.CassandraStoredFieldsWriter.<init>( CassandraStoredFieldsWriter.java:25)
at com.datastax.bdp.cassandra.index.solr.CassandraStoredFieldsFormat. fieldsWriter(CassandraStoredFieldsFormat.java:39)
at org.apache.lucene.index.StoredFieldsProcessor.initFieldsWriter( StoredFieldsProcessor.java:86)
at org.apache.lucene.index.StoredFieldsProcessor.finishDocument( StoredFieldsProcessor.java:119)
at org.apache.lucene.index.TwoStoredFieldsConsumers.finishDocument( TwoStoredFieldsConsumers.java:65)
at org.apache.lucene.index.DocFieldProcessor.finishDocument(DocFieldProcessor. java:274)
at org.apache.lucene.index.DocumentsWriterPerThread.updateDocument( DocumentsWriterPerThread.java:274)
at org.apache.lucene.index.DocumentsWriter.updateDocument(DocumentsWriter. java:376)
at org.apache.lucene.index.IndexWriter.updateDocument(IndexWriter.java:1485)
at org.apache.solr.update.DirectUpdateHandler2.addDoc(DirectUpdateHandler2. java:201)
at com.datastax.bdp.cassandra.index.solr.CassandraDirectUpdateHandler2.addDoc( CassandraDirectUpdateHandler2.java:103)
at com.datastax.bdp.cassandra.index.solr.AbstractSolrSecondaryIndex.doIndex( AbstractSolrSecondaryIndex.java:929)
at com.datastax.bdp.cassandra.index.solr.AbstractSolrSecondaryIndex. doUpdateOrDelete(AbstractSolrSecondaryIndex.java:586)
at com.datastax.bdp.cassandra.index.solr.ThriftSolrSecondaryIndex. updateColumnFamilyIndex(ThriftSolrSecondaryIndex.java:114)
at com.datastax.bdp.cassandra.index.solr.AbstractSolrSecondaryIndex$3.run( AbstractSolrSecondaryIndex.java:896)
at com.datastax.bdp.cassandra.index.solr.concurrent.IndexWorker.run( IndexWorker.java:38) …Run Code Online (Sandbox Code Playgroud) 当我尝试在ubuntu 12.04(通过Datastax的dsc20软件包安装)作为服务启动cassandra时,如下所示:
$ sudo service cassandra start
它说
*无法访问Cassandra的pidfile
&日志中没有其他消息或任何内容.
但是当我尝试以root用户身份运行时,sudo cassandra -f它才能正常运行并启动cassandra.在尝试调试时,我发现当尝试以非root用户身份运行时, 我收到了以下消息:
ERROR 17:48:08,432 Exception encountered during startup
java.lang.AssertionError: Directory /var/lib/cassandra/data is not accessible.
..
java.io.FileNotFoundException: /var/log/cassandra/system.log (Permission denied)
..
java.lang.AssertionError: Directory /var/lib/cassandra/data is not accessible.
Run Code Online (Sandbox Code Playgroud)
包装有问题吗?没有正确安装/配置包?
我正在寻找一个RDD和一个cassandra表的连接,它们对于相同的密钥ex(简化)具有不同的名称:
case class User(id : String, name : String)
Run Code Online (Sandbox Code Playgroud)
和
case class Home( address : String, user_id : String)
Run Code Online (Sandbox Code Playgroud)
如果想做:
rdd[Home].joinWithCassandraTable("testspark","user").on(SomeColumns("id"))
Run Code Online (Sandbox Code Playgroud)
如何确定要进行连接的字段的名称.而且我不想将rdd映射到只有正确的id,因为我想在joinWithCassandraTable之后加入所有值.
scala cassandra datastax-enterprise apache-spark spark-cassandra-connector
所有,
我在Digital Ocean中有一个3节点的集群cassandra.根据CQL中的SHOW VERSION,cassandra的版本如下所示
[cqlsh 5.0.1 | Cassandra 3.0.0 | CQL规范3.3.1 | 原生协议v4]
我能够使用cqlsh从另一个节点连接到集群的一个节点并运行命令...但是当我尝试使用java驱动程序进行连接时,我得到以下异常
com.datastax.driver.core.exceptions.NoHostAvailableException: All host(s) tried for query failed (tried: /128.xxx.xxx.xx:9042 (com.datastax.driver.core.TransportException: [/128.xxx.xxx.xxx:9042] Connection has been closed))
at com.datastax.driver.core.ControlConnection.reconnectInternal(ControlConnection.java:222)
at com.datastax.driver.core.ControlConnection.connect(ControlConnection.java:77)
at com.datastax.driver.core.Cluster$Manager.init(Cluster.java:1232)
at com.datastax.driver.core.Cluster.getMetadata(Cluster.java:336)
at com.attinad.cantiz.iot.platform.vehicledatapoc.App.connect(App.java:22)
at com.attinad.cantiz.iot.platform.vehicledatapoc.App.main(App.java:14)
Run Code Online (Sandbox Code Playgroud)
我使用的java驱动程序的版本是2.0.10.maven配置如下
<dependency>
<groupId>com.datastax.cassandra</groupId>
<artifactId>cassandra-driver-core</artifactId>
<version>2.0.10</version>
</dependency>
Run Code Online (Sandbox Code Playgroud)
我检查了cassandra.yaml,发现以下设置已正确设置
start_native_transport: true
native_transport_port: 9042
rpc_address: 128.xxx.xxx.xx
listen_address: 128.xxx.xxx.xx
Run Code Online (Sandbox Code Playgroud)
已经正确配置...所以我完全失去了...任何帮助表示赞赏
java datastax-enterprise datastax-java-driver digital-ocean cassandra-3.0