小编Mez*_*Mez的帖子

SQL Server Management Studio 2012中的SQL查询分析器在哪里

我有一些SQL正在运行,它需要很长时间才能返回结果/解析/显示等应用程序.

我安装了SQL Server Management Studio 2012但我无法找到SQL查询分析器.任何输入都会很明显.

sql-server visual-studio-2012 ssms-2012

19
推荐指数
2
解决办法
7万
查看次数

使用Java从Google Storage下载文件

我已成功自动完成将Google Big Query中的数据移至Google存储空间的流程.现在,我还需要以自动方式将数据从Google Storage下载到我的环境中.

我正在尝试执行正常的HTTP请求,但之前已授权.所以我的HTTP请求是

    HttpRequestFactory requestFactory = HTTP_TRANSPORT.createRequestFactory(authorize());
    GenericUrl url = new GenericUrl(uri);
    HttpRequest request = requestFactory.buildGetRequest(url);
    HttpResponse response = request.execute();
    String content = response.parseAsString();
Run Code Online (Sandbox Code Playgroud)

我的授权码是

/** Authorizes the installed application to access user's protected data. */
    private static Credential authorize() throws Exception
    {
        HttpTransport httpTransport = new NetHttpTransport();
        JsonFactory jsonFactory = new JacksonFactory();

        // load client secrets
        GoogleClientSecrets clientSecrets = GoogleClientSecrets.load(JSON_FACTORY,
                new InputStreamReader(BigQueryConsumer.class.getResourceAsStream("/secret.json")));

        // This creates the credentials datastore at ~/.oauth-credentials/${credentialDatastore}
        FileDataStoreFactory fileDataStoreFactory = new FileDataStoreFactory(new File(System.getProperty("user.home") + …
Run Code Online (Sandbox Code Playgroud)

java google-api google-authentication google-api-java-client google-cloud-storage

11
推荐指数
1
解决办法
1086
查看次数

报表查看器未加载,显示空白 - 运行本地RDLC文件

我遇到了报告服务的问题,在2005版本上运行本地rdlc文件.

我在HTML中有一个报表查看器设置为在本地运行,如下所示:

 <rsweb:ReportViewer ID="ReportingServicesReportViewer" runat="server" Height="100%"
            ProcessingMode="Local" ShowParameterPrompts="False" Width="100%">
        </rsweb:ReportViewer>
Run Code Online (Sandbox Code Playgroud)

在代码中

// create SqlConnection
        SqlConnection myConnection = new SqlConnection(ConnectionString);
        myCommand.Connection = myConnection;
        SqlDataAdapter da = new SqlDataAdapter(myCommand);

        //get the data
        DataSet data = new DataSet();
        da.Fill(data);

        if (data != null && data.Tables.Count > 0 && data.Tables[0].Rows.Count > 0)
        {
            ReportingServicesReportViewer.Visible = true;
            ltrStatus.Text = string.Empty;

            //provide local report information to viewer
            ReportingServicesReportViewer.LocalReport.ReportPath = Server.MapPath(Report.RDLCPath);

            //bind the report attributes and data to the reportviewer
            ReportDataSource rds = new ReportDataSource("DataSet1", data.Tables[0]);
            ReportingServicesReportViewer.LocalReport.DataSources.Clear(); …
Run Code Online (Sandbox Code Playgroud)

c# rdlc reportingservices-2005 reporting-services

10
推荐指数
4
解决办法
6万
查看次数

将TransactionScope与read uncommitted一起使用 - 是否必须在SQL中使用(nolock)?

我正在使用FluentNHibernate,我有一个记录列表,映射到SQL Server 2008视图.脏的读取对我来说没关系,不锁定表是一个优先事项.

视图中的SQL查询,没有任何with(nolock),但是,我使用以下方法...

using (var txScope = new TransactionScope(TransactionScopeOption.Suppress, new TransactionOptions() { IsolationLevel = System.Transactions.IsolationLevel.ReadUncommitted }))
{
   ... The reading of records from the view is done here, through Fluent NHibernate...
}

是否将应用程序层的隔离级别设置为未提交读取,将(nolock)应用于在该上下文中生成的查询?

nhibernate transactions fluent-nhibernate sql-server-2008 c#-4.0

10
推荐指数
1
解决办法
1万
查看次数

将KafkaProducer从本地计算机发送到virtualbox上的hortonworks沙箱

我有一个非常简单的制作人,我在我的Windows本地机器上运行eclipse ...我真正想要的是通过kafka获取消息,所以我将能够通过zookeeper查看代理.只是看看通信如何从端到端工作......所以这里是代码:

Properties props = new Properties();
    props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"localhost:9020");
    props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
    props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());

    KafkaProducer<String,String> producer = new KafkaProducer<String,String>(props);

    boolean sync = true;
    String topic="mytopic";
    String key = "mykey";
    String value = "myvalue";

    ProducerRecord<String,String> producerRecord = new ProducerRecord<String,String>(topic, key, value);

    if (sync) {
        producer.send(producerRecord).get();
    } else {
        producer.send(producerRecord);
    }

    producer.close();
Run Code Online (Sandbox Code Playgroud)

但是过了一段时间我得到了

Exception in thread "main" java.util.concurrent.ExecutionException: org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.
at org.apache.kafka.clients.producer.KafkaProducer$FutureFailure.<init>(KafkaProducer.java:437)
at org.apache.kafka.clients.producer.KafkaProducer.send(KafkaProducer.java:352)
at org.apache.kafka.clients.producer.KafkaProducer.send(KafkaProducer.java:248)
at kafkaProducer.TestProducer.main(TestProducer.java:30)  Caused by: org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.
Run Code Online (Sandbox Code Playgroud)

我有hortonworks沙箱设置,kafka运行,但我似乎无法连接到它.我尝试在虚拟机网络配置中进行端口转发,但仍然存在相同的问题.有什么东西我错过了吗?

hadoop bigdata apache-kafka hortonworks-data-platform

10
推荐指数
1
解决办法
1万
查看次数

全外连接,在2个数据表上,带有列列表

我有2个数据表,我不知道他们的数据列表.必须在运行时提取此列表,并将其用于完整外部联接.

使用这些列时,需要合并两个表之间的列,并且我需要显示所有数据.

直到现在我正在做的是

  1. 使用intersect获取公共列,并实现IEqualityComparer
  2. 使用这些列创建一个新的数据表,以便将2个数据表合并到此新表中

但是,我在第二步遇到了Linq的问题.

直到现在我有:

获取常见列


    // Get common columns
    var commonColumns = dt1.Columns.OfType().Intersect(dt2.Columns.OfType(), new DataColumnComparer());

创建新数据表


    // Create the result which is going to be sent to the user
    DataTable result = new DataTable();

    // Add all the columns from both tables
    result.Columns.AddRange(
    dt1.Columns.OfType()
    .Union(dt2.Columns.OfType(), new DataColumnComparer())
    .Select(c => new DataColumn(c.Caption, c.DataType, c.Expression, c.ColumnMapping)).ToArray());

如何从运行时提取的数据列表中动态获取有效的全外连接?

.net c# linq ado.net

8
推荐指数
1
解决办法
3523
查看次数

基于每日货币汇率的SSAS总和度量

此度量成功将我的度量转换为所选的货币.因此,如果我从月的第1天到本月15日获得数据,那么所选择的货币的汇率将是该月的第15个月.

 CREATE MEMBER CURRENTCUBE.[Measures].[Comp Money In] AS null;    
SCOPE([Dim Time].[Date Key].members);     
[Measures].[Comp Money In]=      [Measures].[_Comp Money In]/[Measures].[Last Currency Rate];  

end scope;    
Run Code Online (Sandbox Code Playgroud)

然而,我想要的是汇总金额,考虑到每日结算汇率.因此,本月1日的汇率与当月1日汇率汇总,第2汇率相同,第3汇率......所以第四次汇率如此.

我相信,在我的货币汇率中,每天有1个汇率,即最后一个汇率.

我怎样才能做到这一点?我使用的是MS SQL 2008 R2标准,因此我无法使用度量表达式或半加性度量.

sql-server ssas mdx bids

5
推荐指数
1
解决办法
474
查看次数

在 Spark 上下文中禁用配置单元(OrcFileFormat 不是子类型)

我在 Spark 应用程序中遇到以下异常,并且我仅使用 SparkSQL 在数据框中运行过滤器。所以我想禁用配置单元支持。

Exception in thread "main" java.util.ServiceConfigurationError: org.apache.spark.sql.sources.DataSourceRegister: Provider org.apache.spark.sql.hive.orc.OrcFileFormat not a subtype
Run Code Online (Sandbox Code Playgroud)

你能做这个吗?当涉及到 Scala 和 Spark 时,我使用以下版本。

<properties>
    <spark.version>2.2.1</spark.version>
    <scala.version>2.11.8</scala.version>
    <scala.major.version>2.11</scala.major.version>
</properties>
Run Code Online (Sandbox Code Playgroud)

我尝试将属性设置spark.sql.catalogImplementationin-memory,但这也没有帮助。这就是我当前设置 Spark 会话并传递配置的方式。

        val sparkConf = new SparkConf
sparkConf.set("spark.sql.catalogImplementation","in-memory")
sparkConf.set("spark.sql.orc.enabled","false")

// Configure generic spark application
val spark = SparkSession
  .builder()
  .config(sparkConf)
  .master("local[*]")
  .getOrCreate()
Run Code Online (Sandbox Code Playgroud)

java scala apache-spark

5
推荐指数
0
解决办法
791
查看次数

将格式正确的JSON写入S3以加载Athena/Redshift

我有一个触发器正在为Kinesis上收到的每个事务执行lambda函数.生产者通过PutRecordsRequest()方法发送多个交易.Lambda函数如下;

var AWS = require('aws-sdk');
var firehose = new AWS.Firehose();
var fhStreamName = "transactions";

function writeToS3(jsonString,firehoseStreamName){

    console.log("Writing to S3 : " + jsonString)

    // Prepare storage to postings firehose stream...
    var params = { 
        DeliveryStreamName: firehoseStreamName, 
        Record: { 
            Data:  jsonString
        }
    };

    // Store data!
    firehose.putRecord(params, function(err, data) {
        if (err) { 

            // This needs to be fired to Kinesis in the future...
            console.log(err, err.stack); 
        }
        else{  
            console.log(data);            
        }
    });
}

function processEvent(event) {

    // Convert data object because this …
Run Code Online (Sandbox Code Playgroud)

amazon-web-services aws-lambda amazon-athena amazon-kinesis-firehose

3
推荐指数
1
解决办法
2218
查看次数

从SQL中的UNION ALL中选择

当我做一个:

SELECT id FROM table1
UNION ALL
SELECT id FROM table2
Run Code Online (Sandbox Code Playgroud)

我得到了一个包含所有ID的新表格,它很完美。但是当我尝试一个:

SELECT * FROM (
               SELECT id FROM table1
               UNION ALL
               SELECT id FROM table2
               )
Run Code Online (Sandbox Code Playgroud)

它不起作用,它什么也没回报我。

谁能帮我吗?我已经尝试了很多东西,这是一个很小的代码,所以我不明白为什么它不起作用。

非常感谢。

sql sql-server union

0
推荐指数
1
解决办法
5935
查看次数