我得到一个Activity两个Fragments(一个列表一个正常).正常Fragment膨胀Scrollview包含a LineaLayout(垂直)并且此布局包含TextViews.在ScrollView和layout_width和layout_height的match_parent,所以我觉得整个画面应该被使用.但在底部仍然存在"差距".我希望你能帮助我.
ScrollView.xml
<ScrollView
xmlns:android="http://schemas.android.com/apk/res/android"
xmlns:tools="http://schemas.android.com/tools"
android:id="@+id/scrollView1"
android:layout_width="match_parent"
android:layout_height="match_parent">
<LinearLayout
android:id="@+id/LinearLayout1"
android:layout_width="match_parent"
android:layout_height="match_parent"
android:background="@color/titlescreen_bg"
android:orientation="vertical"
android:paddingTop="60dp"
tools:context=".MainActivity" >
<TextView
android:id="@+id/tv_headline"
android:layout_width="match_parent"
android:layout_height="wrap_content"
android:gravity="center"
android:paddingBottom="60dp"
android:paddingTop="60dp"
android:textIsSelectable="false"
android:textSize="@dimen/fontsize_slogan_titlescreen" />
<TextView
android:id="@+id/tv_content"
android:layout_width="match_parent"
android:layout_height="match_parent"
android:gravity="center"
android:paddingBottom="30dp"
android:paddingTop="30dp"
android:textIsSelectable="false"
android:textSize="@dimen/fontsize_slogan_titlescreen" />
</LinearLayout>
</ScrollView>
Run Code Online (Sandbox Code Playgroud)
膨胀这种布局的片段.
package wak.iage.layout;
import wak.iage.R;
import android.app.Fragment;
import android.graphics.Color;
import android.graphics.Typeface;
import android.os.Bundle;
import android.view.Gravity;
import android.view.LayoutInflater;
import android.view.View;
import android.view.ViewGroup; …Run Code Online (Sandbox Code Playgroud) 我试图理解JavaScript世界中的类型.我的页面正在使用moment.js.我有一个函数,有时返回一个moment()和其他时间,返回一个string(它的遗留代码疯狂).
我的代码看起来像这样:
var now = getDate();
if (now instanceof moment) {
console.log('we have a moment.');
} else {
console.log('we have a string.');
}
function getDate() {
var result = null;
// Sometimes result will be a moment(), other times, result will be a string.
result = moment();
return result;
}
Run Code Online (Sandbox Code Playgroud)
当我执行上面的代码时,我永远不会得到we have a moment..即使我手动设置result = moment();.这是为什么?我误会了instanceof还是moment?
Hadoop框架org.apache.hadoop.io.Text和之间有什么区别java.lang.String?
为什么他们不能使用String而不是引入新的Text课程?
我调查了差异,发现它与编码格式有关; 但是我还不明白.
有人可以解释这些差异(例如,如果适用)?
我有一个典型的现代网络应用程序,定期在Twitter上分享.我最近注意到,当在Twitter内部浏览器中打开我们的网络应用程序时,localstorage被停用,这打破了我们的应用程序.
我如何突破Twitter内部浏览器并在默认的Android浏览器中打开页面?
我有以下build.gradle:
buildscript {
repositories {
maven { url 'https://maven.fabric.io/public' }
maven {
url "https://dl.bintray.com/fyber/maven"
}
maven {
url "https://dl.bintray.com/supersonic/android-sdk"
}
}
dependencies {
classpath 'io.fabric.tools:gradle:1.19.1'
}
}
apply plugin: 'com.android.application'
apply plugin: 'io.fabric'
apply plugin: 'com.google.gms.google-services'
dependencies {
// Ads
compile 'com.supersonic.sdk:mediationsdk:6.1.0@jar'
}
Run Code Online (Sandbox Code Playgroud)
我收到这个错误:
错误:(88,13)无法解决:com.supersonic.sdk:mediationsdk:6.2.0
我已检查存储库中是否存在该库.为什么我收到此错误?
这可能会被标记为重复,但我没有运气,所以我们走了.
我正在尝试用Python2.7开发一个像"Jarvis"这样的设置.我想要使用Pocketsphinx作为其中的一部分.我试图做到这一点我的Windows 10的机器上,但Pocketsphinx需要痛饮,那完全的失败在Windows 10机器(我还在上).所以,我搬到了我的树莓派零上,因为这是无论如何,我将寻求实际的计划.
我让Swig安装得很好.没有Windows 10的问题.然后我试着安装Pocketsphinx,事情就下来了.稍微安装失败.我读到我需要为2.7下载python开发人员.完成了,事情似乎进展顺利.我在屏幕上滚动了一堆东西,看起来它可能正常工作.不.那是我得到这个的时候:
deps/sphinxbase/src/libsphinxad/ad_pulse.c:44:30:致命错误:pulse/pulseaudio.h:没有这样的文件或目录
编译终止.
错误:命令'arm-linux-gnueabihf-gcc'因退出状态1而失败
清理...命令/ usr/bin/python -c"import setuptools,tokenize; file ='/ tmp/pip-build-Wt0cIJ/pocketsphinx/setup.py'; exec(compile(getattr(tokenize,'open') ,打开)(文件).read().replace('\ r \n','\n'),file,'exec'))"install --record/tmp/pip-UOA_Nf-record/install-record .txt --single-version-external-managed --compile失败,错误代码为1/tmp/pip-build-Wt0cIJ/pocketsphinx Traceback(最近一次调用最后一次):文件"/ usr/bin/pip",第9行,在load_entry_point('pip == 1.5.6','console_scripts','pip')()文件"/usr/lib/python2.7/dist-packages/pip/init.py",第248行,主要return command.main(cmd_args)文件"/usr/lib/python2.7/dist-packages/pip/basecommand.py",第161行,主文本='\n'.join(complete_log)UnicodeDecodeError:'ascii'编解码器无法解码位置51的字节0xe2:序数不在范围内(128)
我今天看错了,我有点厌烦.有谁知道我的线索?我承认我仍然刚刚开始编程世界,但这让我的大脑开始嘶嘶作响.
我有一些代码来创建一个弹出写一些HTML和打印.谷歌浏览器没有在打印预览中显示图像,但其他浏览器工作正常.Logo_big.png在我的情况下,文件丢失了.我怎样才能让它在Chrome中运行?
我的代码:
var newWindow = window.open('', '', 'width=100, height=100'),
document = newWindow.document.open(),
pageContent =
'<!DOCTYPE html>' +
'<html>' +
'<head>' +
'<meta charset="utf-8" />' +
'<title>Inventory</title>' +
'<style type="text/css">body {-webkit-print-color-adjust: exact; font-family: Arial; }</style>' +
'</head>' +
'<body><div><div style="width:33.33%; float:left;"><img src="img/Logo_big.png"/></body></html>';
document.write(pageContent);
document.close();
newWindow.moveTo(0, 0);
newWindow.resizeTo(screen.width, screen.height);
newWindow.print();
newWindow.close();
Run Code Online (Sandbox Code Playgroud) 我可以在HDD上访问运行Linux的计算机,该计算机具有20个内核,92 GB RAM和100 GB存储空间.我想将Hadoop用于涉及大量数据的任务(超过1M字,超过1B字组合).伪分布式模式或完全分布式模式是在单台计算机上利用Hadoop功能的最佳方式吗?
对于我对Hadoop的预期用途,遇到数据丢失并因节点故障而不得不重新运行作业不是大问题.
parallel-processing hadoop virtual-machine processing-efficiency linux-containers
在网站上流量通过http传输到位置/实例我们需要使用SSL和https来确保流量安全.当重定向到https时,请求内容类型是"text/xml",当它实际应该是"application/json"时.我们应该在代理头中明确设置"application/json"吗?我们在http配置中尝试过add_header Content-type"application/json",但没有什么区别.我们做错了什么?
Http配置:
location /instance {
proxy_pass https://instancehost:9443/instance;
proxy_redirect http://localhost.com https://localhost.com;
proxy_set_header X-xmgr-proxy-domain http://localhost.com:80;
proxy_set_header X-xmgr-proxy /instance;
proxy_set_header Access-Control-Allow-Origin "*";
proxy_set_header Access-Control-Allow-Headers "Origin, X-Requested-With, Content-Type, Accept";
proxy_ssl_certificate /data/nginx/certs/abc.crt;
proxy_ssl_certificate_key /data/nginx/certs/abc.key;
proxy_ssl_trusted_certificate /etc/pki/tls/certs/abc-bundle.crt;
proxy_ssl_protocols SSLv2 SSLv3 TLSv1 TLSv1.1 TLSv1.2;
proxy_hide_header Content-Type;
add_header Content-type "application/json"
}
Run Code Online (Sandbox Code Playgroud)
在标头中设置内容类型不起作用,因为我们仍然收到204错误.
https配置:
location /instance {
proxy_pass https://instancehost.com:9443/instance;
proxy_set_header X-xmgr-proxy-domain https://localhost.com:443;
proxy_set_header X-xmgr-proxy /instance;
proxy_set_header Access-Control-Allow-Origin "*";
proxy_set_header Access-Control-Allow-Headers "Origin, X-Requested-With, Content-Type, Accept";
proxy_ssl_certificate /data/nginx/certs/abc.crt;
proxy_ssl_certificate_key /data/nginx/certs/abc.key;
}
Run Code Online (Sandbox Code Playgroud) 我使用该命令运行了MapReduce程序hadoop jar <jar> [mainClass] path/to/input path/to/output.但是,我的工作是挂在:INFO mapreduce.Job: map 100% reduce 29%.
很久以后,我终止并检查了datanode日志(我在伪分布式模式下运行).它包含以下例外:
java.io.IOException: Premature EOF from inputStream
at org.apache.hadoop.io.IOUtils.readFully(IOUtils.java:201)
at org.apache.hadoop.hdfs.protocol.datatransfer.PacketReceiver.doReadFully(PacketReceiver.java:213)
at org.apache.hadoop.hdfs.protocol.datatransfer.PacketReceiver.doRead(PacketReceiver.java:134)
at org.apache.hadoop.hdfs.protocol.datatransfer.PacketReceiver.receiveNextPacket(PacketReceiver.java:109)
at org.apache.hadoop.hdfs.server.datanode.BlockReceiver.receivePacket(BlockReceiver.java:472)
at org.apache.hadoop.hdfs.server.datanode.BlockReceiver.receiveBlock(BlockReceiver.java:849)
at org.apache.hadoop.hdfs.server.datanode.DataXceiver.writeBlock(DataXceiver.java:804)
at org.apache.hadoop.hdfs.protocol.datatransfer.Receiver.opWriteBlock(Receiver.java:137)
at org.apache.hadoop.hdfs.protocol.datatransfer.Receiver.processOp(Receiver.java:74)
at org.apache.hadoop.hdfs.server.datanode.DataXceiver.run(DataXceiver.java:251)
at java.lang.Thread.run(Thread.java:745)
Run Code Online (Sandbox Code Playgroud)
5秒后,在日志中ERROR DataXceiver error processing WRITE_BLOCK operation.
什么问题可能导致此异常和错误?
我的NodeHealthReport说:
1/1 local-dirs are bad: /home/$USER/hadoop/nm-local-dir;
1/1 log-dirs are bad: /home/$USER/hadoop-2.7.1/logs/userlogs
Run Code Online (Sandbox Code Playgroud)
我发现这表明dfs.datanode.max.xcievers可能需要增加.但是,它已被弃用,并且dfs.datanode.max.transfer.threads使用默认值4096 调用新属性.如果更改此项将解决我的问题,我应该将其设置为什么新值?
这表明ulimit可能需要增加datanode的数量.我的ulimit -n(打开文件)是1024.如果增加这个将解决我的问题,我该怎么设置它?
在我的HDFS上,我有一堆gzip文件,我想要解压缩到正常格式.有没有这样做的API?或者我怎么能写一个函数来做到这一点?
我不想使用任何命令行工具; 相反,我想通过编写Java代码来完成这项任务.
我正在尝试做一些简单的事情:用泛型创建一个实例.我收到一个错误,说我无法创建实例,因为我没有new约束.但是,我在退货声明中确实有这个!有什么想法吗?
public IAction CreateAction<TA, TP>(ActionParamBase param)
where TA : IAction
where TP : ActionParamBase
{
Ensure.That(param).Is<TP>();
return new TA { Param = param as TP };
}
Run Code Online (Sandbox Code Playgroud) 我正在尝试创建23个数组而不键入@array1,@array2依此类推,@r如果$chrid匹配数组编号(如果$chrid=1应该放入@array1),则使用数组中的变量加载它们.我怎样才能做到这一点?
这是我到目前为止:
#!/usr/bin/perl
use warnings;
use strict;
my @chr;
my $input;
open ($input, "$ARGV[0]") || die;
while (<$input>) {
my @r = split(/\t/);
my $snps = $r[0];
my $pval = $r[1];
my $pmid = $r[2];
my $chrpos = $r[3];
my $chrid = $r[4];
for ($chrid) {
push (@chr, $chrid);
}
}
close $input;
Run Code Online (Sandbox Code Playgroud)