小编arc*_*123的帖子

Google图表默认大小

我的Google图表设置为500px乘500px,但返回400px乘200px.我看了看div,它显示了500x500.我没有理由为什么图表会以400x200回归.div显示500x500,但SVG矩形框显示400x200,使所有图像变小.

有什么设置我不知道吗?

<div class="span5">
<div id="qual_div" style="border:1px black solid;margin:0px;padding:0px;height:500px;width:500px"></div>
</div>
    <script type="text/javascript">
  var data, options, chart;
  google.load("visualization", "1", {packages:["corechart"]});
  google.setOnLoadCallback(drawChart);
  function drawChart() {
    data = google.visualization.arrayToDataTable([
      ['Qual', 'Stat'],
      ['Patient Satisfaction',     {{ $stats->attributes['sa_ptsatisfaction'] }}],
      ['Medical Knowledge',      {{ $stats->attributes['sa_medknowledge'] }}],
      ['ER Procedural Skills',  {{ $stats->attributes['sa_erprocskills'] }}],
      ['Nurse Relationship Skills', {{ $stats->attributes['sa_nrsrltnshpskls'] }}],
      ['Speed',    {{ $stats->attributes['sa_speed'] }}],
      ['Compassion',    {{ $stats->attributes['sa_compassion'] }}],
      ['EMR Utilization Skills',    {{ $stats->attributes['sa_emr'] }}],
      ['Profession Teamwork Skills',    {{ $stats->attributes['sa_proftmwrkskills'] }}]
    ]);

    options = {
      title: 'My Daily Activities'
      ,chartArea:{left:0,top:0,width:"100%",height:"100%"}
    }; …
Run Code Online (Sandbox Code Playgroud)

google-visualization

19
推荐指数
1
解决办法
4万
查看次数

尝试根据文件名数组从父 dag 创建动态 subdag

我正在尝试使用气流将 s3 文件从“非删除”存储桶(意味着我无法删除文件)移动到 GCS。我不能保证每天都会有新文件,但我必须每天检查新文件。

我的问题是 subdag 的动态创建。如果有文件,我需要 subdags。如果没有文件,我不需要子标签。我的问题是上游/下游设置。在我的代码中,它确实会检测文件,但不会像预期的那样启动 subdag。我错过了一些东西。

这是我的代码:

from airflow import models
from  airflow.utils.helpers import chain
from airflow.providers.amazon.aws.hooks.s3 import S3Hook
from airflow.operators.python_operator import PythonOperator, BranchPythonOperator
from airflow.operators.dummy_operator import DummyOperator
from airflow.operators.subdag_operator import SubDagOperator
from airflow.contrib.operators.s3_to_gcs_operator import S3ToGoogleCloudStorageOperator
from airflow.utils import dates
from airflow.models import Variable
import logging

args = {
    'owner': 'Airflow',
    'start_date': dates.days_ago(1),
    'email': ['sinistersparrow1701@gmail.com'],
    'email_on_failure': True,
    'email_on_success': True,
}

bucket = 'mybucket'
prefix = 'myprefix/'
LastBDEXDate = int(Variable.get("last_publish_date"))
maxdate = LastBDEXDate
files = []

parent_dag = …
Run Code Online (Sandbox Code Playgroud)

python directed-acyclic-graphs airflow

11
推荐指数
1
解决办法
1194
查看次数

如何从标记中获取文本,但忽略其他子标记

我正在喝美味的汤.我有一个HTML字符串:

<div><b>ignore this</b>get this</div>
Run Code Online (Sandbox Code Playgroud)

如何检索"得到这个",而忽略" 忽略这个 "

谢谢

python beautifulsoup python-3.x

6
推荐指数
1
解决办法
5368
查看次数

有没有办法使用用户活动变量在Datastage中存储SQL

我正在考虑使用RCP来运行通用数据存储作业,但每次调用时初始SQL都会更改.是否有一个过程,我可以使用用户活动变量从文本文件或其他东西注入SQL,以便我可以使用相同的数据流?

我知道这个例程可以读取一个文件来查找参数:

Routine = ‘ReadFile’
vFileName = Arg1
vArray = ”
vCounter = 0
OPENSEQ vFileName to vFileHandle
Else Call DSLogFatal(“Error opening file list: “:vFileName,Routine)
Loop
While READSEQ vLine FROM vFileHandle
vCounter = vCounter + 1
vArray = Fields(vLine,’,’,1)
vArray = Fields(vLine,’,’,2)
vArray = Fields(vLine,’,’,3)
Repeat
CLOSESEQ vFileHandle
Ans = vArray
Return Ans
Run Code Online (Sandbox Code Playgroud)

但这是否意味着我只将SQL存储在一条单行中,即使它很长?谢谢.

datastage information-server

6
推荐指数
1
解决办法
3168
查看次数

如何在气流中使用 s3 hook

我有一个 s3 文件夹位置,我要移动到 GCS。我正在使用 Airflow 使运动发生。

在这种环境下,我的 s3 是一个“不断增长”的文件夹,这意味着我们在获取文件后不会删除它们。

def GetFiles(**kwargs):
    foundfiles = False

    s3 = S3Hook(aws_conn_id='S3_BDEX')
    s3.get_conn()
    bucket = s3.get_bucket(
        bucket_name='/file.share.external.bdex.com/Offrs'
    )
    files = s3.list_prefixes(bucket_name='/file.share.external.bdex.com/Offrs')
    print("BUCKET:  {}".format(files))


check_for_file = BranchPythonOperator(
    task_id='Check_FTP_and_Download',
    provide_context=True,
    python_callable=GetFiles,
    dag=dag
)
Run Code Online (Sandbox Code Playgroud)

我在这里需要的是文件列表及其创建日期/时间。通过这种方式,我可以比较现有文件以确定它们是否是新文件。

我知道我可以连接,因为get_bucket函数起作用了。但是,在这种情况下,我收到以下错误:

Invalid bucket name "/file.share.external.bdex.com/Offrs": Bucket name must match the regex "^[a-zA-Z0-9.\-_]{1,255}$"
Run Code Online (Sandbox Code Playgroud)

谢谢

python amazon-s3 airflow

6
推荐指数
1
解决办法
7003
查看次数

在 python read_csv 执行中处理坏行

我有一系列非常脏的 CSV 文件。

它们看起来像这样:

,"File Inputs",,,,,,,,,,,"Email Category",,"Contact Info Category",
RecCtr,Attom_ID,PeopleID,"First Name","Last Name",AddressFullStreet,City,State,Zip," ","Individual Level Match"," ","Email Address"," ",Phone,"Phone Type"
1,19536969,80209511,ANTHONY1,MACCA1,"123 Main RD","Anytown",MA,12345
2,169874349,80707224,ANTHONY2,MACCA2,"123 Main RD","Anytown",MA,12345
3,1057347,81837554,ANTHONY3,MACCA3,"123 Main RD","Anytown",MA,12345
4,36946575,81869227,ANTHONY3,MACCA4,"123 Main RD","Anytown",MA,12345,,YES,,,,1234567890,Mobile
Run Code Online (Sandbox Code Playgroud)

正如你在上面看到的,有 16 个元素。第 1、2、3 行是坏的,第 4 行是好的。

我正在使用这段代码试图阅读它们。

df = pd.read_csv(file, skiprows=2, dtype=str, header=None)

df.columns = ['RecCtr', 'Attom_ID', 'PeopleID', 'First_Name', 'Last_Name', 'AddressFullStreet', 'City', 'State', 'Zip', 'blank1', 'Individual_Level_Match', 'blank2', 'Email_Address', 'blank3', 'Phone', 'Phone_Type'
]
df = df.replace({pd.np.nan: None})
Run Code Online (Sandbox Code Playgroud)

我的问题是我不知道如何告诉系统我有 16 个元素,并且应该跳过不是 16 个元素的任何行。

看来我的代码中的第 1 行强制第 1-3 行变好,然后第 4 行变坏。 …

python pandas

5
推荐指数
1
解决办法
3284
查看次数

如何处理 Elasticsearch 索引中的空值

我有一个 SQL 表,正在导出到 Elasticsearch。

其中一列是可为空的数字字段,某些记录中存在空值。

当我们尝试为表建立索引时,会出现以下错误:

表的 ETL(BigQuery -> ElasticSearch)作业之一:MLS 已对索引 20000 中的 10000 个块进行 ES 失败,可能是由于对象不兼容。

Failing BigQuery Table: MLS

Stack Trace of the error:

Traceback (most recent call last): File "/Users/asif/zodiacbackend/zodiacbackend/tasks.py", line 205, in
Run Code Online (Sandbox Code Playgroud)

insertIntoES helpers.bulk(es, doc_generator(dataframe,table)) 文件“/Users/asif/zodiacbackend/env/lib/python3.7/site-packages/elasticsearch/helpers/actions.py”,第 300 行,批量好的,streaming_bulk(客户端,操作,*args,**kwargs)中的项目:文件“/Users/asif/zodiacbackend/env/lib/python3.7/site-packages/elasticsearch/helpers/actions.py”,第230行,在streaming_bulk **kwargs文件“/Users/asif/zodiacbackend/env/lib/python3.7/site-packages/elasticsearch/helpers/actions.py”中,第158行,在_process_bulk_chunk中引发BulkIndexError(“%i文档(s) ) 索引失败。" % len(errors), 错误) elasticsearch.helpers.errors.BulkIndexError: ('2 个文档索引失败。', [{'index': {'_index': 'mls', '_type':'mls','_id':'b100qHABEFI45Lp-z3Om','状态':400,'错误':{'type':'illegal_argument_exception','reason':'不同类型的映射器[Lot_Size_Sq_Ft], current_type [text], merged_type [long]'}, 'data': { 'Lot_Size_Sq_Ft': Decimal('13504')}}}])

如何让系统识别空值?

null elasticsearch elasticsearch-query

5
推荐指数
1
解决办法
2万
查看次数

Hadoop CDH4和Eclipse Juno

有没有人成功地为CDH4安装构建了Juno的eclipse插件?

我在网上看过CDH3.寻找CDH4.非常感谢.

hadoop eclipse-plugin

4
推荐指数
1
解决办法
3169
查看次数

我如何提取没有目录的7-zip zip文件

我有以下命令:

7z e -oD:\Data\ODS_Source\* D:\Data\DATA_DROP\Source.zip
Run Code Online (Sandbox Code Playgroud)

这导致 D:\Data\ODS_Source\Source\<files>.<ext>

我需要 D:\Data\ODS_Source\<files>.<ext>

如何消除文件夹的创建?

谢谢。

zip 7zip

4
推荐指数
1
解决办法
5664
查看次数

根据Django中的模型名称动态更改上传位置

我有这个模型:

class Photos (models.Model):
    file = models.ImageField()
    description = models.CharField(max_length=255, blank=True)
    Purpose = models.CharField(default='None', max_length=10)
    uploaded_at = models.DateTimeField(auto_now_add=True)

    class Meta:
        verbose_name = 'photo'
        verbose_name_plural = 'photos'

    def __str__(self):
        return self.description
Run Code Online (Sandbox Code Playgroud)

这个模型包含所有上传到网站的照片。我还有其他三个模型引用它:

class Member(Models.Model):
     ...(various fields)
     Photos = models.ManytoManyForeignKey(Photos)

class Unit(models.Model):
     ...(various fields)
     Photos = models.ManytoManyForeignKey(Photos)

class avatar(models.Model):
     ...(various fields)
     Photos = models.ForeignKey(Photos)
Run Code Online (Sandbox Code Playgroud)

我的问题是文件所在的位置。我知道我可以uploaded-to:在 PHotos 类中添加参数,但是有没有一种方法可以根据引用模型专门指定要转到的文件夹?

例如uploaded-to: '/avatars/'当班级头像订婚时?或/Member-Photos/成员类的文件夹?

django

4
推荐指数
1
解决办法
213
查看次数