我使用列表作为Python程序的一部分,并希望将其转换为环境变量.
所以,就像这样:
list1 = ['a.1','b.2','c.3']
for items in list1:
alpha,number = items.split('.')
print(alpha,number)
Run Code Online (Sandbox Code Playgroud)
这让我,如预期的那样:
a 1
b 2
c 3
Run Code Online (Sandbox Code Playgroud)
但是当我尝试将其设置为环境变量时,如下所示:
export LIST_ITEMS = 'a.1', 'b.2', 'c.3'
Run Code Online (Sandbox Code Playgroud)
并做:
list1 = [os.environ.get("LIST_ITEMS")]
for items in list1:
alpha,number = items.split('.')
print(alpha,number)
Run Code Online (Sandbox Code Playgroud)
我收到一个错误: ValueError: too many values to unpack
如何修改我传递列表的方式,或者获取它以使我具有与不使用env变量相同的输出?
我正在尝试使用elasticsearch和Kibana进行logstash.我有所有最新版本,但在遇到一些问题之后,我意识到我需要安装一个旧版本,即0.20.6的elasticsearch,以便它能够与最新版本的logstash一起正常工作.因此,我下载了旧版本,执行了旧版本rm -rf(v.0.90.x)并安装了新版本(v.0.20.6).我试着启动它.它开始,但然后给我重复错误,如:
[2013-07-29 14:24:04,718][WARN ][indices.cluster ] [Dansen Macabre] [blog][2] failed to start shard
org.elasticsearch.indices.recovery.RecoveryFailedException: [blog][2]: Recovery failed from [Blob][UCFJzrBxQHOYOohF6scQMw][inet[/10.1.10.52:9300]] into [Dansen Macabre][-GzBNHLJSc2Do5DNTsn1jw][inet[/10.1.10.52:9301]]
at org.elasticsearch.indices.recovery.RecoveryTarget.doRecovery(RecoveryTarget.java:293)
at org.elasticsearch.indices.recovery.RecoveryTarget.access$300(RecoveryTarget.java:62)
at org.elasticsearch.indices.recovery.RecoveryTarget$2.run(RecoveryTarget.java:163)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:724)
Caused by: org.elasticsearch.transport.RemoteTransportException: [Blob][inet[/10.1.10.52:9300]][index/shard/recovery/startRecovery]
Caused by: org.elasticsearch.index.engine.RecoveryEngineException: [blog][2] Phase[1] Execution failed
at org.elasticsearch.index.engine.robin.RobinEngine.recover(RobinEngine.java:1123)
at org.elasticsearch.index.shard.service.InternalIndexShard.recover(InternalIndexShard.java:526)
at org.elasticsearch.indices.recovery.RecoverySource.recover(RecoverySource.java:116)
at org.elasticsearch.indices.recovery.RecoverySource.access$1600(RecoverySource.java:60)
at org.elasticsearch.indices.recovery.RecoverySource$StartRecoveryTransportRequestHandler.messageReceived(RecoverySource.java:328)
at org.elasticsearch.indices.recovery.RecoverySource$StartRecoveryTransportRequestHandler.messageReceived(RecoverySource.java:314)
at org.elasticsearch.transport.netty.MessageChannelHandler$RequestHandler.run(MessageChannelHandler.java:265)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:724)
Caused by: org.elasticsearch.indices.recovery.RecoverFilesRecoveryException: [blog][2] Failed to transfer [25] files with total size of …Run Code Online (Sandbox Code Playgroud) 我有一个查找类型的组合框,即,我已选择源为表中的列,并将选定的值存储在另一个表中.我正在查找的表有另一列,我需要在此列中显示的值显示在文本框中,每次我更改组合框中的值时,我需要在文本框中显示相应的值.我怎样才能做到这一点?到目前为止,我所做的是编写一个Select查询,根据组合框的值选择适当的列.有没有更好的方式这样做?请帮我!
我想检索以下信息:
select names from database where names like 'Jon';
Run Code Online (Sandbox Code Playgroud)
但对于Java中的MongoDB.本质上,它应该返回包含Jon这个词的所有名称,如Jonathan,Jong等.我知道$inMongoDB 中有运算符,但是如何使用Java驱动程序在Java中执行相同操作?我一直在努力寻找它,但一无所获.我试过了query = new BasicDBObject("names", new BasicDBObject("$in", "Jon"));,和query = new BasicDBObject("names", new BasicDBObject("$in", Jon));
但他们都没有工作:(请帮忙!
我有一个 Pandas 数据框,我正在使用 SQLAlchemy 引擎和to_sql函数将它写到 Snowflake 。它工作正常,但chunksize由于某些雪花限制,我必须使用该选项。这对于较小的数据帧也很好。但是,某些数据帧有 500k+ 行,并且每块 15k 记录,完成写入 Snowflake 需要很长时间。
我做了一些研究,发现pd_writer了 Snowflake 提供的方法,它显然可以更快地加载数据帧。我的 Python 脚本完成得更快,我看到它创建了一个包含所有正确列和正确行数的表,但每一行中每一列的值都是 NULL。
我认为这是一个NaN以NULL发行及想尽一切可能取代NaN以s None,而它确实在数据帧中的替代品,通过它获取表的时候,一切都变得NULL。
我如何才能pd_writer将这些巨大的数据帧正确写入 Snowflake?有没有可行的替代方案?
编辑:按照克里斯的回答,我决定尝试使用官方示例。这是我的代码和结果集:
import os
import pandas as pd
from snowflake.sqlalchemy import URL
from sqlalchemy import create_engine
from snowflake.connector.pandas_tools import write_pandas, pd_writer
def create_db_engine(db_name, schema_name):
return create_engine(
URL(
account=os.environ.get("DB_ACCOUNT"),
user=os.environ.get("DB_USERNAME"),
password=os.environ.get("DB_PASSWORD"),
database=db_name,
schema=schema_name,
warehouse=os.environ.get("DB_WAREHOUSE"),
role=os.environ.get("DB_ROLE"),
)
)
def create_table(out_df, table_name, idx=False):
engine = create_db_engine("dummy_db", …Run Code Online (Sandbox Code Playgroud) python sqlalchemy dataframe pandas snowflake-cloud-data-platform
我有3个下拉框,使用HTML select标签创建.在页面加载时,第一个框有几个名称.现在,当我单击第一个框中的一个名称时,第二个框中会出现更多名称,当我单击第二个框中的名称时,第三个框中会出现更多名称.如何使用AJAX实现这一目标?我只能使用ASP.Net和MS SQL Server.我是AJAX的完全菜鸟,我一直在教育自己,但没有什么可以解决的.我一直在寻找接近一周的代码.我查了w3schools.com,但是当我尝试那段代码时,它没有用.请帮帮我,请一步一步告诉我,为了使它工作所需要的东西,以及在哪里.我有一个快速接近的截止日期,并且在我的智慧结束时试图让它发挥作用.帮我!!
我想在VB.Net中使用数据库查询生成Excel文件.我该怎么做?
更确切地说:我想将查询"绑定"(很像将查询绑定到GridView)到Excel文件,以便表中的行占用新Excel文件中的相应单元格,并将文件保存到我的文件中.电脑.然后,将该文件邮寄给某人.
虽然我可以处理邮件部分,但是我需要帮助创建这样一个文件.谁知道如何实现我想要实现的目标?
PS:我需要在VB.Net中这样做,我正在使用SQL Server 2008.
我正在使用 DataGrip,几天前从 DBeaver 切换过来。我想要的一件事是从结果集中复制数据而不复制列名。我将数据复制到已经有列名称的电子表格中,当我复制数据以及列名称标签时,我发现它真的很烦人。有什么方法可以禁用此功能吗?
我想使用ASP FileUpload控件上传文件.但是,如果我尝试将限制增加到大约10000 kB,它将无法正常工作并接受最大4 MB的文件,并且我收到一条错误消息,指出已重置与服务器的连接.我提到:http://www.codeproject.com/KB/books/ASPNET20FileUpload.aspx和http://msdn.microsoft.com/en-us/library/aa478971.aspx,但是我修改了web.config.评论文件,什么都没发生.我哪里错了?
此外,我想知道当我在Web服务器上部署它时这将如何工作.我问,因为在后面的代码中,我仍然为文件上传的路径提供硬编码值.这是如何运作的?
我知道我们可以containsAll在比较两个时使用该方法ArrayLists来检查一个是否是另一个的子集.但这就是我想要的.考虑一下
ArrayList super = 1,2,3,4,5,6,7,8,9,10
和
ArrayList sub1 = 1,2,3,4
和另一个
ArrayList sub2 = 2,4,6,8.
现在,如果我做了
super.containsAll(sub1),它会评估为true因为sub1包含在内super.
如果我这样做super.containsAll(sub2),它也会评估,true因为数字2,4,6和8包含在super.
我想知道是否有办法检查两个,ArrayLists以便super.containsAll(sub2)评估false为数字sub2不会出现在相同的顺序中super.