我有点困惑为什么这段代码在已经正常工作一周的情况下突然决定失败。
import firebase_admin
from firebase_admin import firestore, credentials,db, auth
def userIsLoggedIn(self,id_token: str) -> bool:
try:
decoded_token = auth.verify_id_token(id_token)
self.uid = decoded_token['uid']
except Exception as e:
return False,str(e)
return True,""
Run Code Online (Sandbox Code Playgroud)
返回的错误消息是:“HTTPResponse”对象没有“strict”属性并且当我在云服务器而不是本地主机上进行测试时,我只能复制此错误。
我查看了堆栈跟踪,发现这是auth.verify_id_token导致问题的函数,具体来说:
ile "/usr/local/lib/python3.11/site-packages/cachecontrol/serialize.py", line 54, in dumps
2023-05-04T16:11:04.767062340Z u"strict": response.strict,
2023-05-04T16:11:04.767067540Z ^^^^^^^^^^^^^^^
2023-05-04T16:11:04.767072540Z AttributeError: 'HTTPResponse' object has no attribute 'strict'
Run Code Online (Sandbox Code Playgroud)
编辑:
好吧,帕特里克下面给我指出了一个链接,告诉我:
“这似乎是缓存控制与新版本的 urllib3 2.0 不兼容。strict 不再是 HTTPResponse 类上受支持的参数。目前,您可能需要固定到旧版本的 urllib3 或使用缓存控制团队更新他们的使用情况。”
我得看看现在我能不能做点什么。例如,按照帕特里克的建议,使用 urllib3 2.0.0 作为解决方法。
我正在尝试:
from sklearn.model_selection import cross_validate
Run Code Online (Sandbox Code Playgroud)
如这里提到的.但得到错误:
ImportError: cannot import name 'cross_validate'
Run Code Online (Sandbox Code Playgroud)
Sklearn中的其他所有内容似乎都运行良好,只是这一点.当我运行这一行而没有别的时候甚至会发生错误.
我无法弄清楚我尝试加载的 csv 文件有什么问题:
我收到如下错误消息:
b'Skipping line 2120260: expected 6 fields, saw 8\n'
但是当我查看这些线条时,它们对我来说看起来还不错。见下文——(我将在每个选项卡 \t 后按 Enter 以使其更易于阅读)。
第 2,120,260 行(失败):
['user_000104\t
2005-09-12T06:25:50Z\t
a019a8cf-2601-4a81-b3c3-7b279a873713\t
Anne Clark\t
8f8e6bc0-c3c0-4062-875a-773a1de6206f\t
Empty Me']
第 9,000 行(未失败):
['user_000001\t
2008-06-15T17:28:31Z\t
a3031680-c359-458f-a641-70ccbaec6a74\t
Steve Reich\t
2991db42-3b19-4344-a340-605ac3fbd7e9\t
Drumming: Part Iv']
如果有人想亲自尝试,请下载:
http://www.dtic.upf.edu/~ocelma/MusicRecommendationDataset/lastfm-1K.html
并运行:
inpFile2 = pd.read_csv(fPath, sep='\t', error_bad_lines= False)
产生错误。和:
def checkRow(path,N):
with open(path, 'r') as f:
print("This is the line.")
print(next(itertools.islice(csv.reader(f), N, None)))
查看错误行(传入文件路径和您感兴趣的行)。确保导入 csv 并导入 itertools。
关于何时应该使用Pandas与何时使用SQL,我听到了不同的看法.
我尝试在Pandas中对19,150,869行数据执行以下操作:
for idx, row in df.iterrows():
tmp = int((int(row['M']) / PeriodGranularity))+1
row['TimeSlot'] = str(row["D"]+1) + "-" + str(row["H"]) + "-" + str(tmp)
Run Code Online (Sandbox Code Playgroud)
并且发现它花了这么长时间我不得不在20分钟后中止.
我在SQLLite中执行了以下操作:
Select strftime('%w',PlayedTimestamp)+1 as D,strftime('%H',PlayedTimestamp) as H,strftime('%M',PlayedTimestamp) as M,cast(strftime('%M',PlayedTimestamp) / 15+1 as int) as TimeSlot from tblMain
Run Code Online (Sandbox Code Playgroud)
并发现它耗时4秒("在2445ms内返回19150869行").
注意:对于Pandas代码,我在它之前的步骤中运行它以从db获取数据:
sqlStr = "Select strftime('%w',PlayedTimestamp)+1 as D,strftime('%H',PlayedTimestamp) as H,strftime('%M',PlayedTimestamp) as M from tblMain"
df = pd.read_sql_query(sqlStr, con)
Run Code Online (Sandbox Code Playgroud)
这是我的编码在这里有问题还是普遍接受的是,对于某些任务,SQL速度要快得多?
我正在尝试使用Conda在Windows 7上安装SpaCy并收到以下错误:
conda install -c conda-forge spacy
tqdm-4.19.4-py 100% |###############################| Time: 0:00:00 804.27 kB/s
ERROR conda.core.link:_execute_actions(337): An error occurred while installing package 'conda-forge::tqdm-4.19.4-py_0'.
CondaError: Cannot link a source that does not exist. C:\Users\xxxxx\AppData\Local\Continuum\Anaconda3\Scripts\conda.exe
Attempting to roll back.
Run Code Online (Sandbox Code Playgroud)
有没有人去过这个并设法解决它?如果我有一个选择,我会使用Linux,但遗憾的是没有.
我知道这一定已经解决了,但我很难找到解决方案.我已经尝试搜索:存储过程动态数据映射插入映射表在谷歌和这里.
我有一个DataMapping表
"OriginalColumn","OriginalTable","NewColumn","NewTable"
Run Code Online (Sandbox Code Playgroud)
由于列名称建议此表将包含如何将一个表中的数据加载到另一个现有表中的元数据.
我想写一个会发出一个存储过程
select *
from DataMapping
where OriginalTable = XXXX
Run Code Online (Sandbox Code Playgroud)
然后利用这些信息就回来了动态创建和执行Insert into NewTable的基础OriginalColumn,以NewColumn映射.
以下是将生成示例问题的代码:
/****** Object: Table [dbo].[DataMapping] Script Date: 7/23/2018 11:34:11 AM ******/
SET ANSI_NULLS ON
GO
SET QUOTED_IDENTIFIER ON
GO
CREATE TABLE [dbo].[DataMapping](
[OriginalColumn] [sysname] NOT NULL,
[OriginalTable] [sysname] NOT NULL,
[NewColumn] [sysname] NOT NULL,
[NewTable] [sysname] NOT NULL
) ON [PRIMARY]
GO
/****** Object: Table [dbo].[destinationTable] Script Date: 7/23/2018 11:34:12 AM ******/
SET ANSI_NULLS ON
GO
SET QUOTED_IDENTIFIER …Run Code Online (Sandbox Code Playgroud) 我更新了我的 PATH 看起来像这样:
PATH="$HOME/bin:$HOME/.local/bin:$PATH:/home/username/Installs/Spark/bin"
Run Code Online (Sandbox Code Playgroud)
我认为它有效,因为我设法从不同的文件夹调用 spark-shell(尽管我想知道我是否疯了,它真的来自 bin 文件夹)。但是,在重新启动 Ubuntu 后,它似乎不再起作用。为什么?
Could not find valid SPARK_HOME while searching ['/home/username', '/usr/local/bin']
/usr/local/bin/spark-shell: line 57: /bin/spark-submit: No such file or directory
Run Code Online (Sandbox Code Playgroud) 我正在尝试使用细粒度个人访问令牌(PAT),因为这似乎是推荐的方法,但遇到了困难。我遵循的步骤是:
https://github.com/XXXXX
其中要求我选择身份验证方法,所以我选择选项 3. 个人访问令牌这会导致错误:
remote: Write access to repository not granted.
fatal: unable to access 'https://github.com/XXX.git/': The requested URL returned error: 403
Run Code Online (Sandbox Code Playgroud)
我尝试返回并尝试将各种权限更改为 ReadWrite,但仍然没有成功。
然后我尝试用谷歌搜索和 YouTube 来解决这个问题,但据我所知,没有人真正知道所有不同的细粒度权限的作用(YouTube 用户只是掩盖了这一点)。而且官方文档对此也难以理解。
有人可以为此提供解决方案吗?
我试图理解别人的简单张量流模型,他们使用contrib.layers.linear.
但是我无法在任何地方找到任何相关信息,而且在tensorflow文档中没有提到.
我正在尝试在Mllib中迈出第一步。我的库依赖项是:
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.2.0"
libraryDependencies += "com.github.fommil.netlib" % "all" % "1.1.2"
Run Code Online (Sandbox Code Playgroud)
但我仍然得到:
Error:(4, 27) object ml is not a member of package org.apache.spark
import org.apache.spark.ml.regression.GeneralizedLinearRegression
Run Code Online (Sandbox Code Playgroud) 我有以下代码:
# Get the min and max dates
minDate, maxDate = df2.select(f.min("MonthlyTransactionDate"), f.max("MonthlyTransactionDate")).first()
d = pd.date_range(start=minDate, end=maxDate, freq='MS')
tmp = pd.Series(d)
df3 = spark.createDataFrame(tmp)
Run Code Online (Sandbox Code Playgroud)
我已经检查了 tmp 和 a 我有一个日期列表的 pandas 数据框。然后我检查 df3 但看起来 lit 只是一个空列表:
++
||
++
||
||
||
||
||
||
||
||
Run Code Online (Sandbox Code Playgroud)
发生了什么?
如果您想了解如何将 SQL Server 数据转换为 JSON 并将其放入文本 .json 文件中,则应该阅读此内容:
问题:
有人能告诉我这段代码有什么问题吗?我的目标是从 SQL Server 表中读取数据,将其转换为 JSON,然后将结果保存为 JSON 文本文件。代码运行但生成的.json文件只有:
{
"FieldCount": 11
},
{
Run Code Online (Sandbox Code Playgroud)
一遍又一遍地重复,仅此而已。
我的代码:
$instance = "localhost\SQLEXPRESS"
$connectionString = "Server=$Instance; Database=myDB;Integrated Security=True;"
$query = "Select * from myTable"
$connection = New-Object System.Data.SqlClient.SqlConnection
$connection.ConnectionString = $connectionString
$connection.Open()
$command = $connection.CreateCommand()
$command.CommandText = $query
$result = $command.ExecuteReader()
$result | ConvertTo-Json | Out-File "file.json"
$connection.Close()
Run Code Online (Sandbox Code Playgroud)
更新:
将奖励 postanote 的答案,因为从技术上讲,他/她回答了我原来的问题(尽管我会警告并说我还没有尝试过)。
不过,我会推荐 Mike 的答案或我最终使用 BCP 的答案:
bcp "select * from myTable FOR …Run Code Online (Sandbox Code Playgroud) 因此,我试图做一个好人,并重写一下:
df1["Cum Correct"] = df1.groupby(level=0)["Correct"].cumsum()
Run Code Online (Sandbox Code Playgroud)
这会触发过度热情的SettingWithCopyWarning:
tmp={'Cum Correct': df1.groupby(level=0)["Correct"].cumsum()}
df1= df1.assign(tmp)
Run Code Online (Sandbox Code Playgroud)
根据我使用assign阅读的内容,是正确的方法。但这给了我错误:
TypeError: assign() takes 1 positional argument but 2 were given
Run Code Online (Sandbox Code Playgroud) apache-spark ×3
pandas ×3
python-3.x ×2
sql ×2
anaconda ×1
conda ×1
csv ×1
data-mapping ×1
firebase ×1
flask ×1
github ×1
json ×1
path ×1
powershell ×1
pyspark ×1
python ×1
sbt ×1
scikit-learn ×1
spacy ×1
sql-server ×1
sqlite ×1
tensorflow ×1
ubuntu ×1