小编war*_*m06的帖子

是否可以在 Windows 10 git-bash 中使用 fzf(命令行模糊查找器)?

我下载了 .exe 文件并将其放入我的 PATH 变量中。fzf似乎在命令提示符下工作。但我想在 git-bash 中使用它。当我fzf在 git-bash 中使用时,它似乎开始了,但没有任何反应。

任何意见将是有益的。我试图为自己节省一些按键。

windows bash fuzzy-search git-bash fzf

8
推荐指数
1
解决办法
2729
查看次数

密码更改后 Azure ChainedTokenCredential 失败

密码更改后, AzureChainedTokenCredential无法进行本地开发。我已经使用了ChainedTokenCredential几周来ManagedIdentityCredential在 Azure 中进行身份验证以及DefaultAzureCredential对我的函数应用程序进行本地测试。一切都按计划进行。下面是一个代码示例,该代码示例在 Azure 中一直有效,但在本地却无效。

def get_client():

    MSI_credential = ManagedIdentityCredential()
    default_credential = DefaultAzureCredential()
    credential_chain = ChainedTokenCredential(MSI_credential, default_credential)

    storageurl = os.environ["STORAGE_ACCOUNT"]

    client = BlobServiceClient(storageurl, credential=credential_chain)
    return client
Run Code Online (Sandbox Code Playgroud)

上周我不得不更改密码,从那时起我收到以下错误。

[2021-04-19T15:18:06.931Z] SharedTokenCacheCredential.get_token failed: Azure Active Directory error '(invalid_grant) AADSTS50173: The provided grant has expired due to it being revoked, a fresh auth token is needed. The user might have changed or reset their password. The grant was issued on '2021-02-08T20:05:01.4240000Z' and the TokensValidFrom date …
Run Code Online (Sandbox Code Playgroud)

python azure visual-studio-code azure-identity

8
推荐指数
1
解决办法
1万
查看次数

Bash 错误:卸载 Anaconda 后没有此类文件或目录

卸载 Anaconda 后,每次打开提示时,我都会在 Git Bash 中收到“没有此类文件或目录”错误。我使用的是 Windows 10 Git Bash。

我查看了所有 PATH 变量,没有一个引用 Anaconda。我还搜索了所有关联的 bash 文件,看看它们是否在启动时调用该文件。我没有看到任何使用 VSCode“在文件中查找”的内容。

bash: /c/Users/eme/AppData/Local/Continuum/anaconda3/Scripts/conda.exe: No such 
file or directory

EME@PF166XR4 MINGW64 ~/Desktop
$
Run Code Online (Sandbox Code Playgroud)

看来 bash 正在寻找这个文件(我故意删除了它),但我找不到哪个文件正在调用它。任何帮助,将不胜感激。

git-bash anaconda windows-10

6
推荐指数
2
解决办法
4871
查看次数

如何分组两个字段并将索引设置为两个字段之一。熊猫,Python-3

我是 Stack Overflow 的新手,因此也欢迎任何社区最佳实践。

#aggregate rides and average of fares
combo_grouped_df =combo_df.groupby(['city','type'])
#combo_grouped_df.set_index('city') does not work! 

combo_grouped_df.head()

avg_fare =combo_grouped_df['fare'].mean()
total_rides =combo_grouped_df['ride_id'].count()
city_type = combo_grouped_df['type']

summary_df = pd.DataFrame({"Average Fare": avg_fare,
                        "Number of Rides": total_rides,
                        "Type": combo_grouped_df['type']}) # how to get type in this dict?????
summary_df.head()}
Run Code Online (Sandbox Code Playgroud)

结果是:

                        Average Fare  Number of Rides  \
city          type                                      
Amandaburgh   Urban        24.641667               18   
Barajasview   Urban        25.332273               22   
Barronchester Suburban     36.422500               16   
Bethanyland   Suburban     32.956111               18   
Bradshawfurt  Rural        40.064000               10   

                                                                     Type  
city          type                                                         
Amandaburgh   Urban     ((Amandaburgh, Urban), …
Run Code Online (Sandbox Code Playgroud)

python group-by python-3.x pandas

5
推荐指数
1
解决办法
398
查看次数

如何更新 PySpark 中的 pyspark.sql.Row 对象?

如何更新pyspark.sql.Row对象中的值?

from pyspark.sql import Row

Record = Row('first','last')
start_row = Record('james','smith')
print(f"Sarting Row Object: {start_row}")
updated_row = start_row.first = 'john'
Run Code Online (Sandbox Code Playgroud)

给出一个例外:

Exception                                 Traceback (most recent call last)
<command-4099832519586966> in <module>
      4 start_row = Record('james','smith')
      5 print(f"Sarting Row Object: {start_row}")
----> 6 updated_row = start_row.first = 'john'


/databricks/spark/python/pyspark/sql/types.py in __setattr__(self, key, value)
   1578     def __setattr__(self, key, value):
   1579         if key != '__fields__':
-> 1580             raise Exception("Row is read-only")
   1581         self.__dict__[key] = value
   1582 

Exception: Row is read-only
Run Code Online (Sandbox Code Playgroud)

我理解Row …

python apache-spark pyspark

2
推荐指数
1
解决办法
2578
查看次数