Jua*_*ith 5 python azure-data-lake
我已将一个excel文件导入到pandas数据框中,并已完成数据浏览和清理过程。
我现在想将已清理的数据帧写到csv文件中,再回到Azure DataLake,而不必先将其保存为本地文件。我正在使用熊猫3。
我的代码如下所示:
token = lib.auth(tenant_id = '',
client_secret ='',
client_id = '')
adl = core.AzureDLFileSystem(token, store_name)
with adl.open(path='Raw/Gold/Myfile.csv', mode='wb') as f:
**in_xls.to_csv(f, encoding='utf-8')**
f.close()
Run Code Online (Sandbox Code Playgroud)
我在粗体语句中得到以下转储。
TypeError:需要一个类似字节的对象,而不是'str'
我也尝试过但没有运气
with adl.open(path='Raw/Gold/Myfile.csv', mode='wb') as f:
with io.BytesIO(in_xls) as byte_buf:
byte_buf.to_csv(f, encoding='utf-8')
f.close()
Run Code Online (Sandbox Code Playgroud)
我收到以下错误:
TypeError:需要一个类似字节的对象,而不是“ DataFrame”
任何想法/技巧将不胜感激
小智 5
前几天,我使用python 3.x在熊猫上工作。此代码在本地计算机上运行,并连接到云中的Azure数据存储。
假设df是熊猫数据框,则可以使用以下代码:
adl = core.AzureDLFileSystem(token, store_name='YOUR_ADLS_STORE_NAME')
#toke is your login token that was created by whatever ADLS login method you decided.
#Personally I use the ServiceProvider login
df_str = df.to_csv()
with adl.open('/path/to/file/on/adls/newfile.csv', 'wb') as f:
f.write(str.encode(df_str))
f.close()
Run Code Online (Sandbox Code Playgroud)
该键将数据帧转换为字符串,而不是使用str.encode()函数。
希望这可以帮助。