Snažím se číst malý txt soubor, který je přidána jako stole v výchozí db na Databricks. Při pokusu o čtení souboru pomocí Místního Souboru API, dostanu FileNotFoundError
, ale jsem schopen číst stejný soubor jako Jiskra RDD pomocí SparkContext.
Prosím, najít kód níže:
with open("/FileStore/tables/boringwords.txt", "r") as f_read:
for line in f_read:
print(line)
To mi dává chybu:
FileNotFoundError Traceback (most recent call last)
<command-2618449717515592> in <module>
----> 1 with open("dbfs:/FileStore/tables/boringwords.txt", "r") as f_read:
2 for line in f_read:
3 print(line)
FileNotFoundError: [Errno 2] No such file or directory: 'dbfs:/FileStore/tables/boringwords.txt'
Kde, jak, nemám problém při čtení souboru pomocí SparkContext:
boring_words = sc.textFile("/FileStore/tables/boringwords.txt")
set(i.strip() for i in boring_words.collect())
A jak se dalo očekávat, jsem si výsledek pro výše uvedený blok kódu:
Out[4]: {'mad',
'mobile',
'filename',
'circle',
'cookies',
'immigration',
'anticipated',
'editorials',
'review'}
Byl jsem také s odkazem na DBFS dokumentace zde pochopit Místní Soubor API omezení, ale ne vést o této otázce. Jakýkoliv pomoci chtěl bych být ocenil. Díky!!!