Snažím sa čítať malý súbor txt, ktorý je pridaný ako tabuľku na predvolené db na Databricks. Zatiaľ čo sa snaží čítať súbor cez Local File API, dostanem FileNotFoundError
,, ale ja som schopný prečítať istého súboru ako Iskra RDD pomocou SparkContext.
Nájdete nižšie uvedený kód:
with open("/FileStore/tables/boringwords.txt", "r") as f_read:
for line in f_read:
print(line)
To dáva mi chybu:
FileNotFoundError Traceback (most recent call last)
<command-2618449717515592> in <module>
----> 1 with open("dbfs:/FileStore/tables/boringwords.txt", "r") as f_read:
2 for line in f_read:
3 print(line)
FileNotFoundError: [Errno 2] No such file or directory: 'dbfs:/FileStore/tables/boringwords.txt'
Kde, ako, nemám problém čítanie súboru pomocou SparkContext:
boring_words = sc.textFile("/FileStore/tables/boringwords.txt")
set(i.strip() for i in boring_words.collect())
A tak, ako sa očakáva, dostanem výsledok pre vyššie blok kód:
Out[4]: {'mad',
'mobile',
'filename',
'circle',
'cookies',
'immigration',
'anticipated',
'editorials',
'review'}
Bol som aj s odkazom na DBFS dokumentácia tu, aby pochopili Local File API obmedzenia, ale žiadne olovo na problém. Akákoľvek pomoc bude s vďačnosťou prijatá. Vďaka!