Protože není přístupná API údajů EUROSTATU, každý dotaz by měl být vytvořen ručně jsem našel tento obsah A chci to extrahovat do prohledávatelné formátu JSON. V souboru jsou nadpisy kapitol, a každý list má 3 odkazy, Ale jak se mohu připojit odkazy a tituly a oddíly do JSON?
Mám tento základní kód:
PDFFile = open("table_of_contents_en.pdf",'rb')
PDF = PyPDF2.PdfFileReader(PDFFile)
pages = PDF.getNumPages()
key = '/Annots'
uri = '/URI'
ank = '/A'
for page in range(1,2):
print("Current Page: {}".format(page))
pageSliced = PDF.getPage(page)
pageObject = pageSliced.getObject()
if key in pageObject.keys():
ann = pageObject[key]
for a in ann:
u = a.getObject()
if uri in u[ank].keys():
print(u[ank][uri])
A to pro text:
pdfFileObj = open('table_of_contents_en.pdf', 'rb')
pdfReader = PyPDF2.PdfFileReader(pdfFileObj)
print(pdfReader.numPages)
pageObj = pdfReader.getPage(0)
print(pageObj.extractText())
pdfFileObj.close()
a tento ke stažení zipy:
for page in range(1,2):
print("Current Page: {}".format(page))
pageSliced = PDF.getPage(page)
pageObject = pageSliced.getObject()
if key in pageObject.keys():
ann = pageObject[key]
for a in ann:
u = a.getObject()
if uri in u[ank].keys():
print(u[ank][uri])
if str(u[ank].keys()).find(".tsv.gz") != -1 :
url = str(u[ank].keys())
r = requests.get(url, allow_redirects=True)
print(str(str(str(u[ank].keys()).split("/")[-1]).split(".")[0])
open(str(str(str(u[ank].keys()).split("/")[-1]).split(".")[0]), 'wb').write(r.content)
Ale jak to udělat ve stejnou dobu správně, v některých strukturovaných dat?