Парсер не сохраняет результат в CSV - Python

Узнай цену своей работы

Формулировка задачи:

Написал простенький парсер для сайта invest***.com, для экономического календаря. Проблема в том, что в файл сохраняется только 35 строка, а 36-ая уже игнорируется, не могу понять почему. Я что-то не так делаю?
Листинг программы
  1. # -*- coding: utf-8 -*-
  2. import csv
  3. import urllib.request
  4. from bs4 import BeautifulSoup
  5. BASE_URL = 'https://ru.investing.com/economic-calendar/'
  6. REQ = urllib.request.Request(BASE_URL, headers={'User-Agent':"Magic Browser"})
  7. def get_html(url):
  8. response = urllib.request.urlopen(REQ)
  9. return response.read()
  10. def parse(html):
  11. soup = BeautifulSoup(html)
  12. table = soup.find('table', class_='genTbl closedTbl ecoCalTbl persistArea')
  13. rows = table.find_all('tr')[1:]
  14. projects = []
  15. for row in rows:
  16. cols = row.find_all('td')
  17. projects.append({
  18. 'time': [time.text for time in row.find_all('td')[:-7]],
  19. 'valute': [valute.text.strip() for valute in row.find_all('td')[1:-6]],
  20. 'volatile': [volatile['title'] for volatile in row.find_all(title=True)[2:-3]],
  21. 'title': [title.text.strip() for title in row.find_all('td')[3:-4]]
  22. })
  23. return projects
  24. def save(projects, path):
  25. with open(path, 'w') as csvfile:
  26. writer = csv.writer(csvfile)
  27. writer.writerow(('Time', 'Valute', 'Volatile', 'Title'))
  28. writer.writerows((project['time'], ', '.join(project['valute']), project['volatile'], project['title']) for project in projects)
  29. def main():
  30. projects = []
  31. parse(get_html(REQ))
  32. save(projects, 'projects.csv')
  33. if __name__ == '__main__':
  34. main()

Решение задачи: «Парсер не сохраняет результат в CSV»

textual
Листинг программы
  1. # -*- coding: utf-8 -*-
  2.  
  3. import csv
  4. import urllib.request
  5. from bs4 import BeautifulSoup
  6.  
  7. BASE_URL = 'https://ru.investing.com/economic-calendar/'
  8. REQ = urllib.request.Request(BASE_URL, headers={'User-Agent': "Magic Browser"})
  9.  
  10.  
  11. def get_html():
  12.     response = urllib.request.urlopen(REQ)
  13.     return response.read()
  14.  
  15.  
  16. def parse(html):
  17.     soup = BeautifulSoup(html, "html.parser")
  18.     table = soup.find('table', class_='genTbl closedTbl ecoCalTbl persistArea')
  19.     rows = table.findAll('tr', id=lambda i: i and i.startswith('eventRowId_'))
  20.  
  21.     projects = []
  22.     for row in rows:
  23.         projects.append({
  24.             'Time': row.find('td', class_='first').text,
  25.             'Valute': row.find('td', class_='flagCur').text.strip(),
  26.             'Volatile': row.find('td', class_='sentiment').get('title') or row.find('td', class_='sentiment').text,
  27.             'Title': row.find('td', class_='event').text.strip()
  28.         })
  29.     return projects
  30.  
  31.  
  32. def save(projects, path):
  33.     with open(path, 'w') as csvfile:
  34.         writer = csv.DictWriter(csvfile, fieldnames=['Time', 'Valute', 'Volatile', 'Title'])
  35.         writer.writeheader()
  36.         writer.writerows(projects)
  37.  
  38.  
  39. def main():
  40.     projects = parse(get_html())
  41.     save(projects, 'projects.csv')
  42.  
  43.  
  44. if __name__ == '__main__':
  45.     main()

ИИ поможет Вам:


  • решить любую задачу по программированию
  • объяснить код
  • расставить комментарии в коде
  • и т.д
Попробуйте бесплатно

Оцени полезность:

6   голосов , оценка 4 из 5

Нужна аналогичная работа?

Оформи быстрый заказ и узнай стоимость

Бесплатно
Оформите заказ и авторы начнут откликаться уже через 10 минут