Evgenii Legotckoi
24 октября 2018 г. 12:38

Django - Урок 038. Использование BeatifulSoup 4 для очистки публикуемого контента от нежелательных html тегов

При развитии веб-сайта, на котором добавлена возможность писать комментарии или публиковать статьи, в которых разрешена html-вёрстка , важен механизм для очистки нежелательных html-тегов, в частности тегов script и style , поскольку вредоносные скрипты на качественном ресурсе точно не должны присутствовать. А также хорошо будет иметь возможность очистки стиля текста, особенно, если ресурс подразумевает единообразный стиль. Разнобой кричащих шрифтов никому не нужен, да и проблем с вёрсткой добавляет.

Для реализации подобного механизма я использую Python пакет Beautiful Soup 4 и наконец-то написал один класс, который по сути делает всё необходимое мне. Удаляет ненужные теги, добавляет необходимые классы к тегам, сохраняет классы в тегах, если при зачистке их нужно оставить, это важно для классов, которые добавляются ещё на этапе написания комментария, например, при вставке YouTube видео или добавлении программного кода, когда пользователь выбирает, какой именно язык программирования должен быть представлен в блоке программного кода.


Установка BeautifulSoup 4

  1. pip install beautifulsoup4

Программный код

Данный пример представлен в виде класса, чтобы можно было с помощью наследования и переопределения метода очистки формировать необходимую логику, а сам программный код модуля для очистки html не превращался в коллекцию разнородных малосочитающихся функций.

  1. # -*- coding: utf-8 -*-
  2.  
  3. import re
  4.  
  5. from bs4 import BeautifulSoup
  6. from YourDjangoApp import settings
  7.  
  8.  
  9. class ESoup:
  10. # инициализация объекта очистки текста,
  11. # может использовать сразу получать допололнительные теги для удаления, чтобы не переопределять класс
  12. def __init__(self, text, tags_for_extracting=()):
  13. self.soup = BeautifulSoup(text, "lxml") if text else None
  14. self.tags_for_extracting = ('script', 'style',) + tags_for_extracting
  15.  
  16. # Метод для удаления указанных тегов
  17. def __extract_tags(self, soup, tags=()):
  18. for tag in tags:
  19. for current_tag in soup.find_all(tag):
  20. current_tag.extract()
  21. return soup
  22.  
  23. # Метод для удаления атрибутов у всех тегов
  24. def __remove_attrs(self, soup):
  25. for tag in soup.find_all(True):
  26. tag.attrs = {}
  27. return soup
  28.  
  29. # Метод для удаления атрибутов у всех тегов кроме перечисленных в whitelist_tags
  30. def __remove_all_attrs_except(self, soup, whitelist_tags=()):
  31. for tag in soup.find_all(True):
  32. if tag.name not in whitelist_tags:
  33. tag.attrs = {}
  34. return soup
  35.  
  36. # Удаление всех атрибутов у всех тегов, кроме перечисленных в whitelist_tags
  37. # Если тег есть в whitelist_tags у него будут удалены только те атрибуты, которые не перечислены в whitelist_attrs
  38. # Также данный метод сохраняет у тега классы, перечисленные в whitelist_classes
  39. # независимо от того, был ли он перечислен в whitelist_tags или в whitelist_attrs.
  40. # Просто у меня у классов особое положение для тегов
  41. def __remove_all_attrs_except_saving(self, soup, whitelist_tags=(), whitelist_attrs=(), whitelist_classes=()):
  42. for tag in soup.find_all(True):
  43. saved_classes = []
  44. if tag.has_attr('class'):
  45. classes = tag['class']
  46. for class_str in whitelist_classes:
  47. if class_str in classes:
  48. saved_classes.append(class_str)
  49.  
  50. if tag.name not in whitelist_tags:
  51. tag.attrs = {}
  52. else:
  53. attrs = dict(tag.attrs)
  54. for attr in attrs:
  55. if attr not in whitelist_attrs:
  56. del tag.attrs[attr]
  57.  
  58. if len(saved_classes) > 0:
  59. tag['class'] = ' '.join(saved_classes)
  60.  
  61. return soup
  62.  
  63. # Добавляет nofollow отношение в теге, проверяя url атрибута src или img
  64. # Если ссылка ведёт на внутренние страницы вашего сайта, то nofollow не будет добавлено
  65. def __add_rel_attr(self, soup, tag, attr):
  66. for tag in soup.find_all(tag):
  67. attr_content = tag.get(attr)
  68. if not attr_content.startswith(settings.SITE_URL) and not attr_content.startswith('/'):
  69. tag['rel'] = ['nofollow']
  70. return soup
  71.  
  72. # Добавляет новые классы к тегу, сохраняя те классы, которые уже существовали
  73. def __add_class_attr(self, soup, tag, classes=()):
  74. for tag in soup.find_all(tag):
  75. saved_classes = []
  76. if tag.has_attr('class'):
  77. saved_classes.append(tag['class'])
  78. saved_classes.extend(list(classes))
  79. tag['class'] = ' '.join(saved_classes)
  80. return soup
  81.  
  82. # Метод, выполняющий очистку, его предлагаю переопределять, если вам нужно изменить логику очистки html кода
  83. def clean(self):
  84. # BeutifulSoup был создан при инициализации, то можно выполнить очистку
  85. if self.soup:
  86. # Удаляем все теги, которые нам не нравятся
  87. soup = self.__extract_tags(soup=self.soup, tags=self.tags_for_extracting)
  88. # Удаляем все атрибуты у всех тегов, кроме
  89. # src и href у тегов img и a,
  90. # а также оставляем класс prettyprint
  91. soup = self.__remove_all_attrs_except_saving(
  92. soup=soup,
  93. whitelist_tags=('img', 'a'),
  94. whitelist_attrs=('src', 'href',),
  95. whitelist_classes=('prettyprint',)
  96. )
  97. # добавляем rel="nofollow" для внешних ссылок
  98. soup = self.__add_rel_attr(soup=soup, tag='a', attr='href')
  99. soup = self.__add_rel_attr(soup=soup, tag='img', attr='src')
  100. # улучшаем внешний вид изображений с помощью класса img-fluid
  101. soup = self.__add_class_attr(soup=soup, tag='img', classes=('img-fluid',))
  102. # добавляем класс linenums для pre тегов
  103. soup = self.__add_class_attr(soup=soup, tag='pre', classes=('linenums',))
  104. # возвращаем полезный контент, дело в том, что BeautifulSoup 4 добавляет ещё теги html и body,
  105. # которые мне, например, не нужны
  106. return re.sub('<body>|</body>', '', soup.body.prettify())
  107. return ''
  108.  
  109. # Статический метод класса, что-то вроде Shortcuta
  110. @staticmethod
  111. def clean_text(text, tags_for_extracting=()):
  112. soup = ESoup(text=text, tags_for_extracting=tags_for_extracting)
  113. return soup.clean()

Применение

Или так

  1. soup = ESoup(text=text, tags_for_extracting=tags_for_extracting)
  2. soup.clean()

Или так

  1. ESoup.clean_text(text=text, tags_for_extracting=tags_for_extracting)

Рекомендуемые статьи по этой тематике

По статье задано0вопрос(ов)

2

Вам это нравится? Поделитесь в социальных сетях!

Илья Чичак
  • 5 декабря 2018 г. 8:37

я думаю, что последний


  1. @staticmethod
  2. def clean_text(text, tags_for_extracting=()):
  3. soup = ESoup(text=text, tags_for_extracting=tags_for_extracting)
  4. return soup.clean()

есть смысл заменить на classmethod (при наследовании, старый вариант сломается, а с классом - нет):

  1. @classmethod
  2. def clean_text(cls, text, tags_for_extracting=()):
  3. soup = cls(text=text, tags_for_extracting=tags_for_extracting)
  4. return soup.clean()
Evgenii Legotckoi
  • 5 декабря 2018 г. 15:34

Спасибо за информацию, не думал об этом.

Надо будет проверить на кошках.

Комментарии

Только авторизованные пользователи могут публиковать комментарии.
Пожалуйста, авторизуйтесь или зарегистрируйтесь