- 1.
- 2. Програмний код
- 3. Застосування
При розвитку веб-сайту, на якому додана можливість писати коментарі або публікувати статті, в яких дозволена html-верстка, важливий механізм для очищення небажаних html-тегів, зокрема тегів script та style , оскільки шкідливі скрипти на якісному ресурсі точно не повинні бути присутніми. А також добре матиме можливість очищення стилю тексту, особливо якщо ресурс має на увазі одноманітний стиль. Різнобій кричучих шрифтів нікому не потрібен, та й проблем із версткою додає.
Для реалізації подібного механізму я використовую Python пакет Beautiful Soup 4 і нарешті написав один клас, який, по суті, робить все необхідне мені. Видаляє непотрібні теги, додає необхідні класи до тегів, зберігає класи в тегах, якщо при зачистці їх потрібно залишити, це важливо для класів, які додаються ще на етапі написання коментаря, наприклад, при вставці YouTube відео або додаванні програмного коду, коли користувач вибирає, яка саме мова програмування має бути представлена в блоці програмного коду.
Установка BeautifulSoup 4
pip install beautifulsoup4
Програмний код
Даний приклад представлений у вигляді класу, щоб можна було за допомогою успадкування та перевизначення методу очищення формувати необхідну логіку, а сам програмний код модуля для очищення html не перетворювався на колекцію різнорідних функцій, що мало поєднуються.
# -*- coding: utf-8 -*- import re from bs4 import BeautifulSoup from YourDjangoApp import settings class ESoup: # инициализация объекта очистки текста, # может использовать сразу получать допололнительные теги для удаления, чтобы не переопределять класс def __init__(self, text, tags_for_extracting=()): self.soup = BeautifulSoup(text, "lxml") if text else None self.tags_for_extracting = ('script', 'style',) + tags_for_extracting # Метод для удаления указанных тегов def __extract_tags(self, soup, tags=()): for tag in tags: for current_tag in soup.find_all(tag): current_tag.extract() return soup # Метод для удаления атрибутов у всех тегов def __remove_attrs(self, soup): for tag in soup.find_all(True): tag.attrs = {} return soup # Метод для удаления атрибутов у всех тегов кроме перечисленных в whitelist_tags def __remove_all_attrs_except(self, soup, whitelist_tags=()): for tag in soup.find_all(True): if tag.name not in whitelist_tags: tag.attrs = {} return soup # Удаление всех атрибутов у всех тегов, кроме перечисленных в whitelist_tags # Если тег есть в whitelist_tags у него будут удалены только те атрибуты, которые не перечислены в whitelist_attrs # Также данный метод сохраняет у тега классы, перечисленные в whitelist_classes # независимо от того, был ли он перечислен в whitelist_tags или в whitelist_attrs. # Просто у меня у классов особое положение для тегов def __remove_all_attrs_except_saving(self, soup, whitelist_tags=(), whitelist_attrs=(), whitelist_classes=()): for tag in soup.find_all(True): saved_classes = [] if tag.has_attr('class'): classes = tag['class'] for class_str in whitelist_classes: if class_str in classes: saved_classes.append(class_str) if tag.name not in whitelist_tags: tag.attrs = {} else: attrs = dict(tag.attrs) for attr in attrs: if attr not in whitelist_attrs: del tag.attrs[attr] if len(saved_classes) > 0: tag['class'] = ' '.join(saved_classes) return soup # Добавляет nofollow отношение в теге, проверяя url атрибута src или img # Если ссылка ведёт на внутренние страницы вашего сайта, то nofollow не будет добавлено def __add_rel_attr(self, soup, tag, attr): for tag in soup.find_all(tag): attr_content = tag.get(attr) if not attr_content.startswith(settings.SITE_URL) and not attr_content.startswith('/'): tag['rel'] = ['nofollow'] return soup # Добавляет новые классы к тегу, сохраняя те классы, которые уже существовали def __add_class_attr(self, soup, tag, classes=()): for tag in soup.find_all(tag): saved_classes = [] if tag.has_attr('class'): saved_classes.append(tag['class']) saved_classes.extend(list(classes)) tag['class'] = ' '.join(saved_classes) return soup # Метод, выполняющий очистку, его предлагаю переопределять, если вам нужно изменить логику очистки html кода def clean(self): # BeutifulSoup был создан при инициализации, то можно выполнить очистку if self.soup: # Удаляем все теги, которые нам не нравятся soup = self.__extract_tags(soup=self.soup, tags=self.tags_for_extracting) # Удаляем все атрибуты у всех тегов, кроме # src и href у тегов img и a, # а также оставляем класс prettyprint soup = self.__remove_all_attrs_except_saving( soup=soup, whitelist_tags=('img', 'a'), whitelist_attrs=('src', 'href',), whitelist_classes=('prettyprint',) ) # добавляем rel="nofollow" для внешних ссылок soup = self.__add_rel_attr(soup=soup, tag='a', attr='href') soup = self.__add_rel_attr(soup=soup, tag='img', attr='src') # улучшаем внешний вид изображений с помощью класса img-fluid soup = self.__add_class_attr(soup=soup, tag='img', classes=('img-fluid',)) # добавляем класс linenums для pre тегов soup = self.__add_class_attr(soup=soup, tag='pre', classes=('linenums',)) # возвращаем полезный контент, дело в том, что BeautifulSoup 4 добавляет ещё теги html и body, # которые мне, например, не нужны return re.sub('<body>|</body>', '', soup.body.prettify()) return '' # Статический метод класса, что-то вроде Shortcuta @staticmethod def clean_text(text, tags_for_extracting=()): soup = ESoup(text=text, tags_for_extracting=tags_for_extracting) return soup.clean()
Застосування
Або так
soup = ESoup(text=text, tags_for_extracting=tags_for_extracting) soup.clean()
Або так
ESoup.clean_text(text=text, tags_for_extracting=tags_for_extracting)
я думаю, что последний
есть смысл заменить на classmethod (при наследовании, старый вариант сломается, а с классом - нет):
Спасибо за информацию, не думал об этом.
Надо будет проверить на кошках.