Для работы Помочь с написанием ETL под задачу, частично код есть. Задача: Проблема: Большой объём данных, находящийся в PostgreSQL (реляционная СУБД) долго обрабатывается в BI системе (медленное формирование отчёта). Решение: Загрузить данные в ClickHouse (колоночная СУБД). Предполагаемый алгоритм решения: 1. Преобразование набора данных к типам данных используемым в ClickHouse (если нужно) 2. Разделение на партиции 3. Загрузка в СУБД ClickHouse с перезаписью партиций Уже используемые модули для работы СУБД: - sqlalchemy - clickhouse_connect