Доработка существующего продукта. Кластерный анализ для выбора локаций под офисы банка(пишу курсовую работу) Цель — выявить наиболее привлекательные локации для открытия новых офисов банка с помощью кластерного анализа методом K-Means 1. Подготовка данных Очистить данные от выбросов (используя статистические методы: z-оценка, межквартильный размах). Обработать пропущенные значения: указать долю пропусков по каждому признаку, использовать метод заполнения на усмотрение исполнителя с обоснованием 2. Кластеризация (метод K-Means) Подобрать оптимальное количество кластеров (использовать метод «локтя»). Опционально — сравнить качество кластеризации при различных вариантах набора переменных 3. Анализ кластеров Вычислить средние значения ключевых показателей по каждому кластеру. Представить результат в табличном виде. Дать краткую интерпретацию каждого кластера 4. Проверка устойчивости кластеров 5. Визуализация топ-локаций В каждом кластере выбрать 3–5 наиболее перспективных локаций по внутренним метрикам (плотность населения, средний доход и пр.). Отобразить выбранные точки на карте Санкт-Петербурга (с названием адреса) 6. Финальный отчет Кратко описать проделанные шаги и основные выводы по кластерам в формате текста или голосового сообщения. Передать код на Python, визуализации.
Доработка существующего продукта. 🔍 Что нужно сделать: На основе описания товара (например: "диван, серый, кожаный, минимализм") выполнить поиск аналогов. Интегрировать один или несколько источников: API маркетплейсов (eBay, Яндекс.Маркет и др.) AI-сервисы по поиску товаров по описанию/изображению Парсинг сайтов (AliExpress, Wildberries и др., если нет API) Вернуть результат в виде списка карточек товаров: Фото Название Цена Ссылка Магазин Обеспечить интеграцию с UI (JSON-ответ, пример будет предоставлен).
работа с информацией в excel. Тщательная сверка данных: Выявление и исправление расхождений, ошибок ввода, дубликатов, несоответствий форматов в крупных массивах данных. Глубокий анализ на корректность: Проверка логики формул, корректности ссылок, работы макросов (если используются), достоверности расчетов. Контроль целостности данных: Обеспечение полноты наборов данных, проверка связей между таблицами/листами, соответствия данных исходным источникам или ТЗ. Формирование отчетов об ошибках: Документирование найденных несоответствий с четким описанием проблемы и рекомендациями по исправлению. Работа с формулами и функциями: Понимание и проверка сложных формул (ВПР/XLOOKUP, СУММЕСЛИ/SUMIFS, ЕСЛИ/IF, индекс/позиция и т.д.), сводных таблиц. Структурирование данных: Приведение данных к единому формату для облегчения последующего анализа и проверки. требуются с опытом и без!.
Доработка существующего продукта. Я пытаюсь разобраться как в Catboost Classifier считается скор фичи выводимый. Его реализация не соответствует документации, любые попытки через открытый код github разобраться в том как он считается также ни к чему не привели. Требуется скомпилировать свою версию кэтбуста где можно было бы использую print вывести формулу скора и проверить что она соответствует тому что выводится в логе на скриншоте. Разработчики кэтбуста снабдили меня презентацией как это делается, прикладываю её к заказу.
Data Science. Разработка с нуля. Пожелания и особенности: Нужна программа по учету продукции, динамике продаж и хранению. Типа СRM в экселе. Аналог отчета из 1С - анализ продаж , склад и т.п. если есть возможность сделать программу которая бы могла взаимодействовать с озоном и ВБ автоматическом режиме…по деньгам договоримся.
Data Science. Настройка, доработка существующего продукта. Настроить формулу в гугл таблицах расчета количества рабочих дней учитывая: 1) график работы 5/2, 7/0, 6/1, 2/2 2) праздничные дни 3) год не только 2025, но и последующие 4) праздничные дни всё равно рабочие.
Data Science. Разработка с нуля. Техническое задание на разработку сервиса распознавания изображений с заполнением Excel-таблицы 1. Цель проекта Разработать веб-сервис, который позволяет пользователям загружать изображения, выполнять распознавание содержимого с помощью искусственного интеллекта (ИИ), и автоматически заполнять структурированную таблицу Excel на основе распознанных данных. 2. Основные функции 2.1. Интерфейс пользователя Загрузка одного или нескольких изображений (JPEG, PNG, HEIC, др.). Просмотр статуса обработки каждого изображения. Скачивание готового Excel-файла с результатами. 2.2. Обработка изображений Предобработка изображений: поворот, обрезка, повышение контрастности (при необходимости). Использование модели компьютерного зрения (например, OCR с поддержкой layout-анализов или object detection, в зависимости от задачи). Распознавание следующей информации (в зависимости от типа изображений): Текст (например, с документов, чеков, актов). Табличные данные. Объекты и их количественные характеристики (например, номер, дата, наименование, цена, количество, и т.п.). 2.3. Генерация Excel-файла Создание и сохранение Excel-файла по шаблону. Структура таблицы зависит от типа данных (обсуждается отдельно). Возможность выгрузки данных в формате .xlsx. 3. Требования к системе 3.1. Технологический стек (предлагаемый) Backend: Python (FastAPI / Flask) Модель ИИ: Tesseract OCR / LayoutLM / YOLO / custom model (в зависимости от специфики) Excel: openpyxl или pandas + xlsxwriter Frontend: React / Vue (или минимальный HTML+JS интерфейс) Хранение: локальное или S3/облако (по задаче) Docker для упаковки 3.2. Производительность Обработка одного изображения — не более 5 секунд. Поддержка пакетной обработки до 20 изображений за одну сессию. 3.3. Масштабируемость Возможность запуска в облаке (AWS, GCP, Yandex Cloud). Возможность подключения очередей задач (Celery + Redis) при росте нагрузки. 4. Входные и выходные данные 4.1. Входные данные Форматы: .jpg, .png, .bmp, .heic Размер файла: до 10 МБ Кол-во файлов за сессию: до 20 4.2. Выходные данные Excel-файл (.xlsx) Структура таблицы: согласуется по формату исходных изображений. Пример: | № | Дата | Название товара | Кол-во | Цена | Сумма | 5. Безопасность Ограничение по размеру и числу загружаемых файлов. Очистка пользовательских данных после обработки (по истечении сессии). Ограниченный доступ (при необходимости — через регистрацию/авторизацию). 6. Этапы разработки Сбор требований и уточнение типа изображений. Разработка прототипа ИИ-модуля распознавания. Реализация backend-сервиса. Интеграция с Excel. Разработка пользовательского интерфейса. Тестирование. Развертывание и документация. 7. Возможные улучшения (в будущем) Автоматическая классификация типа документов. Обучение кастомной модели на специфических изображениях. Поддержка других форматов (PDF, скан-копии и т.п.). Интеграция с Google Sheets / CRM.
Графики для визуализации результатов проверки гипотез (mosaic plot). НУЖНО СДЕЛАТЬ СЕГОДНЯ ДО 9:00 (Мск) Откликнитесь, пожалуйста:( Задача: Описательные статистики, посчитанные на уже предобработанных данных по ЗП для каждой гипотезы минимум, максимум, размах, среднее, медиана, стандартное отклонение и межквартильный размах, асимметрия и эксцесс интерпретация и выводы из описательных статистик если корреляционный дизайн — описательные статистики по всем переменным, для которых проводится корреляция Описательные визуализации минимум — график плотности вероятности / гистограмма или столбчатая диаграмма для ЗП из каждой гипотезы интерпретация визуализаций Визуализации потенциальных различий и демонстрация ожидаемого эффекта Графики должны быть подходящими для визуализации результатов проверки гипотез: если гипотеза о сравнении средних в разных группах — это боксплот или вайолин плот, или просто точки, обозначающие средние в разных группах (обязательно с «усами» — доверительными интервалами или стандартной ошибкой среднего!) если гипотеза о наличии связи между переменными — это диаграмма рассеяния (scatterplot) с прорисованной линией тренда (особенно в случае регрессионного анализа), возможно также подойдет corrplot или heatmap, а для порядковых переменных или визуализации анализа таблиц сопряженности — мозаичный график (mosaic plot) Интерпретация и пояснения к графикам, что они означают [дополнительно] Черновик статистического анализа: как будет применяться выбранный метод к выбранным данным, какие переменные и колонки и как будут использо.
Data Science. Разработка с нуля, доработка существующего продукта. Пожелания и особенности: Мы типография которая занимается реализацией заказов на вб и авито. Нужно создать базу данных макетов для печати, которые будут сохраняться в бд через бота в тг. Заказу дается имя по системе 06.07 это дата 50/70 это размер картины 88888888 номер сделки в амо срм Пример макета 0607507088888888 Так же нужны будут накладные на этот заказ, которые будут док документом и так же называться как и макет. Вся все эти данные менеджер вписывает в амо и номер сделки так же, уже есть интеграция через апи с Гугл таблицами. Проект почти полностью готов, но нас не устраивает качество и скорость выполнения прошлого подрядчика. Всю систему с тз расскажу и покажу, логика простая, без заковырок. Всем спасибо за отклики.
Разработка с нуля. 1. Цель Определить перспективные товарные ниши на Wildberries с высоким спросом и низкой конкуренцией для успешного запуска продаж. 2. Критерии анализа ниши 2.1. Спрос Объем продаж: среднее количество продаж в месяц (топ-20 товаров ниши). Динамика роста: рост спроса за последние 3–6 месяцев. Сезонность: наличие/отсутствие резких колебаний спроса. 2.2. Конкуренция Количество продавцов: число активных поставщиков в нише. Насыщенность ассортимента: количество товаров в категории. Уровень цен: средний ценовой диапазон (низкий/средний/премиум). Качество конкурентов: наличие крупных брендов, уровень отзывов.
Data Science. Доработка существующего продукта. Есть полуготовая курсовая (готовая база данных для работы, недописанный, но рабочий код python и сырой документ ) надо дописать код (большая часть есть) и улучшить и дописать ворд файл. отправлю файлы при отклике ТЗ по коду: 1)Разбить код на части (сейчас все функции находятся в одном файле) 2)Интегрировать функции для запроса таблиц и кодов регионов в функции 3)Написать функции для отображения таблиц из части работа с бд 4)Добавить в функции редактирования бд вывод таблиц до/после 5)Сделать нормальное меню, как должно выглядеть отправлю.
Перенос информации из одного формата в другой (например, из PDF или изображения в таблицу Excel или Google Sheets). В чем заключаются основные задачи: Перенос информации из одного формата в другой (например, из PDF или изображения в таблицу Excel или Google Sheets). Копирование контактных данных (имена, email, телефоны) с сайтов в таблицу. Заполнение простых форм на основе предоставленных данных. Коррекция мелких ошибок в существующих списках (опечатки в email, номерах телефонов). Сортировка и систематизация простых списков (по алфавиту, дате, категории).
Доработка существующего продукта. Требуется внимательный и ответственный удаленный специалист (с опытом и без) для проверки, анализа и верификации данных в таблицах Microsoft Excel. Ваша основная задача – обеспечить абсолютную точность и целостность информации, работа не сложная, такую обычно выполняют за 1.5 - 2 часа.
аналитические данные. Нужна аналитика по застройщикам Крыма - преимущественно Евпатория -Аналитика должна содержит основные пункты- Застройщик,срок сдач, строительная готовность,срок сдачи,цена 1 ком кв 2 ком с площадью - цена м2, объем продаж за предыдущий год с ценами по которым было продано.
Data Science. Разработка с нуля, доработка существующего продукта. Есть массив данных с объявлениями о продаже и аренде недвижимости. Нужно быстро проверить снято или нет объявление с публикации. площадки две - Циан и Домклик.
Доработка существующего продукта. Пожелания и особенности: Пишу диплом по применению нейронных сетей в физике Появились сложности с самостоятельной реализацией Нужна помощь с кодом.
Data Science. Разработка с нуля. Итого нужно: - Доработать имеющийся sql-запрос, чтобы он забирал ещё и данные из другой таблицы. - сделать выгрузку результата запроса в csv-файл - далее в питоне построить график зависимости ,,скорости’’ курьера от его количества заказов. - рассчитать кривую, которая наиболле точно подходит описывает зависимость - провести кластерный анализ на наличие типов курьеров: новичок, обычный, опытный. - если кластера существуют, описать, как они различаются и как отнести конкретного курьера к одному из кластеров.
Data Science. Тестирование. Пожелания и особенности: Проведение пентеста и анализ учзвимости на проникновение в компьютер, установка несанкционированных утилит.
Разработка с нуля. Разработка базы данных на тему:Оценка показателей sad_ 0, dad_ 0, HR_0 y пациентов с сахарным диабетом 2 типа после терапии по группам 1 и 2.
Почему стоит искать работу для фриласнеров по профилю data scientist в России у нас?
🔸 Более 2 предложений о работе за сегодня в тематике data scientist
🔸 Работа и подработка на бирже фриланса от прямых заказчиков, которым нужна помощь специалистов по профилю data scientist уже сегодня!
🔸 Свежих заказов на data scientist в России для фрилансеров на апрель 2026 года — 134 шт.
Как найти удалённую работу для фриланс-специалистов по профилю data scientist в России?
Вы специалист по data scientist и ищете проекты и заказы на удалёнке в России? Нам всегда есть что вам предложить. Ежедневно мы публикуем новые проекты и заказы по вашей специальности. Найдите интересную работу уже сегодня
Сколько проектов для IT-специалистов по профилю data scientist в России?
На апрель 2026 года опубликовано 134 предложений удалённой работы от прямых заказчиков для исполнителей по специализации data scientist
Сколько можно заработать выполняя проекты по data scientist?
Специалисты по профилю data scientist зарабатывают от 0.00 рублей с заказа. Хотите больше? Выполняйте как можно больше заказов и зарабатывайте сколько пожелаете