Разработка с нуля. Экспертно-аналитическое сопровождение снятия нормативных и административных барьеров для реализации Национального проекта технологического лидерства в сфере биоэкономики (I этап) Срок проекта: с момента подписания договора до 30 января 2026 года Обязанности 1. Экспертиза нормативных и административных барьеров Анализ действующего нормативно-правового регулирования в области биотехнологий и биоэкономики. Определение понятия и классификации нормативных и административных барьеров, разработка и согласование методологии их выявления. Формирование полного перечня барьеров, препятствующих развитию биоэкономики и коммерциализации научных разработок. Описание выявленных барьеров с учетом позиций отраслевого сообщества и Совета по развитию микробиологической промышленности и биотехнологий. 2. Разработка экспертных предложений Подготовка предложений по внесению изменений в: стратегические документы федерального уровня федеральные законы акты Правительства РФ акты федеральных органов исполнительной власти административные регламенты методические рекомендации Формирование предложений, направленных на устранение нормативных и административных препятствий в производстве и стимулировании сбыта продукции биоэкономики и средств её производства. 3. Аналитические исследования Анализ зарубежных подходов к регулированию биотехнологий (США, ЕС, Великобритания, Китай, Индия, Бразилия). Сравнение международных моделей с российскими практиками. Подготовка выводов для формирования эффективной регуляторной среды. 4. Взаимодействие с государственными органами и экспертным сообществом Участие в интервью с представителями федеральных органов власти. Направление официальных запросов в ФОИВы и Совет по развитию микробиологической промышленности. Согласование материалов и методологий с Заказчиком. Учет позиций Минобрнауки, Минпромторга, Минсельхоза, Минэнерго и другие ведомств. 5. Подготовка аналитической отчетности Разработка итогового отчета, соответствующего ГОСТ 7.32–2017. Подготовка полного комплекса материалов по двум этапам проекта. Формирование дорожной карты снятия нормативных и административных барьеров (этап II). Требования Обязательные: Опыт проведения экспертно-аналитических исследований, стратегического анализа, регуляторной экспертизы. Знание нормативной базы, включая: — Федеральные законы №488-ФЗ и №172-ФЗ — Указы Президента РФ — Стратегии и госпрограммы в области промышленности, НТР, химического комплекса — Документы стратегического планирования и прогнозирования Глубокое понимание процессов регуляторной политики, разработки стратегий, НПА, административных регламентов. Опыт работы с федеральными органами исполнительной власти, аналитическими центрами или отраслевыми советами. Желательные: Экспертиза в области биотехнологий, биоэкономики, химической промышленности или смежных отраслей. Знание международных регуляторных практик. Опыт подготовки дорожных карт, нормативных предложений и экспертных заключений.
Data Science. Доработка существующего продукта, разработка с нуля. О проекте Ищу технического специалиста, который умеет работать с интеграциями между 1С, Google-таблицами, API различных сервисов, а также имеет опыт с Python/JS и Bittrex. Задачи — по мере необходимости, постоянное сотрудничество. Требуемые навыки 1) 1С (желательно уверенно): – интеграции, обмены, выгрузки – работа с API и форматами данных – настройка и доработка 2) Google Таблицы / Apps Script: – создание автоматизаций – Apps Script (JavaScript) – работа с триггерами, запросами, интеграциями 3) Python (обязательно): – API-запросы – парсеры – мини-сервисы, утилиты 4) Работа с API (ключевая задача): – mpstats API – Wildberries/WB API (16.88 и др.) – интеграции с Bittrex – работа с ключами, токенами, авторизацией – обработка больших массивов данных Плюсом будет: – опыт написания парсеров – опыт интеграций между несколькими системами – умение объяснять логику решений Примерные задачи: – автоматизации Google Sheets – интеграции между 1С ? Google Sheets – выгрузка данных по API (mpstats, WB, Bittrex и др.) – создание парсеров – точечные запросы: скрипт, формула, интеграция, триггер – отдельные мини-проекты за доп. оплату Формат работы: – подработка – оплата по задачам – постоянная загрузка, но не фуллтайм – быстрый ответ и корректная коммуникация Что написать в отклике: – опыт в 1С – примеры API-интеграций – опыт работы с Google Sheets / Apps Script – опыт по Bittrex – стоимость часа или задачи.
Data Science. Доработка существующего продукта. 9. For two variables, calculate the outliers using both the interquartile range and the standard deviation from the mean. Are the results different? Interpret them. 10. If there are outliers, delete them (if there is a lot of data) or replace them with the mean/median (if there is little data) and see how the measures of the central tendency in the variable under consideration have changed. 11. If there are missing values in the data, specify in which variables and how many of them. And fill them with the median/mean. 12. Build a correlation matrix (use seaborn.heatmap function) based only on those features for which the correlation can be calculated (If there are a lot of such pairs, build at least 10 ) 13. Interpret each correlation value in the matrix between two features 14. Plot the scatter plots based on these features (hint sns.pairplot()) 15. Download your .ipynb file and dataset by the submission form.
Data Science. Разработка с нуля. Сделать эксель-таблицу, чтобы в нее выгружались данные из архива журналов (для примера архив по ссылке). Необходимо использовать только формулы, вручную не считать, чтобы можно было пользоваться таблицей для работы с другой выгрузкой журналов. Журналы лежат здесь https://disk.yandex.ru/d/0I29JbER4iNpsw.
Data Science. Разработка с нуля. Мне нужен разработчик Python, который сможет написать полностью рабочий код для прогноза цены закрытия акции (close price forecast). Задача: реализовать и сравнить три алгоритма прогнозирования: ARIMA / SARIMAX Prophet (Facebook / Meta Prophet) LSTM (нейросеть для временных рядов) Требования: Исходные данные — исторические дневные котировки акций (Yahoo Finance) Код должен включать: загрузку данных, предобработку, train/test split, обучение моделей, генерацию прогноза, визуализацию (Actual vs Forecast) и расчёт метрик (RMSE/MAE/MAPE). Желательно оформить решение в виде Jupyter Notebook или чистого Python-проекта со структурированными функциями.
Обработка результатов в программе R, для медицинского исследования. Нужно провести статистический анализ медицинской базы данных для исследования- 124 пациента: 124 строки, около 30 столбцов на каждого с данными, (числовыми, категориальными итд). Нужна описательная статистика, сравнение данных , корреляционный анализ, многофакторная регрессия с графическими данными. Желательно, в программе R.
Data Science. Разработка с нуля. Файл во вложении. Если кратко, то необходимо создать БД, хранить там файлы, обрабатывать через ML, размещать их обратно в БД, строить аналитические отчеты на основании данных, отправлять сообщения в телеграмм.
Data Science. Разработка с нуля, настройка. Пожелания и особенности: Нужен Python-разработчик для пилотного проекта: анализ видео с камер стройплощадки через OpenAI (ChatGPT) Описание задачи: Ищу разработчика уровня middle для создания простого, но надёжного прототипа системы контроля безопасности на строительной площадке. Нужно написать скрипт/небольшое приложение на Python, которое будет: 1. Подключаться к 1–2 IP-камерам (уличные, 4–8 Мп, PoE) по RTSP/HTTP. 2. Раз в 30–60 секунд забирать кадр с камеры. 3. Отправлять изображение и текстовый промпт в OpenAI API (модель с поддержкой изображений, ChatGPT Vision). 4. Получать от модели строго JSON-ответ с метриками: количество людей, наличие касок, сигнальных жилетов/курток, при возможности защитной обуви; индикатор «порядка»/захламлённости площадки; флаг грубых нарушений (люди под грузом, работа в потенциально опасных зонах и т.п.); уровень активности работ. 5. Сохранять результаты в CSV/Excel и/или локальную БД (SQLite) для дальнейшей аналитики. Интерфейс может быть минимальным, главное — стабильная работа скрипта и корректный формат данных на выходе. Требования к исполнителю: Уверенный Python (3.10+). Опыт работы с HTTP/RTSP-потоками и статичными кадрами с IP-камер (OpenCV или аналог). Практический опыт интеграции с OpenAI API (или другими LLM/vision API) — обязателен. Умение жёстко задавать и парсить JSON-ответы от модели. Готовность кратко задокументировать решение (README: установка, конфиг, запуск). Что предоставлю: Доступ к тестовым камерам (RTSP/HTTP), логины/пароли. Описание нужных метрик и пример целевого JSON-формата. Ключ OpenAI API. Обратную связь по результатам (что доработать/упростить). Ожидаемый результат: Рабочий скрипт/небольшое приложение, которое можно запустить на обычном ПК/ноутбуке без GPU. Конфиг для указания списка камер, интервала опроса, путей сохранения данных. requirements.txt и понятная инструкция по запуску. Пример файла с данными (CSV/Excel) после тестового прогона. Сроки и бюджет: Срок: доработка MVP в пределах 1–2 недель с момента старта. Бюджет обсуждаем, ориентир за работу: от 40 000 до 70 000 ? за прототип при адекватном объёме и качестве. В отклике, пожалуйста, укажите: 1. Кратко — ваш релевантный опыт (видео, OpenAI/LLM, JSON-интеграции). 2. Примеры похожих задач/проектов (если есть — ссылки или краткое описание). 3. Ориентир по срокам и стоимости.
Разработка с нуля, настройка. Нужен человек, который шарит за внедрение ролевой модели управления доступом. Именно человек с опытом, который готов провести экспертную встречу с заказчиком отвечая на его вопросы по уже составленной ранее смете. Это все в рамках пресейла, если с нами заключат договор, то потенциально можем его трудоустроить на этот проект.
Data Science. Доработка существующего продукта. Необходимо проконсультировать и вместе со мной нарисовать микро-сервисную архитектуру сервиса для отправки коммуникаций пользователям В среднем в день чтоб он мог отправлять более 29 миллионов разных коммуникаций.
Разработка с нуля. Нужна помощь в анализе данных. Провожу маркетинговое исследование, анализ данных в экселе или в других агрегатах для анализа. Так же нужны советы в составлении отчета.
Data Science. Настройка. В битрикс24 сохраняются переписки в мессенджерах, транскрибируются телефонные разговоры, загружаются кп и договора, размещаются регламенты и инструкции, ведется переписка сотрудников. Нужно создать модель, которая будет изучать наш язык со всей его спецификой и отвечать на вопросы пользователей внутри битрикса. Новый сотрудник будет спрашивать что и как ему делать - ответ из регламентов Продавец будет спрашивать как посчитать работу - ответ из регламентов Доработка и настройка 1С.
Разработка с нуля, доработка существующего продукта. Пожелания и особенности: Нужно выполнить работу в приложении Statistica,есть ТЗ,также скину материалы с инструкцией в личном сообщении,цену готова обсуждать.Нужен человек,хорошо знающий программу.
В международную компанию требуется аналитик со знанием французского языка. Сдельная работа, оплата от 2500 руб/документ. Важно: Умение работать с базами, написание справок. Тематика: политика и экономика.
Разработка с нуля. Пожелания и особенности: Аналитика данных (Гео данные). Скачать с Яндекс карт информацию ( широту и долготу) всех оргнизаций из списка.
Разработка с нуля. Разработка дашборда в Yandex Datalens Вам предстоит разработать дашборд, используя Yandex Datalens, для анализа данных посещаемости вашего сайта и поведения пользователей на нем за определенный период времени. Шаги выполнения задания: Получение данных: Импортируйте данные о посещаемости сайта и поведении пользователей в формате, поддерживаемом Yandex Datalens. Это может быть CSV-файл или подключение к базе данных с использованием API. Убедитесь, что данные содержат необходимые метрики, такие как количество посещений, уникальных пользователей, время пребывания на сайте, источники трафика и другие показатели, которые вам интересны для анализа. Построение дашборда: Создайте новый проект в Yandex Datalens (или выбранном вами инструменте) и импортируйте данные. Разместите на дашборде различные визуализации данных, такие как графики, таблицы и диаграммы. Например, вы можете использовать линейные графики для анализа динамики посещений, круговые диаграммы для отображения источников трафика и т.д. Добавьте фильтры и возможность выбора периода анализа, чтобы пользователи могли исследовать данные за разные периоды времени. Анализ и интерпретация: Интерпретируйте результаты на вашем дашборде. Обратите внимание на ключевые тренды и показатели, которые могут дать представление о том, какие источники трафика наиболее эффективны, как пользователи взаимодействуют со страницами сайта и другие интересные наблюдения. Оформление: Уделите внимание оформлению дашборда, чтобы сделать его привлекательным и понятным. Используйте подходящие цвета, шрифты и визуальные элементы. Добавьте заголовки, комментарии и подсказки, чтобы помочь пользователям лучше понять данные и их интерпретацию. Тестирование: Проверьте функциональность дашборда на правильность отображения данных и возможность анализа различных сценариев. Формат: Окончательный дашборд должен быть представлен в Yandex Datalens и может быть доступен для просмотра или экспорта в соответствующем формате.
Data Science. Разработка с нуля. Пожелания и особенности: Требуются AI/ML-инженеры для развертывания локальных LLM (RAG, генерация контента, Telegram-боты) Читать внимательно ТЗ в файле! Суть проекта: Разработка и внедрение комплекса локальных AI-систем для работы с корпоративными данными в изолированной среде (без выхода в интернет). Проект включает два основных направления: 1. Внутренняя RAG-система для анализа документации и генерации контента. 2. AI-агенты для автоматизации ведения Telegram-каналов. Обязательное условие: периодические рабочие встречи в Москве (для обсуждения этапов, планирования и решения ключевых вопросов).
Data Science. Разработка с нуля. Спарсить базу контактов для таргетинга: все подрядчики рф во всех регионах, выполняющие работы по инженерным сетям (вентиляция, кондиционирование, водоснабжение, газоснабжение, водопровод, канализация, электричество) должно получиться несколько сотен тысяч контактов, для таргетинга нужны: электронка, номер телефона, желательно наличие наименования компании, регион) также нужно отдельно спарсить базу по компаниям, выполняющим работы по реконструкции по всем регионам.
Доработка существующего продукта. Разобраться в материалах и с постановкой задачи. визуализировать результаты U-критерия Манна-Уитни оформить корреляции Спирмена в читаемые таблицы сделать выводы в логике научного исследования, дополнить в имеющийся документ.
Data Science. Разработка с нуля. Пожелания и особенности: Компания в поиске стажёра / Junior ML специалиста. Работа над военным проектом, умение программировать контроллеры, работа с OpenCV.
Разработка с нуля. Пожелания и особенности: Техническое задание — Симуляционная модель MLM (полный перебор векторов уровней) 1. Цель Сгенерировать все фактически возможные сценарии структуры MLM-дерева глубины L = 7 и L = 8 при следующих правилах: • Корень (уровень 0) = 1 (главный «хозяин»). • Каждый участник на уровне k может иметь от min_children = 1 до max_children = 10 непосредственных подчинённых на уровне k+1. • Генерация всех допустимых векторов численностей по уровням (n0, n1, ..., nL) удовлетворяющих правилам (будем считать n0=1). • Фильтрация сценариев так, чтобы общая численность total = sum(n0..nL) лежала в диапазоне [10, 500000]. • Для каждого допустимого вектора требуется сгенерировать явное дерево (каждому участнику присвоено имя/ID и указано parent_id) — как минимум один (канонический) способ привязки детей к родителям. • В имени/идентификаторе сценария должно быть «зашито» число участников по каждому уровню (например: L7_1-3-9-27-81-243-729_total=1093). Дополнительно (опционально): возможность полного перечисления ВСЕХ возможных распределений количества детей между конкретными родителями для каждого вектора (если включено — предупреждение о масштабности и лимитах). 2. Входные параметры (конфигурация) • L_set = {7, 8} — глубины, которые моделируем. • min_children = 1 • max_children = 10 • min_total = 10 • max_total = 500000 • root_count = 1 (n0) • canonical_parent_assignment = True (по умолчанию генерируем 1 каноническое дерево на вектор) • enumerate_all_parent_distributions = False (опция; WARNING: экспоненциальный рост) • output_formats = ["CSV", • name_locale = ["en_US", "ru_RU"] (для Faker — генерация имён; можно выбрать) • random_seed (для воспроизводимости) • max_scenarios_to_export (ограничение вывода, по умолчанию — бесконечно, но разумно задать) 3. Математическая модель (условия допустимости вектора уровней) Обозначим n_0 = 1. Для уровней k = 0..L-1 и k+1: • n_{k+1} должно удовлетворять: и при этом n_{k+1} >= 1 (всё это целые числа). Таким образом, вектор n = (n_0, n_1, ..., n_L) допустим, если для всех k условие выполняется. Общая численность total = sum(n) фильтруется по диапазону [min_total, max_total]. Замечание: это условие описывает только численность на уровнях, но не уникальные способы распределения детей между конкретными родителями. Число таких распределений для заданного (n_k, n_{k+1}) — это задача разбиения n_{k+1} на n_k частей с ограничениями 1..10 (сочетания с повторениями), и их перечисление быстро становится чрезвычайно большим. 4. Перебор векторов (полный перебор) 4.1 Метод перебора • Рекурсивно строим уровни: начиная с n0=1, на каждом шаге k перебираем все n_{k+1} в диапазоне [n_k*min_children, n_k*max_children]. • Останавливаемся, когда получен вектор длины L+1 (от 0 до L). • Проверяем total и сохраняем вектор, если min_total ? total ? max_total. 4.2 Оценка количества таких векторов (практическая заметка) • Количество векторов может быть очень большим, но существенно меньше, чем число всех возможных деревьев с распределением по конкретным родителям. • Тем не менее, при max_children=10 и глубине 8 число возможных векторов остаётся сопоставимым с продуктом диапазонов на каждом шаге и может быть в миллионах. Нужно предусмотреть потоковую генерацию и запись (streaming), чтобы не держать всё в памяти. 5. Формат и структура выходных данных Для каждой сгенерированной структуры (сценария) экспортируем 2 набора файлов: 1. Метаданные сценария (одна строка на сценарий): • scenario_id • scenario_name (формат см. ниже) • L (глубина) • vector_levels (строка: 1-3-9-...) • total_nodes • n_by_level (JSON) • generated_on (timestamp) • node_file (путь к файлу с узлами) 2. Nodes file — детализированная таблица всех участников сценария: • Колонки: id, name, level, parent_id, scenario_id, path. • Формат: CSV (стриминговая запись).
Data Science. Разработка с нуля. Есть научная статья, в которой написаны формулы и даны константы нужно воспроизвести результаты статьи решается методом конечных разностей желательно написать на python.
небольшой дэш показывающий данные в динамике. Техническое задание (ТЗ) на разработку Мульти-магазинного Дашборда для мониторинга Wildberries 1. Цель проекта Создать централизованную автоматизированную систему мониторинга и анализа ключевых показателей эффективности (KPI) для одного или нескольких магазинов Wildberries. Система должна предоставлять данные в иерархическом виде (от общего к частному) с возможностью детализации по дням/неделям, а также включает ручное управление себестоимостью и закреплением товаров за менеджерами. 2. Ключевые пользователи и их потребности Владелец/Руководитель (нескольких магазинов): Оценка общей и сравнительной эффективности всех магазинов. Выявление лучших и отстающих магазинов/категорий. Консолидированная отчетность по всем точкам продаж. Отслеживание динамики продаж и прибыльности в разрезе каждого магазина. Маркетолог: Анализ показателей видимости (показы, переходы, CTR) и конверсии по всем магазинам или выборочно. Менеджер по продажам: Мониторинг показателей по своим закрепленным товарам в рамках одного или нескольких магазинов. Финансист: Контроль чистой прибыли, маржинальности и ДРР по всем магазинам. 3. Функциональные требования 3.1. Источник данных и автоматизация Источник: Данные должны автоматически загружаться через API личного кабинета продавца Wildberries. Периодичность обновления: Ежедневное автоматическое обновление данных за предыдущий день для всех подключенных магазинов. Платформа: Предпочтительно Google Sheets (для простоты совместного доступа и гибкости) или Google Looker Studio (для более продвинутой визуализации). Альтернатива — Power BI / Tableau. 3.2. Иерархия данных и структура отчета Отчет должен иметь четыре основных уровня детализации: Уровень "Все магазины" (консолидированный): Сводные KPI по всем подключенным магазинам. Уровень "Магазин" (индивидуальный): Детальные KPI по выбранному магазину. Уровень "Предмет" (категория): Детализация по товарным категориям внутри выбранного магазина. Уровень "Артикул" (НМ): Детальная аналитика по каждому товару внутри выбранного магазина и категории. На каждом уровне должны отображаться следующие метрики (согласно структуре файла): Заказы (и динамика DOD/WOW) ДРР Финансы: Чистая прибыль валовая, на единицу, маржинальность. Маркетинг: Показы, Переходы, CTR, Корзина, Конверсия в корзину, Заказ, Конверсия в заказ, Выкупы, % Выкупов. Только для уровня "Артикул": Цена со скидкой до СПП, СПП, Цена на полке, Остаток. 3.3. Управление несколькими магазинами Подключение новых магазинов: В интерфейсе дашборда должна быть реализована простая возможность добавить новый магазин Wildberries (ввод API-ключа и наименования магазина) без необходимости создания новой таблицы или отчета. Централизованный справочник магазинов: Создать отдельный модуль (лист "Настройки" или "Магазины") для управления подключенными магазинами (добавление, редактирование, отключение). Единые справочники: Справочники себестоимости и закрепления менеджеров должны быть общими для всех магазинов, но с возможностью фильтрации и отображения в разрезе каждого магазина. Переключение между магазинами: В интерфейсе дашборда должен быть основной фильтр/переключатель для выбора магазина для детального анализа ("Показать все", "Магазин 1", "Магазин 2" и т.д.). 3.4. Срез по менеджерам (второй уровень детализации) Должна быть возможность фильтровать и просматривать данные по уровням ("Магазин", "Предмет" и "Артикул") через призму закрепленного менеджера. Для этого необходима отдельная таблица-справочник для закрепления артикулов за менеджерами. 3.5. Гибкость временных периодов Детальный вид: Отображение данных по дням (как в исходном файле). Свернутый вид: Возможность "свернуть" дни для просмотра агрегированных данных по неделям (столбец "W36" в исходном файле). Должна быть колонка "VS LW" (сравнение с предыдущей неделей) для ключевых метрик. 3.6. Вспомогательные модули (ручной ввод) Модуль себестоимости: Простая табличная форма для ручного ввода/обновления себестоимости по каждому артикулу. Это необходимо для корректного расчета чистой прибыли и маржинальности. Данные должны быть привязаны к артикулу и быть едиными для всех магазинов. Модуль закрепления менеджеров: Простая таблица для сопоставления артикулов и ответственных менеджеров. Данные должны быть привязаны к артикулу и быть едиными для всех магазинов. 4. Нефункциональные требования Удобство интерфейса: Интуитивно понятная навигация, возможность быстрой фильтрации (по магазинам, менеджерам, периоду) и сортировки. Производительность: Время загрузки и обработки данных не должно превышать 5-10 минут после их получения с API. Система должна оставаться отзывчивой при работе с данными нескольких магазинов. Надежность: Система должна корректно обрабатывать ошибки API (например, отсутствие данных за день, проблемы с подключением, неверный API-ключ) и уведомлять пользователя. Безопасность: Доступ к дашборду и данным должен быть разграничен (если необходимо). API-ключи должны храниться безопасно. 5. Этапы разработки Проектирование: Согласование финальной структуры дашборда и логики расчета всех показателей. Проектирование базы данных/структуры таблиц для поддержки нескольких магазинов. Настройка интеграции с API WB: Написание скриптов (Google Apps Script, Python и т.д.) для автоматического сбора данных с поддержкой множественных API-ключей. Разработка ядра дашборда: Создание листов/страниц в выбранном инструменте (Google Sheets/Looker Studio) с консолидированным видом и видом по одному магазину. Реализация модулей: Создание модулей для управления магазинами, ввода себестоимости и закрепления менеджеров. Настройка визуализации и фильтров: Реализация переключения между просмотром по дням и неделям. Настройка главного фильтра по магазинам и второстепенных фильтров. Тестирование: Проверка корректности данных, работы фильтров, автоматизации и нагрузки при работе с несколькими магазинами. Запуск и документация: Развертывание системы и написание краткой инструкции для пользователей по управлению магазинами и работе с отчетом. 6. Технические примечания для аналитика Динамика DOD (Day-over-Day): (Значение сегодня / Значение вчера) - 1 Динамика WOW (Week-over-Week): (Значение за текущую неделю / Значение за прошлую неделю) - 1 CTR (Click-Through Rate): Переходы / Показы Конверсия в заказ: Заказы / Переходы Маржинальность: (Чистая прибыль на единицу / Цена реализации) * 100% Расчет финансовых показателей: Требует предварительного занесения себестоимости вручную. Чистая прибыль = Выручка - Логистика - Хранение - etc. (по данным WB) - Себестоимость. Идентификация данных: Все данные, получаемые через API, должны быть четко привязаны к конкретному магазину (API-ключу) во внутренней структуре хранения.
Data Science. Доработка существующего продукта. Пожелания и особенности: Опишу суть что по моей задачи необходимо, а точнее какой хочу увидеть результат. Я видду свой собственный Фулфилмент, мне необходимо автоматизировать иные процесы с товаром. Учет товарадвижения виду в МойСклад. У меня очень много товара храниться на складе, хочу его подготавливать заранее под отгрузки. То есть прям с калес. Как вижу это я? Предположим я заранее сгенерил 500 шк на пустые короба. Расклеил эти шк( что распечатал) на короба. Далее накидал нужные мне позиции внутрь каждого короба. Отсканил коробку с шк. И поставил на хранение. Спустя время мне приходит заказ. В моем складе распечатываю расходник, и иду собирать заказ условно говоря с тсд который подвязан к моему складу. Где будет видно что эта за коробка при сканирование шк, и что за товар внутри лежит( без вскрытия этой коробки). Если есть дополнительные вопросы, лучше давайте созваниваться, выслушаю все предложения.
Data Science. Доработка существующего продукта, разработка с нуля. Нужно собирать следующие данные unique_id,nickname,followers,likes_total,comments_total,views_total,video_count,url,url_photo,signature,is_russian.
Разработка с нуля. О проекте Мы создаём сервис анализа маммографических изображений (DICOM) на основе модели классификации, обученной в федеративной постановке на аннотированных данных партнёров. Сервис предназначен для повышения качества и доступности маммографического скрининга в РФ и станет основой для дальнейшего развития федеративного обучения в медицинских ИИ-приложениях. После предыдущего НИР подтверждена возможность адаптации модели классификации маммограмм к существующим фреймворкам FL. На текущем этапе нам нужен специалист, который сможет довести модель до промышленного уровня качества, провести федеративное обучение и создать полноценный работающий сервис с Grad-CAM визуализациями. ? Обязанности 1. Модель и федеративное обучение Обучение модели классификации маммограмм на 2 класса (BI-RADS 1–2 / 4–5) в федеративной постановке; Подбор параметров федеративного обучения: — баланс классов клиентов, — количество раундов, — алгоритм агрегации весов, — количество локальных эпох, — размер батча; Работа с аннотированными данными на инфраструктуре заказчика; Использование открытых датасетов (VinDr, INBreast) и подготовка данных согласно требованиям ТЗ; Обеспечение достижения минимальных метрик: — sensitivity ? 0.82 — specificity ? 0.82 — accuracy ? 0.82 — ROC AUC ? 0.9 Оптимизация модели для скорости работы ? 2 секунд на сервере с GPU Nvidia L40. 2. Разработка экспериментального сервиса Создание рабочего сервиса классификации маммограмм на основе обученной модели; Реализация поддержки формата DICOM, проекций CC и MLO, определение laterality; Реализация Grad-CAM тепловых карт; Создание пользовательского интерфейса для загрузки изображений и отображения результатов. 3. Разработка ПО и скриптов Подготовка программных модулей и скриптов (.py / .ipynb) для: — формирования confusion matrix, — формирования реестра результатов анализа (дата, ID пациента, исследование, класс и вероятность, время обработки), — обработки директории пациентов с 4 проекциями, — фильтрации данных по временным диапазонам. 4. Документация Участие в подготовке полного комплекта документации: ТЗ на разработку сервиса; Описание ПО; Руководство оператора; Программа и методика тестирования; Протоколы и акты тестирования; Акт создания экспериментального образца. 5. Поддержка Участие в исправлении ошибок сервиса в течение 12 месяцев после завершения проекта. ? Требования Обязательные Уверенный опыт разработки моделей компьютерного зрения (CNN, medical imaging); Опыт работы с медицинскими изображениями, желательно DICOM; Опыт работы с фреймворками федеративного обучения (например: Flower, FedML, PySyft, FederatedScope); Умение достигать целевых метрик на реальных и открытых медицинских датасетах; Отличные знания PyTorch / TensorFlow; Опыт оптимизации моделей для inference на GPU; Умение реализовывать Grad-CAM; Опыт разработки backend-части сервисов (FastAPI / Flask); Умение оформлять НИОКР-документацию. Желательно Опыт работы в медтехе, радиологии, скрининговых системах; Знание BI-RADS; Опыт интеграции медицинских ИИ-моделей в клинические сервисы; Опыт работы с VinDr, INBreast и другими наборами маммограмм; Знание требований по лицензированию ИИ-ПО.
Почему стоит искать работу для фриласнеров по профилю data scientist в Москве у нас?
🔸 Более 4 предложений о работе за сегодня в тематике data scientist
🔸 Работа и подработка на бирже фриланса от прямых заказчиков, которым нужна помощь специалистов по профилю data scientist уже сегодня!
🔸 Свежих заказов на data scientist в Москве для фрилансеров на май 2026 года — 164 шт.
Как найти удалённую работу для фриланс-специалистов по профилю data scientist в Москве?
Вы специалист по data scientist и ищете проекты и заказы на удалёнке в Москве? Нам всегда есть что вам предложить. Ежедневно мы публикуем новые проекты и заказы по вашей специальности. Найдите интересную работу уже сегодня
Сколько проектов для IT-специалистов по профилю data scientist в Москве?
На май 2026 года опубликовано 164 предложений удалённой работы от прямых заказчиков для исполнителей по специализации data scientist
Сколько можно заработать выполняя проекты по data scientist?
Специалисты по профилю data scientist зарабатывают от 0.00 рублей с заказа. Хотите больше? Выполняйте как можно больше заказов и зарабатывайте сколько пожелаете