Data Science. Доработка существующего продукта. Пожелания и особенности: Цена договорная, проект большой сложный, интересный. фронт написан на react, typescript, бэкенд на nodejs, typescript, express. Торговля на фондовом рынке с использованием ИИ.
Data Science. Настройка, доработка существующего продукта. Нужен именно LLM cпециалист, практикующий, который составит ТЗ, выдаст рекомендации, анализ, и возможно, сам что-то сделает. Добрый день. Наш сайт https://fastpack.me/ - мы хотим определить технологию выдачи в быстрых ответах Яндекса, в блоке сформированном Алисой, и попадать с нашим сайтом в такие блоки, в машинные сводки по тем или иным генерациям пользователей, в ИИшную выдачу под запросы в разных форматах, оптимизировать контент под требования генеративных поисковых систем, Schema.org - скорректировать именно нашего сайта именно под логику ИИ, доработать HTMLс точки зрения семантики для ботов, определить и внедрить по сайту вопросно-ответную часть для ИИ, проанализировать конкурентов по нашей топ выдаче и составить план доработки по конкретным страницам.
Разработка с нуля. Разработка модели динамического ценообразования по продаже грузового и спец транспорта, на основании ретроспективных данных о продажах и парсинга конкурентов в авито. Разработка модели динамического ценообразования по продаже грузового и спец транспорта, на основании ретроспективных данных о продажах и парсинга конкурентов в авито
Разработка ПО. Data Science. Разработка с нуля. Пожелания и особенности: Добрый день. Ищу специалиста, который сможет сделать выгрузку данных из OZON по API по отчету начислений (метод «Список транзакций»). Нужно, чтобы данные были схожи с выгрузкой из ЛК (насколько это возможно) и, чтобы данные были сопоставимы с данными в ЛК. Можно сделать в отдельной таблице, перенести скрипт смогу в свою самостоятельно.
Data Science. Сформировать j son файл для загрузки в в datawrapper. Пожелания и особенности: Создать j son файл для загрузки в datawrapper в choropleth map и построение полигонов ( карта Ямала со всеми административными районами) Районы Приуральский Ямальский Г Салехард Г Лабытнанге Шурышкарский район Тазовский район Надымский район Перовский район Красноселькупский район.
Разработка с нуля. Ищем внимательного и ответственного человека для стабильной и понятной работы по чётким алгоритмам. Работа отлично подойдёт тем, кто ценит порядок, повторяющиеся задачи и предсказуемость. 📌 Обязанности: • Поиск товаров по заданным критериям в аналитических сервисах (например, MPSTATS) • Работа по чёткому пошаговому алгоритму без отклонений • Внесение информации в шаблон (таблица/форма) и расчёт базовой экономики товара по инструкции • Повторяющиеся действия без необходимости придумывать новое ✅ Требования: • Внимательность, высокая степень аккуратности • Умение строго следовать инструкциям • Ответственное отношение к срокам и качеству работы • Уверенное владение ПК, Google Таблицами • Опыт работы с маркетплейсами и аналитическими сервисами (особенно MPSTATS) 💼 Условия: • Удалённая работа • Чёткие задачи, стабильная загрузка • Оплата обсуждается по результатам тестового задания • Долгосрочное сотрудничество.
Data Science. Разработка с нуля. Написать простую базу на данных в libre office base. Типо не большой CRM системы. Список оборудования ( название, описание, кол-во, цена, отдел, скад.) Список услуг (услуги связанные с наборами оборудования) Клиенты (фио, номер телефона и т.п.) Семеты ( связь с клиентами и списком услуг, доп графы в виде мечта , даты , даты составления).
Custdev, интервью. Интервью на час. Интересуетесь инструментами для визуализации и анализа данных? RT.DataVision (от Ростелеком), Sber Data Platform BI, Platform V (от Сбер) и Yadex DataLens (от Яндекс) – популярные решения. Если вы работаете с одним из этих инструментов, поделитесь опытом: * Как вы его используете? * С какими трудностями сталкиваетесь? * Какие функции наиболее полезны? * Как интегрируете с другими системами? Ваши ответы помогут лучше понять специфику работы с этими инструментами.
Data Science. Доработка существующего продукта. Пожелания и особенности: Мы типография которая занимается печатью интерьерных картин и портретов на заказ. У нас есть база данных и интеграции с Вайлдберриз и АМО срм, нам нужно довести до ума наш сервис. Все написано, но работает с багами, наш специалист не имеет желания заканчивать сервис и ушел в отпуск и пропал с ответом в раз в неделю. Ниже прикрепляю документацию по логике и архитектуре.
Data Science. Тестирование, настройка, разработка с нуля. 1. Помочь в выборе наиболее , подходящей системы предиктивной телефонии, которая оптимально подойдет для нашей команды, чтобы повысить эффективность работы операторов и снизить количество автоответчиков и недозвонов. 2.Настроить алгоритмы предиктивного набора, чтобы обеспечить максимальную эффективность работы операторов.
Разработка с нуля. Пожелания и особенности: Нужен аналитик данных, работающий с искусственным интеллектом, который сможет проанализировать данные по продажам за прошлые года, выявить тенденции, сделать прогноз на будущее с отклонением в 5%. Интегрируем ИИ с MPStata для автоматической выгрузки данных. Все, кто разбирается в теме, пишите, обсудим возможности.
Работа с Respondo, Clay. Разработка ML-моделей для прогноза отклика на письма (Respondo). Интеграция Clay с Битрикс 24(HubSpot, Salesforce) и настройка триггерных сценариев. Анализ поведенческих паттернов лидов (на основе данных Clay) для таргетинга. Создание автоматических отчетов по эффективности кампаний (Respondo + BI).
Опрос для исследования. Привет🔥 Нужны data-спецы: Data Engineer, Data Analyst, Data Scientist, Machine Learning Engineer, BI Analyst / BI Developer, Data Architect, AI/ML Researcher, Analytics Engineer, MLOps Engineer, Data Product Manager, для прохождения опроса в рамках исследования. Хабр запускает исследование, цель которого — глубже понять актуальные задачи, инструменты, карьерные траектории и боли data-специалистов. Заполнение займет около 15-20 минут. 🔥Оплата за прохождение опроса 500 рублей. П.с: приглашать друзей и коллег на опрос можно и нужно :).
Тестирование. Нужен аналитик данных с опытом обработки количественных опросов и знание математической статистики Анализ Формат: Ответы предоставить в видео отчета (графики, с минимумом текста) в формате pdf и google doc. Задачи 1. Сделать графики распределения ответов по каждому вопросу. Придумать, как показать матричные вопросы. 2. Провести анализ аудитории, которая регулярно делает маникюр в салонах 3. Провести анализ аудитории, которая регулярно ухаживают за руками сами (.
Data Science. Автоматический сбор данных с общедоступных страниц в интернете. Есть сайт со спортивным таблицами за разные сезоны, мне нужна нейросеть и промт к ней, который автоматически соберёт данные и мне не нужно было копировать их в ручную.
Data Science. Доработка существующего продукта. Пожелания и особенности: Нужен программист на постоянную основу для ведения сайта. Оплата по договоренности.
Сделать просто таблицу ексель с данными вписать вопросы для рассчета, написать расчеты для этих заданий, обосновать вывод дать рекомендации по исправлению ситуации.
Выполнить задание по кейсу. Вы выступаете в роли аналитика данных компании ОАО "Российские Железные Дороги". Вам предоставлен датасет, содержащий информацию о клиентах, пользующихся услугами грузоперевозок. Ваша задача — провести всесторонний анализ клиентской базы для выявления инсайтов, которые помогут улучшить повысить прибыльность компании. В рамках выводов стоит указать, на каких клиентских сегментах и почему стоит сосредоточить свои усилия. Датасет: Вместе с заданием вам передается три файла: 1. synthetic_dataset.csv – оригинальный датасет, где присутствуют категориальные переменные. 2. synthetic_dataset_encoded.csv – в данном файле категориальные переменные закодированы количественными значениями. 3. Case.ipynb - В блокноте с заданием дано пояснение и пример кода кодирования. Рекомендую работать именно с этим файлом данных. Задачи: 1. Описательный анализ данных: • Изучите структуру датасета: количество записей, типы данных, наличие пропущенных значений. • Выполните анализ распределения значений каждой переменной. • Проведите бивариантный анализ для выявления зависимостей между переменными. • Визуализируйте данные с помощью графиков и диаграмм. 2. Кластеризация клиентов: • Выберите соответствующие признаки для кластеризации. • Определите оптимальное количество кластеров (используя методы "локтя", силуэтов). • Проведите кластеризацию клиентов (например, с использованием алгоритма K-Means). • Охарактеризуйте полученные кластеры и дайте им бизнес-интерпретацию. 3. Оценка значимости объясняющих факторов: • Постройте модель случайного леса (Random Forest) для определения влияния различных переменных на прибыль от клиента. • Выделите ключевые переменные, наиболее сильно влияющие на прибыльность. • Проанализируйте важность признаков, предоставляемую моделью. 4. Выводы и рекомендации: • Сформулируйте основные выводы на основе проведенного анализа. • Предложите рекомендации по улучшению работы с клиентами, повышению прибыльности и эффективности бизнес-процессов. • Обратите внимание на потенциальные области для дальнейшего исследования. Оформление результатов: Результаты представьте в том же блокноте, в котором было задание и в рекомендованной структуре. Оформляйте пояснения как комментарии или текст Markdown.
Data Science. Доработка существующего продукта. 🔍 Ищу программиста для сдельной работы (Python, FastAPI, PostgreSQL) Привет! У меня есть готовый личный кабинет, где пользователи сохраняют свои API-ключи от Wildberries и Ozon. 📌 Задача Нужно реализовать ежедневную загрузку данных о товарах из API WB и Ozon в мою базу данных: Подгрузка должна происходить ежедневно в 6 утра Для каждого пользователя — по его API-ключу Данные сохраняются в существующую PostgreSQL БД 💼 Что требуется от программиста Найти нужные файлы на бэкенде (лучше всего — подключиться по SSH) Посмотреть структуру БД Сделать выгрузку и сохранение товаров в БД по логике, которая уже используется в проекте ⚙️ Технологии проекта Python / FastAPI PostgreSQL SSH-доступ предоставлю Структура логина и сохранения ключей уже реализована 💸 Оплата сдельная.
Разработка ПО. Data Science. Разработка с нуля. Создать программу для ведения данных в Google Excel создать таблицы учета предоплаты и денег в компании 1. таблица это ведение предоплат, дпнные из них должны вставать в нужный день в учет в ддс и опиу 2. учет ежедневного заезда людей. должна в конце дня информация суммироваться итогом по нескольким значениям - выручка итого -выручка 1 участок -выручка 2 участок -выручка 3 участок -трактовая -габанова -наличные -безналичные - р/сч -лич. карта -предоплата -ЮДС 3. Ежедневный отчет заполняет из своих данных с нарастающим итогом отчет о опиу и ддс 4. Отчет о ддс показывает ежедневные данные и затем суммирует их в еженедельный отчет с пн по вс 5.На еженедельном результате проверяется расчетный и фактический остаток средств 6.В отчете опиу показывается разрез месяца по которому мы смотрит результат за весь месяц минус расходы и итог «прибыли» 7.в разделе авансы должен быть фильтр по столбцам 8.в разделе архива так же должен быть фильтр.
Data Science. Доработка существующего продукта. Объявление: Chief Technical Officer (CTO) Ищем опытного технического директора (СТО), который возьмёт на себя полную ответственность за реализацию и поддержку технических процессов, практически самостоятельно закрывая все сложные технические задачи проекта. Ключевые задачи: Разработка и внедрение комплексной технической стратегии проекта. Проектирование и создание масштабируемой, надёжной и автоматизированной архитектуры. Полная интеграция и автоматизация контентной экосистемы (TTS, субтитры, монтаж, API сервисы). Самостоятельное решение сложных технических проблем и контроль качества технических решений. Организация инфраструктуры и обеспечение бесперебойной работы системы. Подбор, контроль и передача мелких технических задач исполнителям. Требования: Глубокая техническая экспертиза и подтверждённый опыт на аналогичных позициях. Отличное знание API интеграций, AI-технологий, автоматизации и видеоконтента. Навыки самостоятельного решения сложных технических задач. Опыт руководства и передачи мелких технических задач команде. Условия, оплата и другие детали обсуждаются индивидуально. Оплата 50.000 - за доделку существующего проекта, дальше готовы обсуждать долевое участие и оклад.
Data Science. Доработка существующего продукта. Исполнитель на доработку субтитров Ищем специалиста для реализации качественных, крупных и контрастных субтитров в коротких роликах (до 60 секунд). База хорошая уже есть, эмодзи описанные есть, код и скрипты частично есть. Задача оперативно доделать. ТЗ оформлено Задачи: Настроить автоматическое выделение и подсветку ключевых слов по таймкодам. Убрать дублирование субтитров и текста поверх видео. Сделать трендовую анимацию текста (эмодзи, подсвечивание слов). Требования: Опыт работы с видеомонтажом и субтитрами. Знание инструментов CapCut, ZapCap, SubMagic или аналогичных. Понимание трендов в дизайне и анимации субтитров. Оплата и сроки обсуждаются индивидуально.
Data Science. Доработка существующего продукта. Есть работающий запрос, созданная табличка, осталось напистаь даг, чтобы он инсертил в табличку каждые 10 минут, а точнее помочь с этим.
Data Science. Тестирование, настройка. Задача: Автоматизация обработки данных из Аршина и создание компаний в Bitrix24 Что нужно сделать: Сделать корректную выгрузку данных из ФГИС Аршин по API: – обязательные поля: ИНН изготовителя, дата приказа, номер приказа, испытательный центр, тип средства измерения; – выгрузка в структурированный вид (CSV/Excel). Обогатить полученные данные через Dadata (по ИНН): – корректное название компании, телефон, e-mail, ФИО и должность руководителя, юридический адрес; – привести телефоны к единому формату: +7 XXX XXX-XX-XX. Автоматически загрузить данные в Bitrix24 через REST API: – создать новые компании с полями: название, ИНН, телефон, e-mail, адрес, ФИО и должность руководителя, ответственный; – обновить существующие компании (добавить комментарии об утверждённых типах, сменить ответственного по условиям); – логировать каждое действие (создано/обновлено/пропущено). Технические требования: – язык реализации: Python (предпочтительно) или Node.js; – работа через официальные API (Аршин, Dadata, Bitrix24); – аккуратная обработка данных: проверка дублей, отсутствие перезаписи уже заполненных полей в Bitrix; – должен быть итоговый отчёт: result_enriched.csv (обогащённые данные) и result_log.csv (лог загрузки в Bitrix). Ожидаемый результат: – в Bitrix24 появится полный список новых компаний-изготовителей с корректными контактами и ответственными; – существующие компании обновлены и дополнены информацией об утверждённых типах. Объём данных: ~500 компаний (тестовый запуск). Дополнительно: – Возможность доработки скрипта в будущем (для регулярного обновления данных).
Почему стоит искать работу для фриласнеров по профилю data scientist в России у нас?
🔸 Более 2 предложений о работе за сегодня в тематике data scientist
🔸 Работа и подработка на бирже фриланса от прямых заказчиков, которым нужна помощь специалистов по профилю data scientist уже сегодня!
🔸 Свежих заказов на data scientist в России для фрилансеров на апрель 2026 года — 134 шт.
Как найти удалённую работу для фриланс-специалистов по профилю data scientist в России?
Вы специалист по data scientist и ищете проекты и заказы на удалёнке в России? Нам всегда есть что вам предложить. Ежедневно мы публикуем новые проекты и заказы по вашей специальности. Найдите интересную работу уже сегодня
Сколько проектов для IT-специалистов по профилю data scientist в России?
На апрель 2026 года опубликовано 134 предложений удалённой работы от прямых заказчиков для исполнителей по специализации data scientist
Сколько можно заработать выполняя проекты по data scientist?
Специалисты по профилю data scientist зарабатывают от 0.00 рублей с заказа. Хотите больше? Выполняйте как можно больше заказов и зарабатывайте сколько пожелаете