Настройка, доработка существующего продукта. Сайт собран на Тильде. Хотим подключить его к партнерской сети (CPA-сети) для рекламных кампаний. Функционал Postback есть у всех крупных партнёрских программ, CPA-сетей и сервисов для онлайн-обучения. Смысл работы Postback такой: * настраиваем отправку Postback уведомлений о наступлении определённых событий на указанные URL (указываем ссылку с необходимыми макросами) * при наступлении этих событий, отправляется постбек на указанный URL Для аналитики трафика достаточно уведомлений об этих событиях: * новая регистрация (новый подписчик) * заказ создан * заказ оплачен (частично или полностью) * возврат заказа (не обязательно) Т.е. на каждое событие можно указать разный URL. Главный вопрос — понять можно ли реализовать этот функционал на тильде, или с привлечением других сервисов. Пожалуйста откликайтесь с ответом — можно ли это реализовать По деталям отвечу в чате.
Data Science. Разработка с нуля. Всем привет! Требуется написать парсер для Маркетплейса Озон исходя из тех методов которые мне нужны. Пользуюсь для работы гугл таблицами, но сталкиваюсь с ограничением хранения данных. Что мне нужно: Написать парсер который будет выгружать отчеты и складывать их в базу данных, чтобы я мог либо в гугл таблицы тянуть их сразу, либо выводить в Яндекс Datalens. В идеале чтобы Вы могли настроить и Datalens так чтобы получились рабочие таблицы по той структуре которая есть у меня. Прошу писать ставку за час и примерное количество часов, которое Вам потребуется на решение задачи.
Data Science. Разработка с нуля. Есть облако точек, полученное после чканировани лидером. Необходимо делать эталонное сканирование и потом находить толщину остаточную объекта на основе сравнения двух облак точек.
Разработка с нуля. Запросить написание статьи о (Методы и алгоритмы прогнозирования энергобаланса РФ на основе искусственного интеллекта и статистики ) Статья будет опубликована ВАК.
Написать проект в университет. Пожелания и особенности: Скину подробное описание самому кандидату. Проект по анализу данных — это командная работа, где вы выбираете подходящий датасет, согласовываете его с ассистентом, а затем полностью анализируете. Вам нужно взять таблицу с минимум 100 наблюдениями, в которой есть и числовые, и категориальные признаки, а также одна целевая переменная, по которой можно строить линейную или логистическую регрессию. После выбора данных вы загружаете их в Jupyter Notebook и проводите разведочный анализ. В ходе EDA вы описываете признаки, определяете их типы, проверяете наличие пропусков и дубликатов и очищаете данные. Затем вы строите графики распределений количественных и категориальных признаков, находите и удаляете выбросы двумя методами — по стандартным отклонениям и по межквартильному размаху. После этого считаете описательные статистики, интерпретируете их и перекодируете категориальные признаки с помощью OneHotEncoder и LabelEncoder. Далее начинается исследовательский этап: вы рассчитываете корреляции между целевой переменной и предикторами, строите корреляционную матрицу, выбираете наиболее связанные признаки и при желании масштабируете числовые данные. Затем вы строите модель регрессии: делите данные на тренировочную и тестовую выборки, обучаете модель, записываете уравнение регрессии в LaTeX, интерпретируете коэффициенты и оцениваете качество модели по метрикам. После этого вы проводите все статистические тесты, которые проходили на курсе, формулируете гипотезы, оформляете их в LaTeX и интерпретируете результаты. Также для бонуса можно выполнить бутстрап-тест. Весь проект должен быть оформлен в одном Jupyter Notebook формата .ipynb и содержать код, графики, выводы и пояснения в markdown. Потом вы защищаете проект: каждому участнику задают по пять вопросов по любому месту проекта, и количество правильных ответов влияет на итоговую оценку. В итоге проект — это полный анализ выбранного датасета от его подготовки до построения модели и статистических выводов, оформленный в ноутбуке и устно защищённый перед преподавателем. ДАТАСЕТ УЖЕ ВЫБРАН.
Написать проект по анализу данных. Пожелания и особенности: Проект по анализу данных — это работа, где вы выбираете подходящий датасет, а затем полностью анализируете. Вам нужно взять таблицу с минимум 100 наблюдениями, в которой есть и числовые, и категориальные признаки, а также одна целевая переменная, по которой можно строить линейную или логистическую регрессию. После выбора данных вы загружаете их в Jupyter Notebook и проводите разведочный анализ. В ходе EDA вы описываете признаки, определяете их типы, проверяете наличие пропусков и дубликатов и очищаете данные. Затем вы строите графики распределений количественных и категориальных признаков, находите и удаляете выбросы двумя методами — по стандартным отклонениям и по межквартильному размаху. После этого считаете описательные статистики, интерпретируете их и перекодируете категориальные признаки с помощью OneHotEncoder и LabelEncoder. Далее начинается исследовательский этап: вы рассчитываете корреляции между целевой переменной и предикторами, строите корреляционную матрицу, выбираете наиболее связанные признаки и при желании масштабируете числовые данные. Затем вы строите модель регрессии: делите данные на тренировочную и тестовую выборки, обучаете модель, записываете уравнение регрессии в LaTeX, интерпретируете коэффициенты и оцениваете качество модели по метрикам. После этого вы проводите все статистические тесты, которые проходили на курсе, формулируете гипотезы, оформляете их в LaTeX и интерпретируете результаты. Также для бонуса можно выполнить бутстрап-тест. Весь проект должен быть оформлен в одном Jupyter Notebook формата .ipynb и содержать код, графики, выводы и пояснения в markdown.
Data Science. лабораторная с чатом гпт. Есть лабы изичные, чисто с чатом гпт делаются. Там тяжелее отчёт даже сделать, ну в плане просто нужно сделать нормальный отчёт по примеру. Есть 3 лабы, по два варианта(они +- похожи). На один вариант 500р, то есть лаба 1000р. Если интересно, можно сразу в тг@Есть пример отчетов, сделанных лаб. Например вот Составить программу, которая, с использованием алгоритмов оптимизации (генетическому и по варианту), аппроксимирует функции, задаваемые по варианту. В отчёте отразить: + общие этапы функционирования системы; + предлагаемый генетический алгоритм (выбранные функции мутаций, скрещивания и пр.); + описание второго алгоритма (по варианту); + особенности реализации (рекомендуется использовать готовые библиотеки); + результаты работы (среднеквадратичная ошибка; время вычислений); + результаты сравнения генетического алгоритма и по-варианту; P.S. ГА необходимо реализовать всем участникам этой лабораторной работы, но дополнительно попадётся эволюционный алгоритм Очевидно, что пользоваться готовыми реализациями НУЖНО Вариант: f(x) = sin(x)*(sin(x)+cos(x)), x\in [-2\pi; +2\pi], g(x) = x^2 + x -5, искусственного косяка рыб.
Data Science. Тестирование, доработка существующего продукта. Нужна помощь с заданием по программированию, есть 3-4 дня чтобы подготовить код, презентацию сделаю сам.
Data Science. Разработка с нуля. Необходимо подготовить проект по теме "Прогнозирование продаж продуктов компании с использованием временных рядов" c разработкой сервиса по требованиям.
Нужно заполнить информацию об организациях и клиентах в CRM. Пожелания и особенности: Нужен человек, который хорошо знает английский, а также в идеале имеет техническое образование. В нашей crm есть 2000 организаций и людей (всего 4000), нужно проработать каждую организацию/клиента и добавить необходимую информацию из информации и интернета, с помощью ИИ (по готовому промпту), из наших собственных документов.
Data Science. Разработка с нуля. Разработать программу на языке Python, анализирующую данные, задание с критериями и подробным описанием в прикрепленном файле.
Data Science. Доработка существующего продукта. Пожелания и особенности: Нужно реализовать уравнение больцмана на пайтон. Методичка и все условия скину. По результатам должна быть матрица в txt, и Построение как на рисунке 18 в методичке (один в один). Есть наработки, но результат не совпадает с графиком.
Разработка с нуля. Пожелания и особенности: Есть таблица на 180к строк. Нужно выполнить задачу регрессии – предобработать данные, очистить, добавить фичи, протестировать разные модели. Я хочу делать все сам и понимать что я делаю, от вас прошу менторить меня, давать литературу и исправлять ошибки.
Data Science. Разработка с нуля. Нужно написать ПО собирающее информацию о загрузке бронирования из открытого источника (сайт) с возможностью выгрузки информации в таблицу.
Data Science. Разработка с нуля. Исследовательский вопрос Как различается отношение пользователей к различным регионам России в туристических обсуждениях в социальных сетях за май-сентябрь 2025 года? Гипотезы Гипотеза 1: Регионы, где пользователи чаще отмечают положительные аспекты инфраструктуры (качество отелей, дорог, сервиса), получают больше позитивных отзывов в целом. Гипотеза 2: Регионы с уникальными природными достопримечательностями получают значительное количество положительных отзывов, даже если в комментариях присутствуют негативные упоминания инфраструктуры. Гипотеза 3: Регионы, в обсуждениях которых преобладают негативные упоминания как природных, так и инфраструктурных аспектов, получают преимущественно негативные или нейтральные общие оценки. Описание ожидаемого результата Проанализировав комментарии пользователей в социальных сетях: Составить карту тональности регионов Определить туристические тренды (самые популярные регионы) План действий Поиск в различных социальных сетях сообществ, посвященных туристической тематике + проверка наличия в них каких-либо постов за май-сентябрь 2025 года Сбор всех сообщений (посты + комментарии) из выбранных источников Предобработка текстовых данных будет включать: очистка от повторяющихся символов, устранение эмодзи, ссылок и т.д. приведение всех символов к нижнему регистру токенизация удаление стоп-слов лемматизация удаление пунктуации Нужно будет сделать фильтрацию по именованным сущностям (NER -> Location) Анализ тональности с использованием предобученных моделей для русского языка, так как они обеспечивают более высокую точность на неформальных русскоязычных текстах, содержащих сленг, иронию Тематическое моделирование (Заметка: ещё нужно будет подумать) Анализ результатов и интерпретация Визуализация полученных результатов на каждом этапе Формирование выводов.
Data Science. Разработка с нуля. Пожелания и особенности: Разработать и внедрить системы сбора и анализа данных по API с маркетплейсов Озон и ВБ. Система должна уметь: 1) собирать данные о продажах за любой период времени (рука на пульсе) 2) уметь получать отчёт о продажах и расшифровывать его 3) собирать информацию об актуальных остатках на складах озон и ВБ 4) выводить всю указанную информацию в удобном виде (например через Гугл таблицы) 5) регулировать цены в зависимости от установок (авторепрайсер) 6) быть самодостаточной (без абонентки и необходимости постоянной поддержки, за исключением случаев изменения API).
Data Science. Разработка с нуля. Пожелания и особенности: Имеется производство изделий из металла с видеонаблюдением. Необходимо разработать и интегрировать анализ видеопотока для учёта количества времени, которое сотрудники находятся на своих рабочих постах и осуществляют рабочую деятельность. Такая система должна давать ежедневную, еженедельную и ежемесячную сводку. Прикладываю часть скриншотов. Часть камер стоит неудачно, расположение поменяем. Всего необходим анализ до 10 потоков видео.
Data Science. Тестирование, доработка существующего продукта. Нужна информация в виде отчета, какую информацию запрашивает приложение, какие запросы делает, либо какую информацию получает помимо предоставленных разрешений.
Доработка существующего продукта. Есть анализ медицинского изделия. Шаблон. В нем данные из реестра РЗН и данные по закупкам из ЕИС. Нужно повторить шаблон по 1му конкретному изделию. Техническое задание в примерах.
Почему стоит искать работу для фриласнеров по профилю data scientist в Москве у нас?
🔸 Более 2 предложений о работе за сегодня в тематике data scientist
🔸 Работа и подработка на бирже фриланса от прямых заказчиков, которым нужна помощь специалистов по профилю data scientist уже сегодня!
🔸 Свежих заказов на data scientist в Москве для фрилансеров на май 2026 года — 150 шт.
Как найти удалённую работу для фриланс-специалистов по профилю data scientist в Москве?
Вы специалист по data scientist и ищете проекты и заказы на удалёнке в Москве? Нам всегда есть что вам предложить. Ежедневно мы публикуем новые проекты и заказы по вашей специальности. Найдите интересную работу уже сегодня
Сколько проектов для IT-специалистов по профилю data scientist в Москве?
На май 2026 года опубликовано 150 предложений удалённой работы от прямых заказчиков для исполнителей по специализации data scientist
Сколько можно заработать выполняя проекты по data scientist?
Специалисты по профилю data scientist зарабатывают от 0.00 рублей с заказа. Хотите больше? Выполняйте как можно больше заказов и зарабатывайте сколько пожелаете