Официальный новостной канал криптобиржи OKX | www.okx.com на русском языке.
💬 Комьюнити: t.me/okx_russian
👨💻 Поддержка: [email protected]
АДМИН: @DaniiOKX
Маркетинг: @CoffeeTrends
Last updated 2 weeks, 3 days ago
Here in simple language about TON and crypto
Founder: @metasalience
contact : @deftalk_bot
Last updated 3 months, 2 weeks ago
Канал о TON и все что с ним связано:
1. Аналитика
2. Инсайды
3. Авторское мнение
Ведро для спама: @ton_telegrambot
Бот с курсами криптовалют: @TonometerBot
Чат: @chaTON_ru
Админ: @filimono
Last updated 2 weeks, 5 days ago
Data Engineer
#гибрид #middle
Локация: Екатеринбург
Компания: Т-Банк
*🔹Что у нас есть*
-Участвовать в формировании модели данных
-Проектировать и разрабатывать витрины и потоки данных на основе потребностей бизнес-пользователей
-Участвовать в проектах по развитию Data Platform
-Писать скрипты SQL и Python, это опционально
-Прорабатывать интеграции с внешними системами для Data Platform
🔹Ожидания от кандидата
-Свободно владеете SQL
-Работали с базами данных в качестве аналитика или разработчика минимум 2 года
-Понимаете теорию СУБД- и ETL-процессов
-Есть опыт проектирования объектов БД на основании бизнес требований
🔹Условия работы
-Возможность работы в аккредитованной ИТ-компании
-Работу в офисе. График работы — гибридный
-Платформу обучения и развития Т-Банк Апгрейд. Курсы, тренинги, вебинары и базы знаний. Поддержка менторов и наставников, помощь в поиске точек роста и карьерном развитии
-Заботу о здоровье. Оформим полис ДМС со стоматологией и страховку от несчастных случаев. -Предложим льготное страхование вашим близким
-Компенсацию такси и затрат на спорт
-Компенсацию обедов. А если захотите перекусить, есть кухня с чаем, кофе и фруктами
-Достойную зарплату — обсудим ее на собеседовании
Контакты: [email protected]
⬇️ Другие каналы IT-вакансий:
@best_itjob
@it_rab
Data Engineer
#удаленка #middle #senior
Компания: Авиасейлс
*🔹Наш стек*: Spark, Trino, AWS S3, DeltaLake format, DBT, Kafka, Airbyte, Apache Airflow, DataHub.
— тестирование и сборка производятся на CI сервере (Jenkins). Также присутствует Terraform. Деплой в Kubernetes(EKS в AWS). Настройкой серверов и разворачиванием баз мы не занимаемся. Это делает отдельная команда инфраструктуры.
В нашу дружную команду нужен начинающий дата инженер, который в ближайшей перспективе будет сфокусирован на задачах, связанных с поддержкой работоспособности дата платформы и главного продукта компании
🔹Что нужно будет делать:
— активно участвовать в командном чате: отслеживать запросы, оперативно реагировать на вопросы и задачи в рабочее время;
— мониторить системы и решать возникающие инциденты вместе с дежурными дата инженерами;
— оптимизировать текущие процессы обработки данных;
— модернизировать текущую дата платформу вместе с Core командой дата инженеров.
*🔹Что мы ждем от тебя:
— опыт работы инженером данных или Python разработчиком в продуктовой компании от 1 года;
— знание языков программирования: Python/SQL (обязательно), опыт работы с другими языками будет плюсом;
— понимание принципов ETL/ELT процессов и опыт работы с инструментами;
— понимание того, как работают распределенные вычисления;
— опыт работы в нашем стеке (Apache Spark, Apache Airflow, DBT, Trino) будет плюсом;
— cамостоятельность и ответственность, умение коммуницировать с разными командами и людьми.
*🔹Как мы работаем:
— в любой точке мира: не привязываемся к локации, платим в долларах, любим путешествовать;
— без бюрократии: удобные процессы здорового человека, горизонтальные и открытые коммуникации, быстрое обсуждение идей и принятие решений;
— компенсируем: ДМС, психотерапию или иностранные языки, занятия спортом и больничный;
— на райском острове: можно работать на Пхукете с видом на океан.
Контакты**: https://www.aviasales.ru/about/vacancies/3863353
⬇️ Другие каналы IT-вакансий:
@best_itjob
@it_rab
Data Engineer
#удаленка #400k #middle #senior #400k
Компания: БизнесМатика
ЗП: от 200 000 до 450 000₽
🔹Задачи:
— Моделирование и обработка данных на Python;
— Проработка архитектуры разрабатываемых решений;
— Анализ данных, выявление зависимостей и потенциала для развития моделей;
🔹Требования:
— Опыт промышленной разработки на Python;
— Опыт работы с Apache Spark
— Опыт работы c Postgres, наличие опыта с оптимизационными проблемами
— Опыт работы с Clickhouse (наличие опыта с оптимизационными и инфраструктурами проблемами, понимание внутреннего устройства clickhouse -как работает, как реплицирует, какие есть основные движки и прочее).
— Понимание процессов ci/cd
— Опыт с pytest (желательно иметь в копилке TDD опыт)
— Опыт работы с cloud инфраструктурой (Yandex, aws и тд)
🔹Условия:
— Полная занятость, оформление по ИП, СЗ.
— Возможность работы удаленно, в том числе и за пределами РФ;
— Участие в быстром росте компании, работающей на перспективном AI рынке;
Контакты: @ewafin
⬇️ Другие каналы IT-вакансий:
@best_itjob
@it_rab
Data Engineer
#гибрид #300k
Опыт работы: 3–6 лет
Локация: Москва
Компания: LIAN
ЗП: от 280 000 до 300 000 ₽
*☑️Обязанности*:
-Построение корпоративного хранилища данных (КХД) по методологии Data Vault 2.0 на базе Arenadata DB (Greenplum);
-Разработка и поддержка интеграционных потоков c различными источниками данных Informatica PowerCenter (Developer), Airflow, Apache NiFi;
-Участие в оптимизации/автоматизации процесса разработки, подготовке шаблонов и методик, проектной документации;
-Апробация новых инструментов разработки и систем в рамках развития КХД;
-Обеспечение непрерывной работы хранилища данных.
☑️Требования:
Обязательно:
-опыт с Greenplum, NiFi, построение продажных витрин (сложные отчеты, воронки, показатели), Data Vault 2.0;
-Опыт разработки ETL потоков в ETL инструменте, включая задачи анализа и оптимизация ETL процессов;
-Опыт работы с базами данных MSSQL (либо Oracle, DB2, PostgreSQL), написания сложных SQL запросов и оптимизации производительности;
-Понимание схемы проектирования хранилищ данных по различным методологиям (Data Vault, Anchor Modeling и т.д.);
-Опыт работы с высоконагруженными системами;
-Опыт формирования технических спецификаций на разработку;
-Английский язык на уровне чтения технической документации.
☑️Плюсом будет опыт работы с:
ETL Informatica PowerCenter;
· Greenplum или подобными MPP решениями (Teradata, Exadata, Vertica и т.д.);
· экосистемой Hadoop;
· Data Governance инструментарием;
· промышленным CASE–средством (Erwin либо Power Designer, IBM Data Architect, Sparx Systems Enterprise Architect и т.п.);
· Python, Java, С#
☑️Условия:
-Участие в интересных масштабных проектах с -Заказчиками федерального и международного уровня
-Работа с передовыми технологиями
-Возможности профессионального и карьерного роста
-Гибридный формат работы в комфортном офисе в Москве;
-Форма трудоустройства на ваш выбор: по трудовому договору, договору оказания услуг с ИП или самозанятым
Регулярная и достойная оплата труда
Контакты: [email protected]
⬇️ Другие каналы IT-вакансий:
@best_itjob
@it_rab
Data Engineer
#релокация #200k
Опыт работы: 1–3 года
Локация: Батуми
Компания: Inovis
ЗП: от 1 300 до 2 000 $
*☑️Обязанности*:
-Построение data pipeline в ETL из разных источников данных такие как: CRM, ERP, так же API i т.д.
-Понимания методологии построения BI систем и Data Warehouse
-Построение дашбордов в разных BI инструментах
-Построения обработки, агрегации данных в SQL(процедуры, функции)
☑️Требования:
1.Аналитический склад ума
2.Коммуникабельность и умение работать в команде
3.Уровень английского - Intermediate
4.С опытом работы от года с:
a.BI инструменты: Power BI Desktop, Power BI Paginated Report Builder, Tableau, Qlik Sense, SSRS
b.ETL инструменты: Apache Nifi, Apache Airflow, Apache Spark, Microsoft SQL Server Integration Services (SSIS)
c.Языки программирования(только написание через API процесс загрузки/передачи данных): Python, .NET
d.Базы данных: MS SQL, Postgresql, Mysql, Mongo, Clickhouse и т.д.
5.Git
6.Postman
Обязательно иметь опыт хотя бы с одним из инструментов описаных в каждой строчки(a, b, c, d) в 4 пункте,
Пункты 5 и 6 не обязательны
☑️Что мы предлагаем:
1. Интересная работа в крупной международной компании;
2. Работа с клиентами из разных сфер;
3. Карьерный рост;
4. Конкурентная заработная плата с возможностью постоянного роста;
5. Бонусом различные онлайн курсы (английский язык, различные инструменты разработки).
- РАССМАТРИВАЕМ КАНДИДАТОВ ГОТОВЫХ ПЕРЕЕХАТЬ ЗА ГРАНИЦУ!
Контакты: olgabalabanova.in@gmail.com
Другие каналы IT-вакансий:
@best_itjob
@it_rab
Data Engineer (Sales Technologies)
#удаленка #middle #senior
Компания: Т-Банк
*🔹Обязанности*
1. Разработка ETL процессов с использование инструментов платформы данных Т‑Банка — Apache Airflow, Apache NiFi, Apache Flink
2. Разработка и оптимизация пайплайнов обучения и инференса ML моделей при помощи Airflow
3. Разработка и поддержка потоковой обработки данных — Apache Flink
4. Аудит и оптимизация процессов работы с данными
5. Анализ и подготовка данных для построения отчетности и обучения ML моделей — Clickhouse, Apache Superset
🔹Требования
1. Умение работать с данными (SQL).
2. Знание принципов построения DWH и стандартов архитектуры.
3. Знание архитектуры Greenplum, Hadoop и Clickhouse, умение оптимизировать запросы в этих системах.
4. Умение работать с ETL инструментами Apache Airflow, Apache NiFi, Apache Flink.
5. Python — pandas, numpy.
6. Аналитическое мышление.
7. Системный подход.
8. Опыт работы или желание развиваться в направлении ML будет большим преимуществом.
🔹Мы предлагаем
-Работу в офисе или удаленно — по договоренности
-Возможность работы в аккредитованной ИТ-компании
-Платформу обучения и развития «Т‑Банк Апгрейд». -Курсы, тренинги, вебинары и базы знаний. Поддержку менторов и наставников, помощь в поиске точек роста и карьерном развитии
-Заботу о здоровье. Оформим полис ДМС со стоматологией и страховку от несчастных случаев. Предложим льготное страхование вашим близким
-Бесплатный фитнес-зал или компенсацию затрат на спортивные занятия
-3 дополнительных дня отпуска в год
-Уникальную well-being-программу, направленную на физическое и ментальное благополучие сотрудников
-Достойную зарплату — обсудим ее на собеседовании
Контакты: https://www.tbank.ru/career/it/dwh/data-engineer-sales-technologies/
⬇️ Другие каналы IT-вакансий:
@best_itjob
@it_rab
Data Engineer (DWH)#удаленка#200k
Требуемый опыт работы: 3–6 лет
Компания: Excdev
ЗП: от 200 000 ₽
*🔹Чем предстоит заниматься:*
-Разработка, тестирование и оптимизация ETL процессов для загрузки данных в DWH.
-Интеграция данных из различных источников (ERP, Web API) с использованием Apache Airflow.
-Разработка и поддержка потоков данных с использованием Kafka.
-Парсинг данных из интернета, их очистка и нормализация для использования в DWH.
-Работа с PostgreSQL и ClickHouse для хранения и обработки данных.
-Автоматизация процессов обработки данных и обеспечение их надежности.
-Участие в проектировании архитектуры DWH и поддержка существующих решений.
-Взаимодействие с командами аналитиков и BI для обеспечения корректности данных.
🔹Наши ожидания от кандидата:
-Высшее математическое или техническое образование;
-Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов;
-Опыт разработки ETL процессов и работы с инструментами ETL (например, Apache Airflow).
-Глубокие знания SQL и опыт работы с реляционными базами данных (PostgreSQL).
-Опыт работы с ClickHouse и понимание его архитектуры.
-Опыт работы с Apache Kafka для интеграции и передачи данных.
-Навыки парсинга данных из интернета (например, с использованием Python, BeautifulSoup,Scrapy).
-Знание принципов и практик управления данными и архитектуры DWH.
-Опыт работы с большими данными и понимание их особенностей.
-Навыки оптимизации производительности запросов и процессов.
🔹Будет огромным плюсом:
-Опыт работы с инструментами BI (Superset, Power BI, Tableau).
-Опыт работы с Python и знание его экосистемы для работы с данными.
-Опыт работы в среде DevOps и облачных технологиях (AWS, GCP, Azure).
🔹Условия:
-удаленный формат работы,5/2 с 10.00 до 19.00 по московскому времени;
-возможность работать из любого города или из любой страны;
Контакты: [email protected]
⬇️ Другие каналы IT-вакансий:
@best_itjob
@it_rab
Middle Data Engineer
#уделенка #middle #200k
Требуемый опыт работы: 3–6 лет
Компания: FESCO
ЗП: от 240 000 ₽
*🔹Если ты:*
любишь разбираться в архитектуре хранилищ данных и интеграционных процессах,
ценишь чистоту, простоту и понятность в данных и программном окружении,
понимаешь, как данные встраиваются в процесс принятия решений и готов показать это другим
тогда наша команда для тебя!
🔹Мы предлагаем:
-Работу в крупнейшей транспортно-логистической компании в России
-Трудоустройство в аккредитованную IT-компанию Сервисный центр ФЕСКО
-Возможность удаленной работы
-Официальное оформление, социальный пакет
-Квартальную премию по результатам работы
-ДМС, включая стоматологию
-Активную корпоративную жизнь, скидки на абонементы в спортивные комплексы
-Корпоративное обучение
-График работы 5/2 (с 8:00 до 17:00, с 9:00 до 18:00, с 10:00 до 19:00, в пятницу до 16:45)
🔹Основные задачи:
-Участие в проектировании архитектуры хранилища
-Реализация интеграции с различными источниками данных (RDBMS, API, файлы и т.д.)
-Моделирование слоев хранилища данных
-Разработка ELT-пайплайнов
-Проведение code review
🔹Мы ожидаем
-Опыт построения аналитического хранилища данных
-Опыт моделирования данных (разные слои данных)
-Уверенное знание Python
-Углубленное знание SQL
-Комплексное понимание архитектуры аналитических решений
-Понимание работы различных СУБД (SQL/NoSQL, OLTP/OLAP) и современной IT--инфраструктуры (Infrastructure as code, контейнеризация, облачные решения)
-Понимание подходов к организации процессов разработки (CI/CD, DevOps)
-Понимание принципов data governance, основ управления качеством данных, подхода "данные, как продукт"
Контакты: [email protected]
⬇️ Другие каналы IT-вакансий:
@best_itjob
@it_rab
Data Engineer
#гибрид #300k
Опыт работы: 3–6 лет
Локация: Москва
Компания: LIAN
ЗП: от 280 000 до 300 000 ₽
*☑️Обязанности*:
-Построение корпоративного хранилища данных (КХД) по методологии Data Vault 2.0 на базе Arenadata DB (Greenplum);
-Разработка и поддержка интеграционных потоков c различными источниками данных Informatica PowerCenter (Developer), Airflow, Apache NiFi;
-Участие в оптимизации/автоматизации процесса разработки, подготовке шаблонов и методик, проектной документации;
-Апробация новых инструментов разработки и систем в рамках развития КХД;
-Обеспечение непрерывной работы хранилища данных.
☑️Требования:
Обязательно:
-опыт с Greenplum, NiFi, построение продажных витрин (сложные отчеты, воронки, показатели), Data Vault 2.0;
-Опыт разработки ETL потоков в ETL инструменте, включая задачи анализа и оптимизация ETL процессов;
-Опыт работы с базами данных MSSQL (либо Oracle, DB2, PostgreSQL), написания сложных SQL запросов и оптимизации производительности;
-Понимание схемы проектирования хранилищ данных по различным методологиям (Data Vault, Anchor Modeling и т.д.);
-Опыт работы с высоконагруженными системами;
-Опыт формирования технических спецификаций на разработку;
-Английский язык на уровне чтения технической документации.
☑️Плюсом будет опыт работы с:
ETL Informatica PowerCenter;
· Greenplum или подобными MPP решениями (Teradata, Exadata, Vertica и т.д.);
· экосистемой Hadoop;
· Data Governance инструментарием;
· промышленным CASE–средством (Erwin либо Power Designer, IBM Data Architect, Sparx Systems Enterprise Architect и т.п.);
· Python, Java, С#
☑️Условия:
-Участие в интересных масштабных проектах с -Заказчиками федерального и международного уровня
-Работа с передовыми технологиями
-Возможности профессионального и карьерного роста
-Гибридный формат работы в комфортном офисе в Москве;
-Форма трудоустройства на ваш выбор: по трудовому договору, договору оказания услуг с ИП или самозанятым
Регулярная и достойная оплата труда
Контакты: [email protected]
⬇️ Другие каналы IT-вакансий:
@best_itjob
@it_rab
Middle+/Senior Data Engineer [Process Discovery]
#удаленка #офис #middle #senior
Компания: МТС
*🔹Что нужно делать*
-разрабатывать и поддерживать пайплайны загрузки данных (настройка интеграций, обработка данных)
-разрабатывать DQ проверки для всего цикла ETL на python
-разрабатывать и поддерживать витрины и модели данных в СУБД SAP Hana, строить витрины в Greenplum DB
-применять различные конструкции языка SQL (оконные функции, функции агрегации, CTE, процедуры, SAP Hana docstore для обработки json, чтение и оптимизация планов запросов)
-cтроить аналитические отчеты процесса (Дашборды).
🔹Кого мы ищем
-опыт коммерческой разработки на позиции DE от 3 лет
-уверенный Python и SQL
-опыт работы c MPP DB (Greenplum, Clickhouse, Vertica и тд)
-опыт работы с Docker и Airflow.
🔹Что предлагаем
-собственную платформу MTS Ocean для получения ИТ-ресурсов, а это значит, что деплой, мониторинг, observability - не будут для вас проблемой, вы сможете сосредоточиться на фичах
-профессиональные гильдии инженеров по направлениям, чтобы поддерживать друг друга и обмениваться опытом
-внутреннюю площадку TechTalks для обмена опытом, дискуссий, развития навыков самопрезентации
-участие во внешних IT конференциях. Мы выступаем на HighLoad++, DataFest, Mobius, Test Driven Conf, Joker, DevOps, Матемаркетинг и даже проводим собственную конференцию по архитектуре Hello, conference! полезные курсы и вебинары в корпоративном университете и электронные библиотеки
-медицинскую страховку с 1 месяца со 100% покрытием расходов, включая стоматологию, страхование жизни и здоровья в поездках за рубеж. А еще можно застраховать родственников с корпоративной скидкой
-доступ к сервису «Понимаю»: онлайн-консультации с психологом, юристом, экспертом по финансам или ЗОЖ
-корпоративный и командный психолог в офисе и массажный кабинет
-единую подписку МТС Premium — KION light в онлайн-кинотеатре KION, сервис МТС Music, 30 дней бесплатного пользования подпиской OZON Premium.
Контакты: https://job.mts.ru/vacancy/middlesenior-data-engineer-process-discovery-430710631126010330
⬇️ Другие каналы IT-вакансий:
@best_itjob
@it_rab
Официальный новостной канал криптобиржи OKX | www.okx.com на русском языке.
💬 Комьюнити: t.me/okx_russian
👨💻 Поддержка: [email protected]
АДМИН: @DaniiOKX
Маркетинг: @CoffeeTrends
Last updated 2 weeks, 3 days ago
Here in simple language about TON and crypto
Founder: @metasalience
contact : @deftalk_bot
Last updated 3 months, 2 weeks ago
Канал о TON и все что с ним связано:
1. Аналитика
2. Инсайды
3. Авторское мнение
Ведро для спама: @ton_telegrambot
Бот с курсами криптовалют: @TonometerBot
Чат: @chaTON_ru
Админ: @filimono
Last updated 2 weeks, 5 days ago