Ищем опытного аналитика данных. Если вы в поиске работы в стабильной компании с духом стартапа, приглашаем в нашу команду!
Чем предстоит заниматься:
- Разработка, тестирование и оптимизация ETL процессов для загрузки данных в DWH.
- Интеграция данных из различных источников (ERP, Web API) с использованием Apache Airflow.
- Разработка и поддержка потоков данных с использованием Kafka.
- Парсинг данных из интернета, их очистка и нормализация для использования в DWH.
- Работа с PostgreSQL и ClickHouse для хранения и обработки данных.
- Автоматизация процессов обработки данных и обеспечение их надежности.
- Участие в проектировании архитектуры DWH и поддержка существующих решений.
- Взаимодействие с командами аналитиков и BI для обеспечения корректности данных.
Наши ожидания от кандидата:
- Высшее математическое или техническое образование;
- Минимум 3 года опыта работы в управлении данными, инжиниринге данных или анализе данных в сфере веб и/или мобильных продуктов;
- Опыт разработки ETL процессов и работы с инструментами ETL (например, Apache Airflow).
- Глубокие знания SQL и опыт работы с реляционными базами данных (PostgreSQL).
- Опыт работы с ClickHouse и понимание его архитектуры.
- Опыт работы с Apache Kafka для интеграции и передачи данных.
- Навыки парсинга данных из интернета (например, с использованием Python, BeautifulSoup,Scrapy).
- Знание принципов и практик управления данными и архитектуры DWH.
- Опыт работы с большими данными и понимание их особенностей.
- Навыки оптимизации производительности запросов и процессов.
Будет огромным плюсом:
- Опыт работы с инструментами BI (Superset, Power BI, Tableau).
- Опыт работы с Python и знание его экосистемы для работы с данными.
- Опыт работы в среде DevOps и облачных технологиях (AWS, GCP, Azure).
Условия:
- удаленный формат работы,5/2 с 10.00 до 19.00 по московскому времени;
- возможность работать из любого города или из любой страны;