GBG recrute un Ingénieur BI/ big data.
Description
Missions
- Qualifie, teste, met en production, administre, exploite, supervise et assure le support niveau 2 sur les applications de Business Intelligence, Big data, gestion de la fraude et revenue assurance.
- Assure l’ingénierie sur les outils BI, Fraude et Big data notamment toute activité relative à l’analyse, la conception et le développement.
Activités principales
- Construire et entretenir une connaissance approfondie des données, leurs disponibilités et leur utilisation dans un contexte business.
- Se charger des techniques d’ingestion de données (cartographie fonctionnelle source/cible) structurer les données en modèles compréhensifs (modèles logiques de données).
- S’assurer de l’accès facile des données, de leur pertinence voire exhaustivité
- Pouvoir assister les data Scientiste dans la préparation et le traitement d’ensemble de données dont ils ont besoin pour l’expérimentation.
- Contribuer à la sélection des jeux de données pour proposer des outils de reporting et d’analytiques.
- Coordonner la mise en place de l’architecture big data, conçue par le data Architect : infrastructures et logiciels.
- Participer à la mise en œuvre des use cases analytiques
- Industrialiser les algorithmes de récupération et de traitement des données et les modèles d’intelligence artificielle.
- Effectuer une veille sur les nouvelles technologies et solutions matérielles/logicielles de transport, de traitement et de stockage des données.
- Contribuer à l’évolution des pratiques dans son domaine de compétences, en étant actif dans des réseaux de veille
- Identifier avec l’architecte les sources de données pertinentes pour les uses case data
- Mettre en œuvre les chaines de traitements de données batch et temps réels
- Garantir la cohérence et la fiabilité des données du datalake
- Faire le suivi capacitaire des environnements data et mettre en oeuvre la politique de gouvernance des données
- Traduire les règles de gestion business en KPIs analytiques
Compétences
- Connaissance des distributions Hadoop du marché
- Fortes aptitudes en développement / programmation avec une excellente maîtrise des langages de programmation suivant : Python, Scala, Java, Shell Unix
- Connaissance des technologies de transports de données : Apache NiFi et Kafka
- Maîtrise des techniques de gestion de projet du cahier des charges à la recette utilisateur et son déploiement
- Bonne connaissance des méthodologies agiles
- Bonne compréhension des enjeux business impliquant le traitement des données.
- Connaissance du data for development
Informations supplémentaires
- Avoir une capacité d’analyse et de synthèse
- Avoir une capacité d’adaptation d’organisation et de gestion des priorités
- Avoir une facilité d’adaptation aux nouveaux environnements, un sens de l’autonomie et de l’initiative
Date limite : 28 Janvier 2022.
Commenter