Data Plateform Engineer Socle Big Data - H/F (59)

AvelinCDICadre

Poste

Nous vous proposons un poste en CDI basé sur le site d’Avelin (59) ou de Bobigny (93) ou de Montauban (82)  au sein de la Direction Valorisation des Données Métiers.

Il s’agit d’un poste de concepteur ou d’analyste programmeur (selon le profil) relevant d’une expertise sur les technologies socle et logicielle Big Data, de niveau 5 minimum.

La constitution des équipes iMSA dédiées au Big Data :

Vous travaillerez en appui/collaboration avec les membres de l’équipe : Data scientists, Data analysts, Data Plateform Engineer et leader technique Plateforme Big Data, architectes, acteurs systèmes, réseaux et production dans un environnement DevOps et Agile,  afin d’assurer la fourniture des produits décisionnels, analytiques et IA/ML aux équipes métiers des caisses de la Mutualité Sociale Agricole.

Cela se traduit par l’apport d’expertises techniques autour des briques logicielles et/ou composants de plateformes dites BIG DATA et Décisionnelles, de compétences fonctionnelles centrées sur les métiers de la donnée et ceux de nos utilisateurs (Cotisation, Recouvrement, Prestations famille, Santé, Retraite, …). Nous développons également les sujets de Data Science pour l’institution.

Nos équipes sont réparties sur différents sites géographiques en France : Avelin (59), Bobigny (93), Limoges (87), Ludres (54), Montauban (82) et Tulle (19).

Sur les quatre prochaines années, nous prévoyons un budget prévisionnel d’investissement d’activité d’environ 20 millions d’Euros. 

Les projets sont organisés en mode agile SCRUM et notre cible organisationnelle est un modèle SAFe. Le poste à pourvoir sera rattaché à l’équipe en charge des Socles techniques Big Data.

Principales missions :

Le Data Plateform Engineer BigData ou Ingénieur Socle Big Data est un spécialiste en infrastructures informatiques.  Ses domaines d’expertise sont centrés autour des technologies et plateformes BigData sur les distributions Hadoop d'Hortonworks et de Cloudera et la Stack Elastic.

Il contribue à la qualité de fonctionnement et aux évolutions des équipements informatiques matériels et logiciels de nos plateformes BIG DATA. Il conçoit et met en œuvre les technologies d'infrastructures, dans le respect des normes, des méthodes et de la sécurité qui régissent l'exploitation.

Ainsi, dans le cadre de cette mission :

  • Vous participerez aux études techniques, au choix des solutions à mettre en œuvre ou méthodes dans votre domaine de compétences avec les Architectes Plateforme, les ingénieurs Systèmes et les acteurs de la production,
  • Vous serez force de proposition sur l'adoption de nouvelles technologies et les évolutions possibles à apporter à nos produits,
  • Vous installerez, testerez et mettrez en production les technologies d'infrastructure et les versions  des composants logiciels des plateformes BIG DATA et Elastic,
  • Vous développerez des outils d'administration, d'installation, d'exploitation et de supervision afin d’assurer au maximum l’automatisation du déploiement et l'exploitation des plateformes,
  • Vous rédigerez les manuels d'installation, d'administration et d'exploitation ainsi que les manuels d'utilisation,
  • Vous déploierez les outils de métrologie (charge et performance) et fournirez les indicateurs de mesure et tableaux de bord de suivi des plateformes,
  • Vous contribuerez à la résolution des incidents de niveau 2 et 3 sur les plateformes  afin de garantir le niveau de service attendu par nos utilisateurs dans les meilleurs délais.

Sur la base des retours d’expérience et situations rencontrées, vous proposerez et mettrez en œuvre des plans d’amélioration court et moyen terme du produit conjointement avec les architectes de la Direction,

  • Vous assisterez les développeurs métiers BigData pour optimiser les traitements HDP ou ELK, vous gérerez les ressources (systèmes et logicielles) utilisées par les traitements et vous choisirez le langage de programmation, les API à utiliser…

Profil

De formation supérieure, vous avez acquis une expérience professionnelle de 1 an minimum dans une fonction similaire, sur des technologies et plateformes BIG DATA avec des solutions  open source.

Les compétences techniques dans les domaines suivants vous permettront de réussir dans vos missions :

  • Système Linux, Unix,
  • Les langages de programmation Java, Python, Scala, ksh.
  • Intégration continue avec Jenkins, Maven, SVN, Git
  • Intégrateur de composants logiciels et socles Open Source autour de la data et des écosystèmes Hadoop : Nifi, Sqoop, Kafka, Hive et/ou de la Stack Elastic (ELK)
  • Culture de la veille technologique : containerisation, API,…

La connaissance des distributions HortonsWorks et Cloudera sera fortement appréciée, de même que la connaissance du cadre Agile. 

Vous avez une bonne capacité d’abstraction et faites preuve d’autonomie. Vous êtes rigoureux(se) et impliqué(e) dans les projet et vous savez prendre du recul pour apporter des alternatives de solutions aux problèmes posés.

Ces compétences et  qualités vous permettront de vous intégrer facilement à nos équipes, de partager nos valeurs (respect, coopération et solidarité) et de bénéficier ainsi de la richesse de l’intelligence collective.

iMSA valorise la diversité des profils de ses collaborateurs et favorise l’équité en matière d’emploi.

En tant qu'entreprise handi-accueillante, tous nos postes vacants sont ouverts à toute personne en situation de handicap.

Les candidatures accompagnées d’un CV détaillé et d’une lettre de motivation, sont à adresser avant le 07/02/2022.