Un événement co-produit par
DEV OUTILS SOCLE BIG DATA – H/F
Description
CONTEXTE
Le poste est rattaché à la Factory Cloud et Cybersécurité regroupant les compétences IT de l’entreprise.
Un nouveau pôle est en cours de construction, le CIS : Conception et Industrialisation de Solutions.
Son objectif est de mettre à disposition des ops cloud des outils leur facilitant le déploiement de solutions et automatisant un certain nombre de tâche récurrente.
Le CIS a notamment en charge un outil qui a été développé en interne permettant aux ops cloud de piloter les déploiements de datalake et de leurs arborescences.
Cet outil embarque également des fonctionnalités d’analyser de l’infra existante, gestion des secrets, navigation sur les datalakes … Il adresse aussi bien des besoins Azure que AWS.
LE POSTE
Intégré(e) au sein d’une équipe projet, notre futur collaborateur prend en charge les évolutions de cet outil en fonction des besoins remontés par le PO, il/elle échange, partage avec les ops en charge de construire, déployer l’infrastructure data sur les Cloud Azure & AWS pour les projets BigData de la SNCF.
Il/elle a en charge la maintenance du code actuel afin d’en assurer la MCO.
Il/elle intervient sur tout le cycle de vie du socle en relation avec les OPS et les Architectes :
· Cadrage / définition
· Implémentation / Déploiement
· Gestion opérationnelle et évolutions applicative
Nous avons également de forts besoins autour de développement d’api pour notamment exposer les donnes des datalakes. Le candidat peut donc être amené à évoluer sur ce périmètre.
MISSIONS
La priorité sur ce poste est la reprise du code existant de l’application assistant les cloud ops dans leur mission pour en assurer la MCO :
Monter en compétences sur les fonctionnalités du produit
Monter en compétences sur les chaines de déploiement (Git/Jenkins) de la SNCF
Prendre en main du code et de l’infra l’hébergeant
Pouvoir assurer le déploiement dans Kubernetes
Assurer la MCO (corrections bogues)
Rédiger les documentations
Évolution du code existant
En relation avec le PO, récolter le besoin et l’évaluer la charge
Apporter les modifications et effectuer les tests unitaires
Déployer les modifications en production
Rédaction des documentations
Le candidat sera également sollicité pour d’autres projets nécessitant des compétences fortes en développement (Ex : API Ingestion / exposition de données, wrapper de logs vers datadog … )
LE PROFIL RECHERCHE
Compétences techniques exigées
Connaissance cloud AZURE / AWS fortement recommandée
Connaissance avancée des composants CLOUD relatif aux traitements de la data (IAAS, composants PAAS: HDI, Databricks, ADLS, NIFI, Azure Fonction, ACI, AKS…) serait un plus
Développement avancé :
Voici la liste des techno utilisées :
• Java 11
• SpringBoot
• SDK Azure (Graph / ARM)
• SDK AWS (IAM / S3)
• SQLServer / DynamoDB
• VueJS / TypeScript
• Azure Function / AWS Lambda
• OpenId Connect / Saml
Et l’outillage de base :
• Maven / Jenkins / git / Docker
• Kotlin
Bonne connaissance du développement d’API (rest, …)
Qualités personnelles et compétences fonctionnelles
Capacités relationnelles (travail en équipe, responsabilité, service client, échanges et partage dans la communauté devops)
Capacités rédactionnelles (rédaction de documents d’exploitation projets et de guides de références de developpement)
Faire preuve d’autonomie (responsabilisation sur les projets, capacité à analyser les logs, corréler, debugger pour traiter au mieux les incidents et identifier les root causes ; tout ceci de manière proactive)
Expériences
De formation informatique (bac+5) vous disposez d’une expérience (de 3 à 5 ans minimum ) dans le domaine du développement JAVA sur des projets industrialisés, et plus particulièrement dans le développement des API, dans un contexte cloud et dans l’usage des services clouders.
Localisation
Le poste est basé à Lille préférentiellement, possible sur Saint-Denis.
Télétravail autorisé à hauteur de 3 jours par semaine.
Expérience
Thématique
Nombre de poste à pourvoir
1