Location
Nouvelle Aquitaine | France
Job description
SoyHuCe est le Center of Excellence en data/IA de JAKALA.
Les équipes SoyHuCe combinent les expertises nécessaires à la création de solution data clé-en-main : collecte, traitement, analyse, algorithmie, exploitation, intégration et UX/UI.
SoyHuCe répond ainsi à des cas d"usage variés, dans de multiples secteurs : retail, énergie, loisirs, industrie, assurance, secteur publique, santé….
En pratique les équipes sont principalement basées à Paris et Caen et s"organisent en 3 tribus
- Le Data Lab : expertise en Algorithmie, Data Science & IA avec capacité d"industrialisation ; en lead sur les projets R&D
- La Digital Factory : intégration des innovations dans des solutions web / app et mise à l"échelle auprès des utilisateurs
- Le Customer Success : accompagnement fonctionnel et gestion de projets
Descriptif du poste
Au sein de notre Data Lab, vous travaillerez conjointement avec les Data Scientists, Data Engineers, MLE/MLOps engineer déjà en poste et vous serez impliqué.e dans la prise de décisions liée à notre solution Data et à son évolution.
A cet effet, vous êtes en charge de
- Contribuer au développement de notre offre Data et à l"industrialisation de plateformes data pour nos clients
- Comprendre, analyser et proposer des solutions techniques répondant aux besoins des Plateformes digitales et des projets internes,
- Définir l"architecture logiciel ETL / ELT en collaboration avec vos pairs
- Travailler la donnée sous toutes ses formes (stockage, élaboration de modèles, structuration, nettoyage),
- Rédiger de la documentation technique (diagrammes UML, documentation d"API, …),
- Partager votre savoir-faire entre les différents membres de l"équipe,
- Concevoir et développer des connecteurs entre les sources de données (internes et/ou externes) et la plateforme,
- Concevoir et développer des pipelines de traitements de données (batch et/ou temps réel) dans un environnement Big Data,
- Assurer une veille technologique et savoir mener à bien un projet de R&D
Vous assurez en autonomie les missions suivantes en interne ou auprès de nos clients grands comptes
- Cartographier des données et des flux de données
- Implémenter des algorithmes d"analyse de données pour l"industrialisation
- Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)
- Développer et automatiser des flux de données et leurs visualisations en dashboards, reporting
- S"assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme
- Analyser les données web pour répondre aux questions métiers et participer à la construction de l"architecture Big Data
- Mettre en place du séquencement et de la supervision des flux précitées en gérant les cas limites
Bon niveau en développement
- De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake)
- De script ELT : DBT (ex. Snowflake, PostgreSQL)
- Connaissance conception et administration d"entrepôt de données : Snowflake, Big Query, PostgreSQL
- LakeHouse: Delta Lake
- Connaissance message broker : RabbitMQ, Kafka
- Compétences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform)
- Expérience d"architecture et de dimensionnement d"une architecture cloud via des services managés
- Cartographie des données
Profil recherché
Diplômé·e d"études supérieures dans le système d"information, computer sciences, big data (école d"ingénieurs, école spécialisée ou équivalent universitaire), vous justifiez d"au moins 5 ans en Data engineering.
Vous avez une expertise reconnue sur la mise en place de pipelines complets de valorisation de données massives, de la collecte à la mise à disposition d"applications en passant par le traitement.
La maîtrise de l"anglais est appréciée.
Certification·s indispensable·s : GCP Professionnal Data Engineer OU Azure Data Engineer Associate OU AWS Solution Architect.
Vous êtes passionné·e par votre métier, aimez le faire partager.
Job tags
Salary