Data Architect - H/F

L'établissement

Le Groupement Régional d’Appui au Développement de la e-Santé (GRADeS) Bourgogne-Franche-Comté est l’opérateur préférentiel de l’Agence Régionale de Santé (ARS) Bourgogne-Franche-Comté pour l’élaboration et la mise en œuvre de la stratégie régionale d’e-santé. Il a vocation à accompagner, promouvoir et déployer l’usage des services numériques en matière de santé sur le territoire à destination des professionnels et des établissements de santé et des structures sociales et médico-sociales.

Avec près de 90 collaborateurs répartis sur les sites de Besançon, Chalon-sur-Saône et Dijon, le GRADeS assure l’assistance à maîtrise d’ouvrage pour le compte de ses adhérents, acteurs de santé dans les domaines sanitaire et médico-sociale et favorise l’innovation et les initiatives territoriales dans le domaine de la e-santé.

Le poste

Dans cet environnement, la direction eParcours a pour rôle la gestion, l’amélioration et la diffusion du programme eTICSS qui est la plateforme régionale de coordination des parcours de santé en Bourgogne–Franche-Comté, visant à décloisonner les prises en charge entre professionnels du sanitaire, médico‑social et social.

Le programme soutient la transformation numérique des e‑parcours, grâce à un bouquet de services facilitant le partage d’informations, la coordination des acteurs et le suivi patient à toutes les étapes du parcours.

Porté par l’ARS et le GRADeS BFC, eTICSS poursuit son développement 2026‑2030 autour d’outils génériques de coordination, de nouveaux parcours orientés prévention et de démarches de responsabilité populationnelle.



Missions principales

Contexte : En tant que Data Architect, vous êtes le garant de la stratégie, de la cohérence et de la qualité des données de la plateforme. Vous concevez les modèles de données complexes et supervisez les flux d'informations entre les différents référentiels et services.

Missions :

·         Modélisation de données : Concevoir et faire évoluer les schémas de base de données pour soutenir les besoins métiers complexes.

·         Gouvernance des référentiels : Définir et gérer les référentiels de données (utilisateurs, patients, structures) pour garantir une "source unique de vérité".

·         Stratégie d'interopérabilité : Piloter la mise en œuvre du standard FHIR et assurer le mapping sémantique entre les données internes et les normes de santé.

·         Architecture des flux : Designer les flux d'échanges de données en temps réel via Kafka (Event Driven Architecture).

·         Qualité et Intégrité : Mettre en place des politiques de nettoyage, de validation et d'archivage des données.

·         Support à la décision : Collaborer avec l’équipe Produit et l’équipe Data pour traduire les besoins analytiques en structures de données exploitables.

 


Profil recherché

Compétences

Expertise Data :

  • Maîtrise avancée de la modélisation SQL (PostgreSQL) et des architectures de bases de données distribuées.
  • Expertise en architecture événementielle et gestion de flux avec Kafka.
  • Connaissance approfondie des standards de santé, particulièrement HL7 FHIR.
  • Maîtrise des outils de Master Data Management (MDM) et de modélisation (ex. : UML, Merise ou outils modernes).

Culture Technique :

  • Compréhension de l'écosystème Java/Spring Cloud pour comprendre comment les services consomment la donnée.
  • Notions de sécurité des données de santé (HDS, RGPD) et gestion des accès via Keycloak.
  • Utilisation des outils de pilotage et documentation technique (Jira, Swagger/OpenAPI).

Savoir être

  • Esprit d'analyse et de synthèse : Capacité à modéliser des concepts métiers abstraits en structures de données logiques.
  • Rigueur extrême : La moindre erreur de modélisation peut impacter l'ensemble de la plateforme et la sécurité des patients.
  • Communication transverse : Savoir dialoguer aussi bien avec les développeurs (implémentation) qu'avec le PO (besoins métiers).
  • Sens de l'organisation : Capacité à gérer des référentiels vastes et à documenter précisément chaque décision architecturale.
  • Pédagogie : Expliquer l'importance de la structure de donnée aux équipes de développement pour éviter la "dette data".


Profil recherché

Formation : Bac+5 (École d'Ingénieurs ou Master spécialisé en Data Management / Big Data) avec une expérience minimum de 11 ans.


Points critiques :

·         Expérience réelle sur des projets impliquant des flux de données à haut débit (Kafka).

·         Idéalement, une expérience passée dans le secteur de la santé ou de la banque (données sensibles et réglementées).

·         Capacité à maintenir une vision long terme de la donnée malgré les urgences de développement à court terme.

Éléments nécessaires pour postuler

Pour valider votre candidature, nous vous demandons de fournir les éléments suivants, vous devrez télécharger les pièces demandées et passer le(s) test(s) directement lors de votre inscription.

Toute candidature incomplète ne sera pas traitée par nos services.

Document(s) :

  • Curriculum Vitæ
  • Dipôme

Evaluation(s) :

  • Personnalité: IPLC court

    Personnalité: IPLC court

    • 50 questions
    • Temps illimité

    Ce test évalue les motivations et les sources de satisfaction au travail. Nous pouvons ainsi connaître votre capacité d'adaptation et votre envie de réussir dans notre milieu professionnel.

Candidature facile