L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 815 résultats.
Mission freelance
Data Analyst - confirmé - freelance - Rouen H/F
Publiée le
1 mois
75010, Paris, Île-de-France
Télétravail partiel
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : TJ en fonction de votre expertise sur un poste similaire Prise de poste ASAP Freelance / Portage 3 mois renouvelable Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Développeur senior Python/Full-stack spécialisé agents IA
Publiée le
CI/CD
DevOps
IA
12 mois
400-620 €
Île-de-France, France
Télétravail partiel
Compétences techniques : Dev Agent IA - Expert - Impératif PYTHON - Confirmé - Important DEVOPS - Confirmé - Important Description détaillée : Pour renforcer l'équipe GEN IA, nous recherchons un développeur sénior full stack ou python ayant déjà une forte expérience dans le développement d'agent IA à travers google ADK ou Microsoft IA fondery ou autre plateforme de développement d'agent IA. L'équipe a pour role de : - de définir et mettre en place la stratégie Agentic IA au sein de TF1 - développer des POC sur des uses cases métiers à forte valeur Le développeur doit avoir une bonne connaissance du fonctionnement des LLM et de l'agentic Env Tech : Azur ( OpenAI) , AWS ( claude, bedreocl, ..) , AKS/EKS Connaissance de AzDEVOPS, pipeline CI/CD À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures orientées Web Fullstack.
Mission freelance
Data Engineer Kafka/JAVA
Publiée le
Apache Kafka
Java
Spark Streaming
4 mois
Paris, France
TEKsystems recherche pour le compte de son client dans le secteur de l'assurance : Un data engineer Spark/ JAVA (H/F) Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs. Contexte: Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe. Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle Les principaux déclaratifs concernés sont les suivants : • FICOVIE • EAI / FATCA • IER • ECKERT •AGIRA / RNIPP Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data. La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Offre d'emploi
Product owner IA (H/F)
Publiée le
IA
1 an
45k-55k €
370-500 €
Nantes, Pays de la Loire
Télétravail partiel
Nous poursuivons activement notre développement et recherchons actuellement un(e) Product Owner (H/F) pour intervenir chez l’un de nos clients stratégiques. Ce poste s’inscrit dans un contexte à forte valeur ajoutée, au cœur de projets innovants liés à l’intelligence artificielle. Contexte et missions : Dans le cadre du développement, du maintien en production et du suivi de produits IA stratégiques, vous serez responsable du pilotage fonctionnel et opérationnel de plusieurs solutions basées sur l’intelligence artificielle. Vous interviendrez sur l’ensemble du cycle de vie des produits, depuis l’identification et la formalisation des besoins utilisateurs jusqu’au déploiement et à l’amélioration continue des solutions en production.
Offre d'emploi
Analyste DATA - Prévoyance Santé
Publiée le
Cognos
Dataiku
DSS
1 an
10k-45k €
100-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Présence chaque matin dès 8h00 sur TOURS. Data & analytics a une activité d’exploitation et de supervision de traitements (récurrents ou non) qui nécessite de venir renforcer l’équipe existante. · Il s’agit notamment de : · Superviser les traitements, en assurer la veille et la communication, · Gérer les incidents et interagir avec les clients internes/externes, · Créer et maintenir la documentation opérationnelle, la cartographie des sources, des · Données et leur utilisation · Optimiser des traitements (SQL, SAS, Dataiku) · Effectuer un 1er niveau d’analyse et de correction en cas d’anomalie · Venir en support du reste de l’équipe · Avoir une bonne relation et communication avec le client Livrables attendus : · Mise à disposition des livrables métiers · Communication adaptée et réactivité · Mise à jour de la documentation Périmètre de l’intervention : Les technologies à utiliser seront particulièrement SAS (jusqu’au 31/12/2026), SqlDeveloper et Dataiku . Une connaissance de Cognos est un plus.
Offre d'emploi
Chef de Projets / PMO - Delivery IA (H/F)
Publiée le
IA
Pilotage
75015, Paris, Île-de-France
Télétravail partiel
Secteur Télécommunications - contrat CDI Contexte : Une direction SI dédiée à la modernisation, à la Data et à l’IA cherche à renforcer son pôle de pilotage de projets. Après plusieurs jalons atteints en 2025 – structuration du processus d’identification des cas d’usage IA, mise en place d’une plateforme Cloud commune, premières solutions IA déployées – l’objectif 2026 est d’accélérer l’industrialisation et la diffusion des produits IA au sein des processus métiers. Pour soutenir cette montée en puissance, une mission de pilotage de projets et de PMO est ouverte. Objectif de la prestation : La mission vise à assurer le pilotage complet de projets et expérimentations IA , ainsi que l’animation du portefeuille Delivery IA . Périmètre de la prestation : Pilotage de projets / expérimentations Supervision des prestations partenaires (le cas échéant) Pilotage des activités sous responsabilité interne : validation des livrables, préparation des environnements et jeux de données Planification et coordination de l’ensemble du cycle projet : étude, développement, intégration, tests, déploiement Organisation et animation des travaux avec les équipes Métiers et les équipes SI Mise en place de la gouvernance, reporting opérationnel et consolidation de l’avancement Activités PMO Animation des revues de portefeuille Delivery IA Organisation des ateliers d’arbitrage, d’analyse ou de priorisation Mise en place et mise à jour d’un reporting complet et partagé Livrables attendus : Roadmaps produits / projets Suivi d’avancement, plans d’actions, reporting régulier Animation du portefeuille IA (revues, communications, priorisation) Releases et livrables projet selon les jalons définis
Offre d'emploi
Data Ingénieur (30)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Mission freelance
Data Analyst Senior Sur Meudon
Publiée le
SQL
4 mois
Meudon, Île-de-France
Télétravail partiel
• Assurer la production et la fiabilité des indicateurs de performance métier • Garantir la continuité des activités Data • Apporter un leadership technique et méthodologique • Structurer les pratiques de l’équipe et accompagner la montée en compétence • Participer à la coordination et au pilotage des chantiers Data Missions principales • Qualification des besoins métiers lors des points de revue • Priorisation et planification des travaux Data (sprints bimensuels) • Production des indicateurs dans les délais engagés • Validation de la conformité des livrables avec les attentes métiers • Délégation et supervision d’une partie des travaux auprès des Data Analysts internes • Consolidation et reporting de l’avancement des travaux (directs et délégués) • Accompagnement de l’équipe sur : – les méthodes de travail – les nouvelles pratiques Data – l’intégration de l’IA dans les métiers
Mission freelance
Business Analyst Sénior - Risk Data
Publiée le
Business Analyst
3 ans
400-500 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Groupe international spécialisé dans le financement B2B (équipements et immobilier) recherche un(e) Business Analyst pour rejoindre une organisation IT en mode Agile (Squad/Tribe) , dans un contexte octroi / étude de risque . Dans le cadre d’une roadmap 2026 , la mission porte sur des évolutions liées à la collecte et la structuration des données de connaissance client (KYC) et de données fournisseurs , autour de deux applications internes de type référentiel et plateforme d’acquisition . Mission Intégration d’une squad en charge des sujets Risk Data / référentiels Participation aux cérémonies Agile (Sprint Planning, Daily, Review, Rétro…) Identification et coordination des parties prenantes métier / IT / tests Analyse et formalisation des besoins avec le Product Owner Rédaction de l’expression de besoin et validation métier Rédaction des user stories et des critères d’acceptation Réalisation de mapping de données et contribution à la mise en place d’ APIs Participation aux tests et accompagnement du métier sur la recette / UAT Vérification de la conformité de la solution livrée vs besoin métier Contribution à la documentation, formation utilisateurs et conduite du changement Profil recherché Expérience en tant que Business Analyst / Analyste fonctionnel / AMOA Bonne maîtrise des environnements Agile / Scrum À l’aise sur les sujets data / mapping / référentiels / APIs Expérience en recette / tests utilisateurs (UAT) Bon relationnel et capacité à faire le lien entre métier et équipes techniques
Mission freelance
Data LLM Engineer - (H/F)
Publiée le
Large Language Model (LLM)
Machine Learning
Python
12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets innovants autour de l’Intelligence Artificielle et plus particulièrement des Large Language Models (LLM) , nous recherchons un Data LLM Engineer pour rejoindre une équipe spécialisée dans la mise en place de solutions IA génératives. Missions Concevoir, développer et optimiser des pipelines de données adaptés à l’entraînement et au fine-tuning de modèles LLM. Participer à la préparation, la structuration et l’étiquetage de jeux de données massifs et hétérogènes. Intégrer et déployer des modèles de langage dans des environnements de production. Mettre en place des mécanismes d’évaluation, monitoring et amélioration continue des performances des modèles (metrics, hallucinations, biais, robustesse). Collaborer étroitement avec les Data Scientists, MLOps et Software Engineers pour industrialiser les solutions IA. Assurer une veille technologique sur les dernières avancées en NLP, LLM et IA générative.
Mission freelance
Data Engineer (H/F) - 56
Publiée le
Spark Streaming
SQL
1 an
370-510 €
Vannes, Bretagne
Télétravail partiel
Context Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Mission * Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers * Mettre en œuvre les tests unitaires et automatisés * Déployer le produit dans les différents environnements * Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents * Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Offre d'emploi
Data Engineer - CDI
Publiée le
Azure
Databricks
DBT
Paris, France
Télétravail partiel
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Mission freelance
Clinical Data Management
Publiée le
18 mois
600 €
Courbevoie, Île-de-France
Responsabilités : Diriger et/ou participer à une équipe spécialisée ou à une équipe de bonnes pratiques globales ou locales. Communiquer les enseignements tirés et/ou intervenir lors d'ateliers CDM. Participer au développement et à la mise en œuvre de nouvelles technologies ou outils. Présenter lors de conférences professionnelles et/ou publier des articles dans des revues spécialisées. Examiner et contribuer à l'élaboration, la révision et la maintenance des procédures opérationnelles et instructions de travail. Effectuer d'autres tâches selon les directives du responsable fonctionnel. Servir de point de contact principal pour le client concernant les livrables de gestion des données. Fournir une expertise en gestion de projet en collaborant avec les data managers du client, les décideurs clés et les membres internes pour gérer les améliorations continues, l'escalade des problèmes, les projections de charge et apporter une expertise technique. Justifier et mener des négociations directes avec le client (délais, finances, processus, ressources). Maintenir des relations solides avec le client. Maintenir les dossiers d'étude de gestion des données en état d'audit. Assurer une communication ouverte avec le client et la direction IQVIA pour respecter les obligations contractuelles. Rencontrer régulièrement le Data Operations Coordinator (DOC) et/ou les membres de l'équipe Data Operations pour garantir le respect des jalons et des livrables de qualité. Établir une communication solide avec l'équipe Data Operations, les responsables fonctionnels, les chefs de projet et toutes les parties prenantes. Servir de point d'escalade pour les problèmes de données non résolus ; travailler avec les data managers du client, les fournisseurs et l'équipe interne pour les résoudre. Collaborer avec les responsables fonctionnels pour garantir l'affectation des ressources appropriées afin de respecter les livrables du projet. Créer et/ou examiner et approuver tous les documents du plan de gestion des données (DMP). Garantir que le service et la qualité respectent les spécifications convenues dans le DMP et le contrat/SOW. Mettre en œuvre des plans proactifs de gestion de la qualité sur plusieurs projets/programmes. Suivre la performance des services et fournir un leadership pour identifier les causes profondes des problèmes et mettre en œuvre des actions correctives. Rechercher continuellement des opportunités d'amélioration ; travailler avec l'équipe pour développer et mettre en œuvre un plan de réorganisation et de changement sur plusieurs projets/programmes (avec un soutien minimal). Assurer un suivi et une résolution rapides des problèmes de conformité. Fournir leadership et expertise dans une tâche ou technologie CDM spécifique. Former et encadrer les DTL juniors en expertise DM. Coordonner éventuellement le travail des DTL juniors. Maintenir les bases de données et systèmes internes de suivi. Garantir que le service et la qualité respectent les délais et livrables convenus dans le contrat/SOW. Examiner les rapports financiers mensuels et participer aux revues de projet si demandé. Identifier les tâches hors périmètre et suivre les ordres de changement jusqu'à leur achèvement. Assumer le rôle de chef de projet pour des projets DM à service unique, y compris le suivi financier, la reconnaissance des revenus et la facturation. Apporter des solutions de manière autonome à l'équipe CDM/département CDM. Diriger et/ou participer à une équipe spécialisée ou à une équipe de méthodologie standard globale ou locale.
Offre d'emploi
Consultant fonctionnel ServiceNow (H/F)
Publiée le
ITSM
ServiceNow
3 ans
38k-55k €
340-450 €
Île-de-France, France
Télétravail partiel
Rejoignez-nous ! Aujourd’hui, nous recherchons un(e) Consultant fonctionnel ServiceNow pour intervenir sur un projet clé chez l’un de nos clients grands comptes. Ce que vous ferez : En tant que Consultant Fonctionnel ServiceNow , vous interviendrez sur des projets variés, de la gestion opérationnelle à l’accompagnement de grands programmes de transformation digitale. Vos missions pourront inclure : Animation d’ateliers avec les utilisateurs et la MOA Analyse des besoins métiers et rédaction des spécifications fonctionnelles Conception de solutions adaptées en respectant les bonnes pratiques ITIL et ServiceNow Suivi des développements avec la MOE et coordination avec les équipes internes Tests, recettes et accompagnement au déploiement en production Rédaction de documentation et support utilisateur Participation à des projets innovants sur de nouveaux modules (ITSM, CSM, HR, ITBM, FSM, WSD…) Votre positionnement vous permettra d’accompagner les équipes métiers dans l’optimisation de leurs processus via ServiceNow et de jouer un rôle clé dans la conduite de projets stratégiques de transformation digitale.
Offre d'emploi
Senior Data Engineer
Publiée le
180k-195k $US
États-Unis d'Amérique
We are looking a Senior Data Engineer Work with a leading generative AI company in healthcare. Why Join Our Team Why Join Our Team Reinvent healthcare with AI that puts safety first. Work with the people shaping the future. Backed by the world’s leading healthcare and AI investors. Build alongside the best in healthcare and AI. Location- Palo Alto, CA office. We believe the best ideas happen together. To support fast collaboration and a strong team culture, this role is expected to be in our Palo Alto office five days a week, unless otherwise specified. Benefits: 401 k, Equity, Lunch provided (On site job) Data is the backbone of everything we build — from our voice-based generative healthcare agents to the systems that ensure their clinical safety and reliability. We’re looking for data engineers who thrive at the intersection of data systems, security, and scalability to design the infrastructure that powers safe AI deployment across healthcare environments. As part of the Data Infrastructure team, you’ll design, operate, and scale systems that collect, transform, and serve data for model training, evaluation, and operational analytics . You’ll work closely with ML, AI, and product teams to ensure our data is trustworthy, compliant, and high-quality — forming the foundation for real-world, patient-facing AI systems. This is an opportunity to build data systems for a new class of AI products — where correctness, traceability, and privacy aren’t optional, they’re mission-critical. What You'll Do Build & operate data platforms and pipelines (batch/stream) that feed training, RAG, evaluation, and analytics using tools like Prefect, dbt, Airflow, Spark , and cloud data warehouses ( Snowflake/BigQuery/Redshift ). Own data governance and access control : implement HIPAA-grade permissioning, lineage, audit logging, and DLP; manage IAM, roles, and policy-as-code. Ensure reliability, observability, and cost efficiency across storage ( S3/GCS ), warehouses, and ETL/ELT—SLAs/SLOs, data quality checks, monitoring, and disaster recovery. Enable self-service analytics via curated models and semantic layers; mentor engineers on best practices in schema design, SQL performance, and data lifecycle. Partner with ML/Research to provision high-quality datasets, feature stores, and labeling/eval corpora with reproducibility (versioning, metadata, data contracts). What You Bring Must-Have: 5+ years of software or data engineering experience, with 3+ years building data infrastructure, ETL/ELT pipelines, or distributed data systems. Deep experience with Python and at least one cloud data platform (Snowflake, DataBricks, BigQuery, Redshift, or equivalent). Familiarity with orchestration tools (Airflow, prefect, dbt) and infrastructure-as-code (Terraform, CloudFormation). Strong understanding of data security, access control, and compliance frameworks (HIPAA, SOC 2, GDPR, or similar). Proficiency with SQL and experience optimizing query performance and storage design. Excellent problem-solving and collaboration skills — able to work across engineering, ML, and clinical teams. Comfortable navigating trade-offs between performance, cost, and maintainability in complex systems. Nice-to-Have: Experience supporting ML pipelines, feature stores, or model training datasets. Familiarity with real-time streaming systems (Kafka, Kinesis) or large-scale unstructured data storage (S3, GCS). Background in data reliability engineering, data quality monitoring, or governance automation. Experience in healthcare, safety-critical systems, or regulated environments. If you’re passionate about building data systems that power safe, real-world AI , we’d love to hear from you. We have an exciting opportunity waiting for you—apply today and take the next step in your career! The IN group is here to support you specifically with the recruitment and hiring process for job opportunities. Our role is focused on guiding you through these steps. If you have any questions related to your application or next steps in the hiring process, Apply, and please feel free to reach out. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Offre d'emploi
Développeur Python - LLM ( IA & IA Gen )
Publiée le
Administration linux
Apache Maven
Confluence
3 ans
Île-de-France, France
Pour un acteur majeur du monde de l’interbancaire et du paiement, vous intégrez nos équipes d’experts technico-fonctionnels pour participer à un projet mené en mode Agile. Dans le cadre d'un projet en relation avec des partenaires du domaine financier, le client démarre un projet de création et maintien d'applications haute performance back-end avec Python, bases de données et les outils standard de Python, ainsi que une expérience significative sur des sujets de haute performance et/ou forte volumétrie. Une première expérience de construction avec IA/IA générative serait un grand plus. Définition de la prestation Vous souhaitez intervenir sur un service majeur de l’entreprise en participant à la création de l'application, depuis la conception, la mise en œuvre et son déploiement, - Vous n’avez pas peur des challenges et souhaitez relever des défis, - Vous appréciez de travailler dans un mode collaboratif, agile, tout en étant autonome, - Vous reconnaissez vos qualités et vos compétences parmi les profils recherchés
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- deduction loyer et contrat de mise à disposition
- Mes données de la CIPAV (trimestre, droit) ont disparues sur lassuranceretriate
- Micro-entreprise après EURL ?
- Ajout d'une deuxième activité en tant que micro-entrepreneur
- domiciliation et etablissement principal
- Compte Autoentrepreneur - Création ou modification
5815 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois