Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 266 résultats.
Freelance

Mission freelance
Lead Transformation Qualité & Accélération Data / IA (H/F)

Publiée le
BigQuery
Data governance
Data quality

6 mois
Paris, France
Télétravail partiel
Lead Transformation Qualité & Accélération Data / IA (H/F) Mission de conseil – Environnement Data & IA à grande échelle Contexte de la mission Au sein de la Direction Data & Digital Transformation d’un grand groupe français du secteur de la distribution , une entité Data & Analytics de grande taille accompagne les métiers (Marketing, E-commerce, Supply Chain, Finance…) dans l’exploitation de la donnée et de l’IA pour le pilotage de la performance. Cette organisation, composée de plus de 150 experts Data & IA, engage une transformation structurante visant à industrialiser ses pratiques et à positionner la Qualité comme levier clé de performance, de fiabilité et d’accélération du delivery. Objectifs de la mission Piloter la transformation vers un standard de qualité systémique sur les sujets Data & IA. Renforcer la gouvernance Data et IA , les pratiques agiles et la culture de l’excellence opérationnelle. Agir comme catalyseur de transformation , combinant vision stratégique, influence transverse et pilotage opérationnel. Missions principales Vision, stratégie et gouvernance (axe prioritaire) Définir et piloter la feuille de route Qualité & Gouvernance Data / IA. Standardiser les livrables Data, IA, code et documentation. Mettre en place une gouvernance IA conforme aux exigences réglementaires (RGPD, AI Act). Structurer et faire évoluer les méthodes et outils (Agilité, DataOps). Leadership et conduite du changement Diffuser une culture de la qualité orientée performance et accélération du delivery. Coacher les équipes et animer les communautés de pratiques (DataOps, Agilité, Qualité). Assurer l’alignement avec les autres entités technologiques du groupe. Pilotage opérationnel Structurer les processus qualité (Data Quality, Craftsmanship, Agilité). Définir et suivre les KPIs qualité et les indicateurs de satisfaction (NPS). Intervenir en tant que Product Owner sur des offres DataOps (priorisation, adoption). Contribuer aux sujets FinOps et au pilotage des coûts cloud. Profil recherché Compétences techniques Pilotage de la qualité et de la gouvernance dans des environnements Data/Tech complexes. Solide maîtrise de la Data Quality, du DataOps / MLOps (CI/CD, Infrastructure as Code). Bonne connaissance des environnements Cloud, notamment GCP (BigQuery, Composer). Maîtrise des enjeux réglementaires liés aux données et à l’IA (RGPD, AI Act). Leadership et vision Expérience confirmée de conduite de transformations à l’échelle (100+ personnes). Capacité à définir une vision stratégique et à la décliner en plans d’actions mesurables. Leadership transverse, posture de coach, animation de communautés. Expérience Minimum 8 ans d’expérience sur des fonctions similaires (Lead Data, CDO, Transformation Data/IA). Une expérience en transformation agile ou en change management est un atout fort. Modalités Localisation : Île-de-France (Essonne), présence sur site requise 2 à 3 jours par semaine. Durée : Mission longue, 6 mois renouvelables. Démarrage : ASAP.
Freelance

Mission freelance
ML Platform Engineer Data - Azure(Niort)

Publiée le
Azure AI
Azure Data Factory
Azure Synapse

12 mois
550-600 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
La plateforme vise à industrialiser les usages Data et Machine Learning et à accompagner les directions métiers dans leurs expérimentations et produits data science. Le Platform Engineer intervient sur deux axes majeurs : le déploiement de l’infrastructure as code sur le cloud Azure le développement et l’industrialisation de pipelines CI/CD pour les usages Data Science Missions de l’équipe plateforme Assurer le maintien en condition opérationnelle , l’ évolutivité et la maîtrise technique de la plateforme Azure. Accompagner les directions métiers et leurs data scientists dans la réalisation de leurs expérimentations et produits industriels Fournir un support fonctionnel et technique aux équipes métiers
Freelance

Mission freelance
Chef de Projet Data/IA expérimenté

Publiée le
Data analysis
IA

6 mois
400-500 €
Toulouse, Occitanie
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Chef de Projet Data/IA expérimenté. Secteur d'activité client final : aéronautique Missions principales : Piloter des projets Data et IA de bout en bout Analyser et cadrer les besoins métiers liés aux données et à l’IA Coordonner les différents acteurs du projet (équipes data, techniques et métiers) Suivre l’avancement des projets : planning, qualité, livrables S’assurer de la bonne compréhension et exploitation des analyses de données dans les projets Animer les échanges et comités projet en anglais Contribuer à la communication et à la documentation projet en anglais
Freelance
CDI

Offre d'emploi
Data Scientist / ML Engineer IA Générative (Data & IA) -(F/H)

Publiée le
Data science
Docker
IA Générative

3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Data Scientist / ML Engineer spécialisé en IA Générative et Agentic AI pour intégrer l’équipe Data & IA . Vous interviendrez sur la conception, l’entraînement et le déploiement de solutions d’IA avancées visant à optimiser des processus métier critiques : analyse de documents, support aux traders, automatisation de workflows, conformité réglementaire et reporting. Missions principales 1. Modélisation & Machine Learning Développer des modèles de Machine Learning avancés en Python pour des cas d’usage bancaires : fraude, scoring, gestion et anticipation des risques. Préparer, nettoyer et transformer des données structurées et non structurées (logs, documents réglementaires, rapports, données métiers). 2. Large Language Models (LLM) Fine-tuning et intégration de LLM industriels (GPT-4/5, LLaMA, Mistral…). Conception et implémentation de pipelines RAG (Retrieval-Augmented Generation) pour un accès contextualisé aux données internes (politiques internes, réglementations, Knowledge Base). Mise en œuvre de prompting avancé et d’architectures adaptées aux besoins CIB . 3. Agentic AI Prototyper et déployer des agents autonomes capables d’interagir avec : APIs internes Workflows Services bancaires (ex. assistant trader, extraction d’informations réglementaires). Orchestration de tâches complexes via des frameworks tels que : LangChain, LangGraph, AutoGPT . 4. Production & Industrialisation Packager et déployer les modèles en production : Docker API REST / GraphQL Environnements cloud privé ou hybride Collaboration avec les équipes MLOps, Cloud et Sécurité pour garantir : Scalabilité Monitoring & observabilité Respect des contraintes réglementaires. 5.Gouvernance & Compliance IA Garantir l’application des règles internes d’ Ethics & Compliance liées à l’IA. Mise en place de tests de : Robustesse Biais Traçabilité et explicabilité des modèles. Profil recherché Formation supérieure en Data Science, IA ou Informatique Solide expérience en Machine Learning et IA Générative Excellente maîtrise de Python Bonne connaissance des environnements bancaires / financiers appréciée Capacité à travailler sur des sujets à forte valeur métier et forte exigence réglementaire
Freelance

Mission freelance
Data Science/MLOps

Publiée le
Data analysis
IA Générative
Machine Learning

3 mois
Lille, Hauts-de-France
Télétravail partiel
Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 4+ ans d’expérience en Data Science/MLOps
Freelance
CDI

Offre d'emploi
Data Steward

Publiée le
Data analysis
Gouvernance

1 an
40k-45k €
120-490 €
Paris, France
Télétravail partiel
Contexte Une filiale d'un groupe bancaire majeur spécialisée dans le financement de biens d'équipement ou de biens immobiliers à destination des entreprises. Son activité est répartie sur plusieurs pays, et sur plusieurs types de financement : crédit, crédit-bail mobilier et immobilier, location, wholesale, LLD avec gestion de parc, revolving, …. Le projet STELLAR a pour objectif de mettre la data science et les outils d'IA au service de use cases Métier, en assurant la mise en oeuvre de ces use case de la phase exploratoire jusqu'à la phase d'industrialisation. Par exemple sur le use case AVE de refonte de l'application de valorisation avancée de matériels que nous finançons. Dans le cadre de la mise en œuvre de ce chantier, l'équipe Stellar recherche un data steward pour produire la documentation associée à la data gouvernance: Data Model (Business et IT), Data Dictionnary et classification des données sensibles (Data Asset Confidentiality Card). Analyse et alignement du périmètre métier En lien avec les référents métiers : Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Compréhension des processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Cartographie des objets métier à définir Identification des données métier Construction du modèle de données et documentation Classification en concepts et sous concepts Classification du niveau de confidentialité Documentation des données : définitions, attributs, relations, règles de gestion métier. Production des modèles de données métier et IT Collaboration étroite avec le Data Office pour valider les jeux de données existants, identifier les manques, assurer l'alignement avec les standards de gouvernance, traçabilité et qualité. Contribution à la modélisation des données non encore prises en charge par la data platform Gouvernance des données Animation des ateliers avec les référents métiers et les IT pour valider les définitions. Assurer la traçabilité entre modèles métier et technique.
Freelance

Mission freelance
Data Scientist MLOPS (H/F) - Lille

Publiée le
Data analysis
IA Générative
Machine Learning

36 mois
400-450 €
Lille, Hauts-de-France
Télétravail partiel
Au sein d’une direction data & innovation à dimension internationale, nous recherchons pour l'un de nos clients un·e Data Scientist pour rejoindre une équipe experte et pluridisciplinaire sur la métropole Lilloise. Vous interviendrez sur des projets IA critiques à forte valeur ajoutée métier, avec un fort enjeu d’industrialisation, de scalabilité et de sécurité. Votre rôle sera à la fois technique, structurant et transverse, au cœur des échanges entre équipes data, IT et Métiers dans un environnement exigeant.
CDI

Offre d'emploi
Data Engineer Senior

Publiée le

60k-70k €
Neuilly-sur-Seine, Île-de-France
Contexte du poste Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Data & Cloud. Vous jouerez un rôle clé dans la conception d’architectures data robustes, l’industrialisation des pipelines, l’optimisation des performances BigQuery et la mise en place de solutions IA/ML. Vous interviendrez dans un environnement GCP-first , moderne, orienté automatisation et bonnes pratiques DevOps. 1. Compétences techniques attendues Architecture Système & Cloud Excellente maîtrise de Google Cloud Platform (GCP) Containerisation & architectures serverless Maîtrise des patterns d’intégration d’entreprise DevOps & Infrastructure as Code Terraform (développement de modules, automatisation, paramétrages avancés) CI/CD : GitHub Actions, pipelines automatisés Maîtrise de Git / GitHub Développement d’API Conception & développement d’API REST Expérience sur Apigee , Cloud Run , FastAPI Architectures orientées événements Mise en place de flux événementiels : GCP Pub/Sub Connaissance de Kafka Modélisation de données Modèles en étoile (Star Schema) Modèles en flocon (Snowflake Schema) Modélisation dimensionnelle avancée BigQuery – Expertise avancée Écriture et optimisation de procédures stockées complexes Optimisation des performances & des coûts Optimisation DirectQuery pour outils BI Orchestration & pipelines de données Cloud Workflows, EventArc, Cloud Run Scripting Python ML / IA / GenAI Algorithmes classiques, MLOps Expérience sur Vertex AI (pipelines, modèle, tuning) Compréhension des réseaux neuronaux (encodeur/décodeur) Connaissance de concepts LLM, RAG, MCP BI & Analytics Looker, modèles LookML Qualité & Observabilité Expérience en qualification, monitoring & observabilité des données Méthodologies & Leadership Travail en équipes Agile / Scrum Mentorat & accompagnement de développeurs Atouts (Nice to have) Compétences WebApp : JavaScript / React Certification GCP Data Engineer ou Cloud Architect
Freelance
CDI

Offre d'emploi
Data Scientist IA Gen - Expert Rag

Publiée le
Apache Solr
Large Language Model (LLM)
Python

1 an
Courbevoie, Île-de-France
Télétravail partiel
StarClay recherche plusieurs Data Scientists expérimentés (5 ans minimum) pour une mission à forte dimension internationale auprès de son client, leader de l'information juridique. Les consultants rejoindront une équipe data existante et interviendront en collaboration étroite avec une Business Unit internationale. L'objectif principal de la mission est l'adaptation et le déploiement d'un cas d'usage stratégique de génération de réponses aux questions clients, basé sur une architecture RAG avancée. Une dimension clé de la mission consiste à apporter une expertise méthodologique sur l'évaluation de la performance des modèles d'IA générative, en capitalisant sur les acquis et bonnes pratiques développés par l'équipe française. Vous aurez les responsabilités suivantes : - Adaptation technique - Implémenter, adapter et faire évoluer une solution RAG (Retrieval-Augmented Generation) : - Développée en Python - Appuyée sur un moteur de recherche SOLR (ou équivalent type Elastic) - Intégrant des pratiques avancées de prompt engineering - Stratégie d'évaluation - Concevoir, mettre en place et piloter des protocoles d'évaluation manuelle et automatique de la qualité des réponses générées : - Définition de métriques pertinentes - Approches LLM-as-a-judge - Boucles de feedback et amélioration continue - Benchmark des LLM - Tester, comparer et benchmarker les différents LLM du marché - Sélectionner les modèles les plus adaptés aux contraintes métiers, linguistiques et locales - Collaboration transverse - Travailler en interaction étroite avec l'équipe française - Comprendre l'architecture existante et les choix techniques - Assurer le transfert de compétences et des bonnes pratiques vers les BU internationales
CDI
Freelance

Offre d'emploi
PhD IA & Data

Publiée le
Data science
Deep Learning
IA

1 an
39k-50k €
300-500 €
Paris, France
Télétravail 100%
Au sein de la Data & IA Fabric d'INVENTIV IT, nous recherchons des PhD IA & Data (+3 ans d'expérience minimum) afin de travailler sur la mise en place d'une IA Souveraine et des projets internationaux connexes autours de la Data & IA Mise en Place d'une IA souveraine Construction et évaluation de modèles de Machine Learning. Utilisation de frameworks de Deep Learning (TensorFlow, PyTorch, Scikit-Learn). Préparation de données, ingénierie des caractéristiques ( feature engineering ) et test de modèles. Développement d'applications IA à petite échelle et de preuves de concept (PoC). Mise en place de LLM Souverain Solutions & Agentique IA Data Market Place Travail au sein d'équipes pluridisciplinaires et respect des meilleures pratiques d'ingénierie. Vous êtes quelqu'un de passionné par l'IA & la Data. Vous êtes en veille constante sur les nouvelles technologies et solutions. Vous pratiquez de manière opérationnelle depuis + de 3 ans. Proactif, rigoureux, désireux d'explorer de nouvelles techniques d'IA et déterminé à évoluer vers un poste d'ingénieur pleinement autonome capable de gérer des projets d'IA de plus grande envergure. Vous souhaitez devenir les meilleurs et être encadré par des expert séniors avec des expériences à l'international Alors rejoignez-nous ! Francophone et Anglophone obligatoire Date de démarrage : Janvier/Février 2026 Localisation : France Rythme : ouvert au Full TT Chez INVENTIV IT, nous faisons de l'IA & Data un levier business accessible, conforme et intégrer dans les processus métiers
CDI
Freelance

Offre d'emploi
Expert IA sénior Maroc

Publiée le
Data science
Deep Learning
IA

1 an
40k-60k €
400-550 €
Maroc
Télétravail 100%
Au sein de la Data & IA Fabric d'INVENTIV IT, nous recherchons des experts IA (+5 ans d'expérience minimum) afin de travailler sur la mise en place d'une IA Souveraine et des projets internationaux connexes autours de la Data & IA Mise en Place d'une IA souveraine Construction et évaluation de modèles de Machine Learning. Utilisation de frameworks de Deep Learning (TensorFlow, PyTorch, Scikit-Learn). Préparation de données, ingénierie des caractéristiques ( feature engineering ) et test de modèles. Développement d'applications IA à petite échelle et de preuves de concept (PoC). Mise en place de LLM Souverain Solutions & Agentique IA Data Market Place Travail au sein d'équipes pluridisciplinaires et respect des meilleures pratiques d'ingénierie. Vous êtes quelqu'un de passionné par l'IA & la Data. Vous êtes en veille constante sur les nouvelles technologies et solutions. Vous pratiquez de manière opérationnel depuis + de 5 ans. Proactif, rigoureux, désireux d'explorer de nouvelles techniques d'IA et déterminé à évoluer vers un poste d'ingénieur pleinement autonome capable de gérer des projets d'IA de plus grande envergure. Vous souhaitez devenir les meilleurs et être encadré par des expert séniors avec des expériences à l'international Alors rejoignez-nous ! Francophone et Anglophone obligatoire Date de démarrage : Janvier/Février 2026 Localisation : Maroc Rythme : ouvert au Full TT Chez INVENTIV IT, nous faisons de l'IA & Data un levier business accessible, conforme et intégrer dans les processus métiers
CDI

Offre d'emploi
Ingénieur d'Affaires Data & IA Secteur Luxe H/F

Publiée le

50k-80k €
Levallois-Perret, Île-de-France
Télétravail partiel
En tant qu' Ingénieur d'Affaires Data & IA secteur Luxe H/F vous aurez la charge de : • Créer et développer de nouvelles relations d'affaires avec des clients potentiels et des partenaires stratégiques du Luxe • Identifier et explorer de nouvelles opportunités de marché pour nos produits et services • Travailler en étroite collaboration avec nos équipes internes pour élaborer des solutions sur mesure pour nos clients du secteur du Luxe • Prévoir les tendances du marché du Luxe et anticiper les besoins des clients pour façonner notre stratégie de croissance • Représenter JEMS lors d'événements, de conférences et de réunions pour élargir notre réseau et renforcer notre présence sur le marché • Garder un œil sur la concurrence et élaborer des stratégies pour rester en tête Avantages à travailler chez JEMS : • Un accompagnement personnalisé pour développer votre carrière • L'opportunité de travailler dans un environnement dynamique et stimulant • Une culture d'entreprise qui encourage la créativité, l'innovation et la croissance personnelle • Un package de rémunération compétitif avec des avantages exceptionnels • Un soutien continu pour développer vos compétences et avancer dans votre carrière • Des séminaires d'intégration inoubliables Pour Postuler Si vous êtes prêt(e) à relever le défi et à devenir un acteur clé de notre équipe en tant qu'Ingénieur d'Affaires chez JEMS, envoyez nous votre CV accompagné d'une lettre de motivation convaincante qui montre pourquoi vous êtes la personne idéale pour ce poste. Montrez nous votre passion, votre détermination et votre vision pour l'avenir. Diversité Le Groupe JEMS porte fièrement sa valeur "Diversité" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap. Chez JEMS, nous croyons que les meilleurs candidats sont ceux qui partagent notre passion pour l'innovation et notre engagement envers l'excellence. Rejoignez notre équipe et soyez prêt à changer le jeu ! Référence de l'offre : atfd0ce6uo
Freelance

Mission freelance
Data Engineer AWS / GenAI

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Télétravail partiel
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance

Mission freelance
Data Product Manager/PO (Rennes)

Publiée le
BigQuery
Data Lake
Data science

12 mois
500-540 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons un Data Product Manager freelance hybride, technique et opérationnel, capable de traduire les besoins métiers en solutions concrètes et de participer activement à la réalisation de prototypes. Compétences et qualités : Technique : maîtrise avancée de SQL (idéalement BigQuery), capable de manipuler la donnée et de créer des dashboards simples (ex. Looker Studio) pour prototyper. Pragmatique : travailler en mode MVP rapide, tester et itérer rapidement. Relationnel : aisance relationnelle, capacité à fluidifier les échanges et créer du lien avec les équipes. Connaissance de GCP (Google Cloud Platform) Notions de Python (lecture et compréhension de scripts simples) Modalités Localisation : Rennes / Hybride (à définir) Démarrage : Dès que possible
Freelance
CDI

Offre d'emploi
Databricks Data Engineer

Publiée le
API REST
PySpark

1 an
Île-de-France, France
Télétravail partiel
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
CDI

Offre d'emploi
Data engineer (H/F)

Publiée le

35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
266 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous