Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 652 résultats.
Freelance

Mission freelance
Senior Data Product Manager – Group Data Platform / Data Mesh H/F

ADSearch
Publiée le
Architecture
Data Mesh
Production

3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre de l’accélération de sa transformation Data à l’échelle Groupe, notre client recherche un(e) Senior Data Product Manager pour piloter de manière stratégique et très opérationnelle la conception, la mise en œuvre et le déploiement de sa plateforme Data Self-Service Groupe , fondée sur les principes du Data Mesh . Il s’agit d’un rôle clé, orienté build et exécution , avec une forte responsabilité sur la livraison concrète , l’ industrialisation et l’ adoption à grande échelle de la plateforme au sein des différents domaines métiers. Le/la candidat(e) devra être capable de définir une vision produit claire tout en la traduisant en une plateforme robuste, scalable et prête pour la production , utilisée à l’échelle de l’entreprise. Mission principale Concevoir, construire, déployer et opérer la plateforme Data Mesh Groupe (appelée Group Data Platform – GDP ) comme un produit interne , en garantissant : sa livraison technique son adoption à l’échelle de l’entreprise son excellence opérationnelle son amélioration continue Responsabilités principales 1. Product Management orienté usage & amélioration continue Vos missions Recueillir et formaliser les besoins utilisateurs ainsi que les exigences plateforme Définir la vision produit , la proposition de valeur et la roadmap Mesurer l’usage de la plateforme et la valeur créée Améliorer en continu l’ expérience développeur et l’ expérience utilisateur Structurer les boucles de feedback et piloter le backlog d’amélioration Livrables attendus Vision produit et proposition de valeur de la plateforme KPIs de performance, d’usage et d’adoption Mécanismes de feedback utilisateurs et backlog d’amélioration continue Roadmap d’évolution de la plateforme 2. Delivery de la plateforme (responsabilité centrale) Vos missions Définir les capacités de la plateforme : data products pipelines de données gouvernance observabilité accès self-service Définir et faire appliquer les standards techniques et les patterns d’architecture Prendre des décisions techniques concrètes et valider les solutions de manière opérationnelle Garantir une plateforme industrialisée, réutilisable et scalable Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme 3. Architecture Cloud & Infrastructure Vos missions Coordonner la conception et l’exploitation de l’architecture cloud et hybride avec le Group Data Architect Coordonner avec la Group Data Delivery Team l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Garantir les exigences de sécurité , de conformité et de gouvernance Livrables attendus Blueprint d’architecture cloud (en collaboration avec le Group Data Architect) Cadre de sécurité et de gestion des accès Principes d’intégration hybride / on-premise 4. Pilotage de la delivery & exécution Vos missions Piloter l’ensemble du cycle de delivery de la plateforme Définir le backlog produit et le processus de priorisation Organiser les releases et les déploiements en production Suivre la performance, la fiabilité et la disponibilité de la plateforme Identifier et gérer les risques, incidents et sujets techniques critiques Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et processus de gestion de versions Tableaux de bord de suivi de delivery SLA / indicateurs de fiabilité et de performance de la plateforme 5. Déploiement & adoption dans les domaines métiers Vos missions Déployer la plateforme dans les différents domaines métiers Accompagner les équipes domaines dans la création de data products Mettre en œuvre le modèle opérationnel Data Mesh Structurer et accompagner l’onboarding des équipes Lever les freins opérationnels à l’adoption Livrables attendus Framework et processus d’onboarding des domaines Guidelines sur le cycle de vie des data products Playbooks d’accompagnement des équipes métiers / domaines KPIs d’adoption et d’usage Supports de formation et documentation d’onboarding 6. Documentation, standardisation & gouvernance Vos missions Documenter les capacités, standards et processus de la plateforme Garantir l’alignement avec la Federated Computational Data Governance du Groupe Structurer les bonnes pratiques de mise en œuvre Livrables attendus Référentiel de documentation de la plateforme Standards techniques et guidelines d’implémentation Framework de gouvernance et de conformité Playbooks de bonnes pratiques 7. Communication opérationnelle & reporting exécutif Vos missions Communiquer sur l’avancement, l’impact et la valeur de la plateforme Produire un reporting régulier à destination des instances de gouvernance et du management Aligner les parties prenantes métier, IT et Data Livrables attendus Executive Project Dashboard Tableaux de bord de performance de la plateforme Présentations pour les comités de pilotage / steering committees Suivi des décisions, risques et points bloquants 8. Promotion interne & évangélisation Vos missions Promouvoir la valeur de la plateforme à l’échelle de l’organisation Soutenir les initiatives d’adoption interne Fédérer une communauté autour de la plateforme Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations de la plateforme et portefeuille de cas d’usage
Freelance

Mission freelance
CONSULTANT OBSERVABILITE DATADOG

PARTECK INGENIERIE
Publiée le
AWS Cloud
Datadog
Kubernetes

12 mois
400-650 €
75000, Paris, Île-de-France
Dans le cadre de l’amélioration de la supervision et de la fiabilité des plateformes , nous recherchons un Expert Observabilité Datadog pour accompagner l’un de nos clients dans la structuration et l’optimisation de son écosystème de monitoring. L’objectif de la mission est d’améliorer la qualité de l’observabilité, la détection des incidents et l’exploitation des données de monitoring dans un environnement Cloud / DevOps / SRE . Vos missions 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier les axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les équipes Optimiser l’usage de la plateforme (volumétrie des logs, sampling APM, gestion des coûts, rétention) Définir et diffuser les bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus et Grafana 2. Supervision, observabilité et fiabilité (SRE) Concevoir et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, corrélation des incidents) Définir des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et le service management Améliorer la détection proactive des incidents Assurer la cohérence entre les métriques Prometheus/Grafana et l’observabilité Datadog 3. Accompagnement des équipes et adoption Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir la documentation des standards et bonnes pratiques Profil recherché Expérience significative sur Datadog (Logs, APM, RUM, Monitors) Bonne compréhension des pratiques DevOps / SRE / Observabilité Expérience sur les outils de monitoring tels que Prometheus et Grafana Capacité à travailler en transverse avec des équipes Dev, Ops et Produit Sens de la pédagogie et capacité à structurer des standards Environnement technique Datadog – Observabilité – Monitoring – APM – Logs – RUM – Product Analytics – Prometheus – Grafana – DevOps – SRE – Cloud AWS +++ Kubernetes ++ Terraform +++
Freelance

Mission freelance
Expert Devops IA h/f

Freelance.com
Publiée le
AWS Cloud
DevOps
IA Générative

6 mois
400-600 €
Saint-Denis, Île-de-France
Dans le cadre d'un programme d'Accélération Digitale, notre client recherche un Expert DevOps IA Générative pour intégrer une équipe Data & IA et contribuer à la conception, au développement et à l'industrialisation de solutions basées sur des modèles de langage (LLM) et l'IA Générative. Évaluer les cas d'usage IA Générative des métiers, collecter les besoins et proposer des solutions techniques adaptées Concevoir et développer des pipelines RAG (préparation de données textes, images, tableaux), architectures agentiques et fine-tuning de modèles LLM Mettre en place et évaluer les performances des POCs/POTs et être force de proposition sur les choix techniques Optimiser les ressources (mémoire, puissance de calcul, micro-services) pour des déploiements à l'échelle sur AWS Industrialiser et mettre en service les solutions IA, assurer le MCO des solutions déployées Accompagner les équipes Data Scientists dans l'intégration des modèles dans les applications existantes ou nouvelles Cette mission représente un enjeu stratégique clé pour la transformation digitale d'un acteur de premier plan dans le secteur des transports.
CDI

Offre d'emploi
Data engineer BI (H/F)

Amiltone
Publiée le
BI

45k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet BI. Vos missions : - Etre force de proposition sur la conception (normes, méthodes, contexte, environnements...) et la réalisation de traitements ETL industrialisés. - Challenger les besoins et de proposer des solutions viables et scalables d'un point de vue technique tout en respectant les budgets impartis. - Concevoir des rapports sur Power BI. - Tirer parti des services managés et de données de l'écosystème Microsoft Azure : Azure Data Factory, Azure Synapse Analytics, Power BI, etc. - Organiser des différentes couches d'un DataLake par type et qualité de données. - Assurer la sécurisation de l'écosystème de données Vos compétences : - Connaissances sur les ETLs (Azure Synapse/Azure Data Factory, Talend, DataStage,...) - Connaissances de Power BI et maitrise de la génération des rapports. - Connaissance d'Azure DataLake (Gen1 / Gen2). - Maitrise de SQL/Transac-SQL et des bases de données MySQL et MS SQL Server. Les plus : - Connaissances avancées d'Azure Synapse et de l'écosystème de données/BI de Microsoft Azure. - Connaissance des métiers de la Paie ou des Ressources Humaines.
CDI

Offre d'emploi
Data Analyst / Développeur C# - Python – secteur bancaire (F/H)

CELAD
Publiée le

38k-43k €
Dijon, Bourgogne-Franche-Comté
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 1 jour de télétravail / semaine - Dijon (21) - Expérience de 4 ans minimum Vous aimez comprendre ce que racontent vraiment les données… et surtout les transformer en décisions concrètes ? Si vous cherchez juste à faire des dashboards… ce poste ne va pas vous intéresser. En revanche, si vous aimez travailler sur de gros volumes de données , avec des enjeux bancaires concrets (clients, fraude, pilotage) , vous allez rapidement voir l’impact de votre travail. Vous intervenez dans un environnement où la data est au cœur des décisions. Pourquoi on a besoin de vous ? L’équipe se renforce pour mieux exploiter les données issues du système d’information bancaire commun. Objectif : transformer des données complexes en analyses utiles pour les équipes métier (finance, risques, marketing…). Ce que vous allez faire concrètement : 1/ Vous explorerez les données pour répondre à des questions concrètes Vous travaillerez sur des données clients, des opérations bancaires, des indicateurs de performance ou encore des sujets liés à la fraude et à la conformité. Par exemple, vous pourrez être amené à : - identifier des comportements inhabituels dans les flux bancaires ; - comprendre pourquoi un indicateur métier évolue ; - aider une équipe à mieux connaître ses clients ; - produire des analyses utilisées pour piloter l’activité. 2/ Vous utiliserez SQL pour analyser de gros volumes de données Vous interrogerez les bases de données afin d’extraire, croiser et fiabiliser les informations. L’objectif n’est pas seulement d’écrire des requêtes, mais de faire parler la donnée pour aider les métiers à décider plus vite et plus justement. 3/ Vous développerez en C# et Python pour automatiser et fiabiliser les traitements Vous utiliserez C# et Python pour : - automatiser certaines analyses ; - construire ou améliorer des traitements de données ; - rendre les analyses plus robustes et plus rapides ; - industrialiser ce qui fonctionne pour éviter les retraitements manuels. 4. Vous construirez des modèles de données exploitables Vous structurerez les données pour qu’elles soient plus simples à utiliser. Concrètement, vous créerez des modèles permettant aux équipes métier de retrouver rapidement la bonne information, sans dépendre à chaque fois d’un traitement spécifique.
CDI
Freelance

Offre d'emploi
Architecte Fonctionnel

WE +
Publiée le
AMOA
Architecture
Big Data

6 mois
40k-45k €
600-700 €
Île-de-France, France
Architecte Fonctionnel – Île-de-France Localisation : Île-de-France Démarrage : Asap Type : Mission en prestation renouvelable Contexte : Dans le cadre d’un environnement SI Data au cœur d’un écosystème Big Data , nous recherchons un Architecte Fonctionnel / AMOA Data pour intervenir sur des projets allant de la phase de cadrage jusqu’au déploiement en production . Le poste s’inscrit dans un contexte de transformation et de structuration du système d’information décisionnel et opérationnel , avec des enjeux de conception fonctionnelle , urbanisation , modélisation de données , coordination projet et accompagnement métier . Le candidat évoluera au sein d’une équipe dynamique, en interaction étroite avec les urbanistes fonctionnels , chefs de projets , MOA , métiers , ingénieurs Data , éditeurs et experts solutions . Missions : En étroite collaboration avec les urbanistes fonctionnels , les chefs de projets , la MOA et les métiers , vous serez en charge des missions suivantes : Cadrage des besoins Accompagner la MOA et le métier durant les phases de cadrage des besoins Identifier et instruire les demandes d’évolutions et/ou les nouveaux projets S’assurer de la faisabilité de la solution proposée en coordination avec les chefs de projets, les éditeurs, les ingénieurs Data et les experts solutions Conception technico-fonctionnelle Concevoir et porter les solutions technico-fonctionnelles Réaliser la modélisation de données Co-construire les spécifications fonctionnelles avec les ingénieurs Data Accompagner l’équipe sur les aspects fonctionnels tout au long du projet Urbanisation du SI Participer à la tenue à jour de la cartographie applicative du SI décisionnel et opérationnel Participer à la définition de la trajectoire urbanistique du SI décisionnel et opérationnel à court et moyen terme Faire le lien avec les urbanistes Tests et recette Participer à la recette avec la MOA Apporter son expertise fonctionnelle lors de l’élaboration de la stratégie de test Gouvernance et suivi Participer aux comités Communiquer sur les solutions data , les plannings et les chiffrages Contribuer à l’ optimisation des processus Compléter les tableaux de suivi Mettre à jour les informations dans l’outil de suivi des projets et des budgets Communiquer auprès de l’équipe et de son manager l’ état d’avancement des solutions, chiffrages et plannings Remonter les alertes et les opportunités Environnement technique Gestion de projet Gestion de projets Data de la phase de cadrage jusqu’au déploiement en production Périmètre SI / Data SI Data : projets au sein d’un environnement centré sur la Data et le Big Data SI décisionnel : cartographie applicative, trajectoire urbanistique, spécifications fonctionnelles SI opérationnel : suivi des évolutions, cohérence fonctionnelle, accompagnement des projets Données : modélisation de données, contribution à la conception des solutions technico-fonctionnelles Cadre de delivery & pilotage Parties prenantes : urbanistes fonctionnels, chefs de projets, MOA, métiers, ingénieurs Data, éditeurs, experts solutions Pilotage : comités, plannings, chiffrages, suivi des projets et des budgets Qualité : recette, stratégie de test, suivi de l’avancement, remontée des alertes et opportunités Profil recherché Minimum 10 à 15 ans d’expérience sur des sujets Data Expérience confirmée dans des environnements grands comptes Expérience appréciée en mode consulting Bonne compréhension des environnements SI décisionnels et opérationnels Maîtrise de l’ AMOA , de l’ architecture fonctionnelle et de la conception technico-fonctionnelle Capacité à intervenir de la phase de cadrage jusqu’à la mise en production Qualités attendues Rigueur et structuration Bonne communication Esprit d’analyse Capacité de coordination Esprit de synthèse
Freelance

Mission freelance
Tech Lead Data GCP

UCASE CONSULTING
Publiée le
DBT
GenAI
Google Cloud Platform (GCP)

1 an
400-600 €
Île-de-France, France
📢 Poste à pourvoir – Tech Lead Data GCP/Python (H/F) Bonjour à tous 👋 Je recherche un(e) Tech Lead Data Senior pour intervenir sur une mission stratégique autour d’une Data Platform moderne orientée Cloud & innovation 🚀 🎯 Contexte Dans le cadre d’un programme de transformation ambitieux, vous intégrerez une Data Factory en charge de : Construire et faire évoluer une plateforme data cloud Industrialiser les workflows data Déployer des solutions innovantes autour de la data et de l’automatisation Diffuser les bonnes pratiques data au sein des équipes 👉 Environnement dynamique avec une forte culture produit et innovation 🚀 Missions principales : Concevoir et développer des data products (jusqu’à 80% de dev) Participer au cadrage technique et aux études d’impact Mettre en place des architectures data robustes et scalables Assurer la qualité du code (review, bonnes pratiques) Accompagner et challenger les Data Engineers Gérer les incidents complexes (niveau 3) Documenter les solutions (architecture, flux, data models) 🛠️ Stack technique : Langages : Python, SQL, Shell Data & Cloud : GCP (BigQuery, Dataflow, Cloud Storage), DBT Streaming / ingestion : Kafka, Kafka Connect, SFTP DevOps / CI-CD : Docker, Kubernetes, Terraform, GitLab BI / Restitution : Looker + Bonus : Automatisation / IA (n8n, outils GenAI) ✨ Les + Projet structurant avec forte visibilité Environnement moderne (Cloud, Data, IA) Forte autonomie et impact technique Équipe orientée innovation ⏱️ Mission 📅 Démarrage : ASAP 📌 Télétravail : 50% 📍 Localisation : Île-de-France
Freelance

Mission freelance
🚀 Développeur Backend Python – Microservices - Lyon

Tenth Revolution Group
Publiée le
API REST
AWS Cloud
FastAPI

12 mois
220-400 €
Lyon, Auvergne-Rhône-Alpes
🎯 Contexte de la mission Dans le cadre d’un renfort urgent, nous recherchons un Développeur Backend Python expérimenté pour intégrer une équipe tech et contribuer activement au développement et à la livraison de microservices en environnement cloud. Objectif : produire, tester et livrer du code robuste , orienté production. Ce n’est pas un poste R&D. On cherche quelqu’un qui exécute, structure et délivre. 🛠️ Missions principales Développement de microservices en Python Conception et implémentation d’ API REST Rédaction de code propre, maintenable et testé Mise en place et exécution de tests (unitaires / intégration) Participation aux choix techniques backend Contribution à l’amélioration continue des pratiques de développement Collaboration avec équipes produit / infra
CDI

Offre d'emploi
Architecte Systèmes et Réseaux

Audensiel
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Kubernetes

40k-45k €
Rouen, Normandie
À propos du défi En tant qu'Architecte, vous ne vous contentez pas de maintenir des serveurs ; vous dessinez le futur technologique de Audensiel. Votre mission est de concevoir des infrastructures résilientes, évolutives et sécurisées qui soutiennent notre croissance et nos innovations. Vos missions principales Conception & Stratégie : Designer les architectures systèmes et réseaux (on-premise, cloud ou hybride) en garantissant la haute disponibilité. Évolution Technologique : Piloter la transition vers le "Tout-Automatisé" (IaC - Infrastructure as Code) et l'optimisation des performances. Sécurité & Conformité : Collaborer avec les équipes Cybersécurité pour intégrer les protocoles de défense dès la phase de conception. Expertise Conseil : Accompagner les équipes de développement et la DSI dans le choix des solutions techniques et la gestion de projets complexes. Veille Technologique : Anticiper les ruptures technologiques pour maintenir notre avantage compétitif.
Freelance

Mission freelance
Directeur de Projet Data Banque (H/F)

Signe +
Publiée le
Big Data

12 mois
700 €
Paris, France
Dans le cadre de la transformation de ses systèmes d’information Finance et Risques, un acteur majeur du secteur bancaire recherche un Directeur de Programme IT expérimenté. Le programme porte sur des enjeux stratégiques liés à la data, aux réglementations financières et à la modernisation des plateformes SI. Le rôle est fortement exposé et implique des interactions régulières avec la Direction Financière ainsi que des instances de gouvernance de haut niveau. Missions principales Pilotage de programme Piloter un programme IT d’envergure (budget pluri-millions d’euros) dans un environnement bancaire exigeant Définir et suivre la feuille de route globale (planning, budget, risques, dépendances) Animer les comités de pilotage et assurer le reporting auprès des directions métiers et de la gouvernance Garantir l’atteinte des objectifs en termes de qualité, délais et coûts Pilotage SI et Data Assurer la coordination entre les équipes IT, les équipes data et les métiers Finance / Risques Apporter une vision stratégique sur les sujets Big Data (opportunités, contraintes, impacts SI) Superviser les trajectoires d’évolution des plateformes et des architectures data Coordination métier Finance / Risques Être l’interlocuteur privilégié de la MOA Finance et Risques Comprendre et challenger les besoins fonctionnels liés aux reportings réglementaires et aux dispositifs ALM Faciliter les échanges avec les équipes Contrôle de Gestion et Finance Gouvernance et gestion des parties prenantes Interagir avec des interlocuteurs de haut niveau (DAF, directions métiers, Directoire) Piloter des dispositifs multi-équipes incluant des prestataires et centres de services Sécuriser l’avancement du programme dans un contexte transverse et international Conformité réglementaire Intégrer les contraintes réglementaires liées aux exigences BCBS239 Garantir la qualité, la traçabilité et la fiabilité des données financières et de risques Profil recherché Expérience confirmée en Direction de Programme IT dans le secteur bancaire Solide compréhension des systèmes d’information Finance / Risques Bonne culture Big Data (enjeux, architectures, cas d’usage) sans être un profil développeur Expérience du pilotage de programmes complexes et fortement exposés Capacité à dialoguer avec des interlocuteurs métiers et techniques Expérience de gestion de prestataires et de centres de services Excellentes compétences de communication, leadership et gestion des priorités Conditions Localisation : à définir (présence régulière requise) Démarrage : idéalement début avril Durée : longue mission
Freelance

Mission freelance
Expert observabilité datadog

Cherry Pick
Publiée le
AWS Cloud
Datadog

12 mois
550-600 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake DBT ELT Senior

Atlanse
Publiée le
DBT
ETL (Extract-transform-load)
Microsoft Power BI

1 an
55k-65k €
400-550 €
Guyancourt, Île-de-France
En tant que Data Engineer Senior, vous intervenez au sein d’un environnement data en forte structuration pour concevoir, industrialiser et faire évoluer les flux de données dans un écosystème Snowflake / dbt / ELT. Votre rôle Conception et industrialisation des flux data dans Snowflake · Concevoir, développer et maintenir des pipelines ELT dans un environnement Snowflake / dbt · Intégrer et transformer des données issues de différents environnements · Concevoir des modèles de données · Contribuer à l’industrialisation des traitements et à la fiabilisation de l’alimentation du data warehouse Snowflake Qualité, traçabilité et performance data · Fiabiliser les chaînes de transformation dbt · Optimiser les traitements dans Snowflake · Surveiller le bon fonctionnement des flux en production, analyser les anomalies de chargement ou de qualité de données, mettre en œuvre les actions correctives Evolution du socle data · Accompagner les projets de transformation ou de migration de solutions data existantes vers un socle plus moderne, notamment autour de Snowflake · Travailler en lien étroit avec les équipes data, IT et métiers · Contribuer à l’amélioration continue des standards de développement, de documentation, de gouvernance et de sécurité
Freelance

Mission freelance
Data Engineer / Architecte Data (GCP)

ESENCA
Publiée le
Architecture
Big Data
BigQuery

1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
CDI

Offre d'emploi
Data Engineer/Data Analyst Databricks & PowerBI H/F

JEMS
Publiée le

40k-50k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Data Engineer/Data Analyst spécialisé(e) sur Databricks et PowerBI capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression • Être l‘intermédiaire entre le Métier et la DSI • Accroître la connaissance de la clientèle d'une entreprise, conduire des études sur les bases de données, suivre les outils datamining pour analyser l'impact des actions marketing • Mener et conduire des études (coordination/pilotage) Référence de l'offre : 3cxk4ok195
2652 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous