Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 404 résultats.
Freelance

Mission freelance
Tech Lead Sénior Solution Lead (550€ MAX)

Publiée le
Méthode Agile

1 an
400-550 €
Île-de-France, France
Télétravail partiel
● Expertise reconnue dans l'écosystème de l'Encaissement Autonome (SCO/Self Check Out), ● incluant la connaissance des contraintes matérielles, logicielles et des solutions du marché. ● Pilotage d’équipe avec réorganisations structurantes. ● Pilotage de projets d’envergure impliquant un déploiement à risque et à grande échelle. ● Pilotage transverse d’équipe et forte capacité à aligner les parties prenantes (Produit, Ops, ● Support, Infrastructure). ● Excellente connaissance des contraintes liées au pilotage d’éditeur et de fournisseurs de solutions d’encaissement / SCO. ● Anglais courant ● Solides connaissances techniques autour de l'intégration d’applications éditeur et capacité à prendre des décisions d’architecture complexes. ● Bonne connaissance sur la mise en place de KPI, de monitoring avancé (Observability) et du suivi de performance d’applications critiques. ● Solide expérience en méthode de delivery Agile (Scrum, Kanban) et outils associés. ● Bonnes connaissances techniques autour de : Test Automation, Performance, Monitoring, CICD (avec des technologies comme Kafka, Kubernetes, etc.). ● Connaissance générale d’architecture des SI incluant une culture Cloud (GCP/Azure/AWS), API Management (Apigee), et Data (Data Lake).
Freelance

Mission freelance
Expert Automatisation / HCM & HPOO (H/F)

Publiée le
Cloud
DevOps

12 mois
400-550 €
Paris, France
Télétravail partiel
Notre client dans le secteur Banque et finance recherche un/une Expert Automatisation / HCM & HPOO (H/F) Description de la mission: Notre client du secteur bancaire est à la recherche de son futur Ingénieur Cloud DevOps en freelance ! Au sein de l'équipe Natif Data Cloud qui conçoit et opère les outils et services de l’environnement du Natif, vous serez amené à administrer et maintenir en condition opérationnelle les solutions de gestion de l’automatisation des plateformes (Cloud Management Platform) basées sur les outils OpenText HCM et Opération Orchestration (OO). La mission comprend le volet opérationnel de la solution pour lequel une bonne appréciation du sens du service et de l’approche “production” sont primordiales. Description des tâches : - Mise en œuvre opérationnelle et techniques des produits cloud management platform - Participation au Daily meeting animé par le Squad Lead - Gestion des incidents et problèmes, accompagnement et support des utilisateurs de la plateforme - Reporting
Freelance

Mission freelance
Data Analyst & Enabler / SQL /Python / Outils de BI / Tableau Software (H/F)

Publiée le
Data analysis
ETL (Extract-transform-load)
Python

6 mois
460-520 €
Villeurbanne, Auvergne-Rhône-Alpes
Télétravail partiel
Nous sommes à la recherche d'un Consultant Data Analyst & Enabler pour rejoindre l’équipe agile Data Platform de notre client grand compte dans le domaine de l'Energie. Vous aurez pour mission principale : d'être en appui sur la construction de produits data (développements BI, requêtage SQL, scripts Python), d'animer la communauté des utilisateurs BI/Self-service, de piloter des projets data spécifiques pour garantir leur livraison et leur adoption. Vous jouerez un rôle clé pour fluidifier l'usage de la donnée par les métiers, garantir la qualité des livrables techniques et accélérer l'autonomie des analystes via le Self-Service. Missions : Construction de Produits Data (Build) : Conception & Développement : Prendre en charge la réalisation de produits data concrets : création de tableaux de bord complexes (BI), écriture et optimisation de requêtes SQL pour l'analyse, et développement de scripts Python pour des traitements de données spécifiques. Qualité & Recette : Assurer les tests et la validation technique des produits développés avant leur mise à disposition aux métiers. Maintenance : Assurer le maintien en condition opérationnelle des rapports et scripts déployés. Animation de Communauté & SelfService Support & Formation : Animer la communauté des utilisateurs selfservice de la plateforme (en self-BI via l’outil Tableau, en SQL etc.). Accompagner les analystes métier dans leur montée en compétence. Communication : Être le point de contact privilégié pour les questions d'usage et les bonnes pratiques de la plateforme. Adoption : Promouvoir les nouveaux outils et datasets auprès des utilisateurs finaux. S’assurer qu’ils appliquent les bonnes pratiques d’optimisation des requêtes Pilotage de projets : Gestion de Projet : Piloter des projets data de bout en bout (cadrage, suivi, livraison) en respectant les contraintes de coûts et délais. Backlog & Spécifications : Collaborer étroitement avec le product owner et l’équipe data platform performance énergétique pour mettre en place les fonctionnalités et produits nécessaires à la communauté
Freelance

Mission freelance
Senior Project Manager – Infrastructure & Cloud

Publiée le
Cloud

18 mois
100-600 €
Paris, France
Télétravail partiel
Contexte : Expérience : 11 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Senior Project Manager Spécialités technologiques : Infrastructure, Cloud, Infrastructure & Cloud, Reporting Système d'exploitation Compétences Technologies et Outils Linux Windows CI/CD Cloud AzureAWS Méthodes / Normes Agile Soft skills Leadership Langues Anglais MISSIONS Contexte de la mission Dans le cadre d’un programme stratégique d’infrastructure visant à concevoir et déployer une zone réseau isolée (“run-off zone”), nous recherchons un Chef de projet senior expérimenté. Ce projet, d’envergure internationale et à forte visibilité, implique une interaction directe avec les plus hauts niveaux de management (CIO, CTO, Directeurs d’unités métier, etc.) et s’inscrit dans une trajectoire pluriannuelle devant s’achever fin 2026. Le poste requiert une solide compréhension des environnements réseau, sécurité, datacenter et cloud (public et privé), ainsi qu’une excellente capacité à naviguer dans des environnements complexes et politiques. Objectifs de la mission Le consultant aura pour mission de piloter la conception, l’organisation et la mise en œuvre de la nouvelle zone réseau isolée, en assurant la coordination entre les équipes techniques et les décideurs stratégiques. Responsabilités clés - Piloter la conception et la mise en place d’une zone réseau isolée conforme aux standards du groupe. - Coordonner les parties prenantes de haut niveau (CIO, CTO, responsables métiers, équipes IT). - Organiser la gouvernance du projet, le suivi des livrables et la priorisation des actions. - Garantir la cohérence technique des solutions déployées : réseau, sécurité, datacenter, cloud. - Contribuer à la migration d’applications vers les environnements cloud (public et privé). - Animer les comités techniques et de pilotage, produire les reporting et documentations de suivi. - Assurer la communication transverse, la diplomatie et la résolution des points de friction. -Appliquer les principes de l’Agile Framework pour la planification et la coordination. Expertise souhaitée Profil recherché - Expérience : Minimum 15 ans dans la gestion de projets IT complexes et à forte visibilité. - Formation : Ingénierie, informatique ou équivalent. - Background technique solide, idéalement acquis en environnement réseau, sécurité et infrastructure. Compétences techniques attendues : -Architecture réseau & sécurité (firewall, segmentation, outils réseau) - Déploiement et exploitation datacenter -Systèmes Windows et Linux - Outils de déploiement, CI/CD -Connaissance des environnements Cloud Azure / AWS (fort atout) -Compréhension des architectures hybrides (cloud public / cloud privé) Soft Skills attendus - Leadership naturel et capacité à fédérer dans des environnements multi-équipes et multiculturels - Excellente communication, sens de la diplomatie et maîtrise des interactions de haut niveau - Capacité à simplifier des sujets techniques complexes pour des interlocuteurs non techniques - Sens politique et orientation résultats -Forte aptitude à évoluer dans des environnements en transformation et à enjeux stratégiques Langues - Anglais professionnel courant (contexte international)
Freelance
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Python
SQL

1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Freelance

Mission freelance
Consultant Master Data SAP (Migration ECC → S/4HANA) (H/F)

Publiée le
SAP ECC6

6 mois
400-550 €
Bourges, Centre-Val de Loire
Télétravail partiel
Nationalité : Française obligatoire Mobilité : 2×3 jours/mois à Bourges , Le reste en IDF / Le Plessis-Robinson Langues : Anglais professionnel TJM max : 550€ Démarrage : ASAP DESCRIPTIF DE LA MISSION – Consultant Master Data SAP (Migration ECC → S/4HANA) 🎯 Informations générales Localisation : 2×3 jours par mois sur site à Bourges , le reste en Île-de-France (Le Plessis-Robinson / IDF). Démarrage : ASAP Nationalité : Française obligatoire Durée : 6 mois (renouvelables) Rythme : 3 jours sur site / 2 jours télétravail TJM max : 550 € Langue : Anglais professionnel 🧭 Contexte de la mission Dans le cadre du projet de migration du système d'information SAP , le client recherche un Consultant Master Data SAP pour accompagner la transition complète des données ECC → S/4HANA . La mission inclut toutes les activités de préparation, nettoyage, transformation et migration des données , avec un focus particulier sur : les Master Data Manufacturing (articles, BOM, gammes, objets techniques), les Business Partners , les données qualité et traçabilité , ainsi que l’utilisation intensive des outils LSMW , Mass Update et outils de Data Cleansing . Le consultant travaillera au quotidien avec les SMEs (experts métier), les équipes IT et les coordinateurs SAP pour garantir la fiabilité , la qualité et la complétude des données migrées. 🛠️ Rôle & Responsabilités 🔹 Migration ECC → S/4 Préparer, transformer et charger les données dans le cadre de la migration. Utiliser les outils de migration : LSMW , Mass Update , scripts, templates. Exécuter des reprises de données complexes. 🔹 Data Cleansing / Data Quality Utiliser CleanScene / CleanseIT pour le nettoyage des données. Identifier les incohérences, doublons, champs manquants, formats non conformes. Suivre la résolution des anomalies avec les métiers. 🔹 Gestion des Master Data Manufacturing Le consultant interviendra sur l’ensemble des objets MDM industriels, notamment : Articles / Matériaux Objets techniques Gammes Nomenclatures (BOM) Données PP / PPDS / Ordres de production Besoin indépendants Business Partners, clients, fournisseurs Données Qualité & Traçabilité 🔹 Coordination & documentation Participer à la rédaction et l’ajustement des FSD (sans en assurer la validation). Solliciter les métiers (SME) pour la validation des règles fonctionnelles. Contribuer à la préparation des phases de test (UAT) et de bascule finale . 🔹 Production de reporting technique Le consultant devra produire du reporting opérationnel pour les métiers : Power BI SQ01 / SQ02 (reports SAP) CDS Views exploitées sous Fiori SAP Analysis for Office (AFO / DAEM) 🧩 Profil recherché 🎓 Compétences indispensables Expérience concrète sur projets SAP ECC / S/4HANA . Très bonne maîtrise des outils de migration : LSMW , Mass Update , Data Cleansing (CleanScene / CleanseIT). Connaissance approfondie des Master Data Manufacturing. Aisance confirmée sur les objets PP / PPDS / PO. Expérience en création de reporting SAP (Power BI, SQ01/02, CDS Views, AFO). Habitude de travailler avec SMEs, IT, intégrateur SAP. Anglais professionnel. 🌟 Soft Skills Rigueur & précision Forte capacité d’analyse Communication transverse Capacité à challenger les règles métier Autonomie et proactivité ⭐ Compétences clés Master Data ECC / S4 – Manufacturing & Quality LSMW / Mass Update / Migration Cockpit CleanScene / CleanseIT Gammes, BOM, objets techniques PP / PPDS / PO Power BI, SQ01/SQ02, CDS Views, AFO Interaction métier / coordination SME / IT
Freelance
CDI

Offre d'emploi
DATA ENGINEER MICROSFT BI / POWER BI

Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SSIS

3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons un Data engineer Microsoft BI / Power BI. Contexte : La poursuite de la mise en place de la plateforme décisionnelle au sein du SI de Covéa Finance, nous recherchons un développeur MS BI confirmé . Le consultant interviendra sur le développement, la maintenance évolutive et corrective du système décisionnel. Il sera rattaché hiérarchiquement au Responsable MOE E&D et intégré à l’équipe DWH pour répondre aux demandes tactiques de la plateforme décisionnelle du directeur de projet. Missions principales : Formaliser les spécifications fonctionnelles et analyser les besoins. Identifier les impacts sur l’existant et proposer des solutions techniques. Participer à la modélisation des données et aux choix d’architecture technique. Contribuer au plan de charge et à la définition du planning. Rédiger les spécifications techniques et documents d’exploitation. Développer les nouvelles demandes : intégration de données, création de cubes tabulaires , rapports et dashboards. Assurer le déploiement en homologation et production. Accompagner la MOA et les métiers lors des phases de recette. Support et maintenance corrective (niveau 3). Remonter les informations et indicateurs à son responsable hiérarchique. Compétences techniques indispensables : Expertise sur Microsoft Fabric / MS BI . Maîtrise SQL et T-SQL . Développement et maintenance de SSRS et cubes tabulaires . Expérience en Power BI : dashboards, modélisation, DAX. Bonne compréhension des processus décisionnels et reporting métier . Compétences transverses : Esprit d’analyse et rigueur. Capacité à travailler en équipe et à collaborer avec les équipes métier et infrastructure. Autonomie et force de proposition. Bon relationnel et sens du service client interne. Localisation :
Freelance

Mission freelance
[SCH] Développeur COBOL / Data Mainframe - 1105

Publiée le

10 mois
350-400 €
Courbevoie
Dans le cadre du renforcement des équipes Mainframe, nous recherchons 2 Développeurs COBOL orientés Data pour intervenir sur des évolutions applicatives et la maintenance du patrimoine en production. Mission longue sur site client (banque). Missions : -Analyse d’impacts suite aux demandes projets -Rédaction des spécifications techniques (accès aux données, mappings…) -Suivi ou réalisation des développements Mainframe COBOL -Tests unitaires & tests d’intégration -Livraisons en environnement de recette -Respect des normes qualité, documentation et méthodes internes
Freelance
CDI
CDD

Offre d'emploi
consultant fonctionnel Salesforce Marketing Cloud S H/F

Publiée le
SOQL

12 mois
40k-60k €
450-550 €
Châtillon, Île-de-France
Contexte: Au sein de la DSI Points de Vente, dans notre domaine Client & Marketing, vous intégrerez l'équipe du pôle Relation Client en charge des applications CRM, en lien avec les équipes métiers et de réalisation. En tant que consultant fonctionnelle (e) Salesforce Marketing Cloud, vous serez rattaché au responsable du pôle et ferez partie d'une équipe composée d’une dizaine de collaborateurs. Vos Missions: En tant que consultant fonctionnelle (e) Salesforce Marketing Cloud, vous serez rattaché au responsable du pôle et ferez partie d'une équipe composée d’une dizaine de collaborateurs. Traduire les besoins métiers en exigences fonctionnelles dans Salesforce Marketing Cloud. Configurer les modules Marketing Cloud (Email Studio, Journey Builder, Automation Studio, Mobile Studio…). Accompagner la prise en main de l’outil via des sessions de formation et de démonstration. Préparer et optimiser la chauffe IP (IP Warming) pour assurer une délivrabilité optimale. Définir et mettre en place les bonnes pratiques de délivrabilité et de gestion des contacts Concevoir et paramétrer les campagnes omnicanales (email, SMS, push, web). Construire et optimiser les Journeys n cohérence avec les objectifs marketing Superviser la qualité des données (audits, segmentation, gestion des abonnements et consentements). Créer et maintenir la documentation fonctionnelle et les guides utilisateurs. Assurer le support fonctionnel auprès des équipes métiers lors de l’exécution des campagnes. Participer aux phases de recette fonctionnelle des configurations et parcours. Analyser les performances des campagnes et proposer des recommandations d’optimisation • Maîtriser les outils de reporting Marketing Cloud (Intelligence Reports / Datorama Reports / Analytics) et mettre en place des tableaux de bord pertinants Accompagner le métier dans l’exploitation des rapports, leur interprétation, et la prise en main de la dimension analytique pour améliorer leurs campagnes. Assurer une veille fonctionnelle et produit afin de proposer des améliorations continues.
Freelance

Mission freelance
Manager AMOA & Gouvernance SI / DATA – DSI Interne

Publiée le
Data management
Gouvernance
Pilotage

6 mois
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein de la Direction des Systèmes d’Information Interne , pour piloter l’équipe AMOA & Gouvernance SI/DATA dans un environnement multi-BUs, multi-outils et multi-process . Votre rôle : garantir la cohérence du SI Corporate et valoriser la donnée au cœur des activités métiers. ✅ Vos missions principales : 👥 Management d’équipe • Encadrer, animer et développer les compétences de l’équipe AMOA & Data • Prioriser la charge et assurer la cohérence avec la feuille de route SI interne • Favoriser la collaboration transverse entre IT et métiers 🚀 Conduite de projets & Transformation SI / Data • Accompagner les métiers dans le cadrage et la mise en œuvre des solutions SI • Piloter les projets de bout en bout (gouvernance, planification, recette, mise en prod) • Garantir la qualité, la sécurité et la conformité des projets Data 🧭 Urbanisation & Gouvernance de la donnée • Déployer la gouvernance des données et animer la culture Data • Gérer les référentiels internes (clients, produits, projets…) • Maintenir la cartographie du SI et la documentation fonctionnelle
Freelance

Mission freelance
Consultant en systèmes d'information ( H/F )

Publiée le
Azure DevOps
BigQuery
DAX

36 mois
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Missions principales Concevoir, développer et faire évoluer des solutions de Business Intelligence basées sur Power BI dans un environnement Data à grande échelle Définir et faire évoluer l’architecture Data & BI dans des environnements Cloud (Azure) Développer des modèles de données performants et des rapports Power BI complexes en s’appuyant sur le langage DAX Mettre en œuvre les opérations de préparation, transformation et analyse de données issues de plateformes cloud (notamment BigQuery – GCP) Intégrer des contenus Power BI dans des portails sécurisés et des applications métiers Garantir la qualité des livrables via la documentation technique, les standards de développement et les bonnes pratiques BI Intégrer les développements dans des chaînes d’intégration continue (Azure DevOps / Git) Déployer et maintenir les solutions BI sur différents environnements (développement, intégration, production) Participer au maintien en conditions opérationnelles des plateformes Data (BUILD & RUN) Contribuer à l’amélioration continue des outils, des processus et des pratiques Data & DevOps Accompagner et former les équipes internes et internationales sur les bonnes pratiques Power BI et Data
Freelance

Mission freelance
Développeur Sinequa LLM Confirmé & Certifié (secteur bancaire)

Publiée le
C#
Cloud
Java

1 an
540-800 €
Paris, France
Télétravail partiel
En tant que Développeur Sinequa LLM, vous interviendrez sur : Le développement, la configuration et l’intégration de solutions Sinequa. L’optimisation et le déploiement de modèles LLM au sein de l’écosystème Sinequa. La mise en place et l’évolution des pipelines de données. La gestion et le tuning des connecteurs et des index. La contribution à l’amélioration continue des performances et de la pertinence des moteurs de recherche. La rédaction de la documentation technique et fonctionnelle. Le support technique auprès des équipes internes.
Freelance

Mission freelance
Lead MLOps Python - Spécialiste IA/RAG

Publiée le
IA
MLOps
Python

3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Freelance

Mission freelance
[FBO] Data Engineer avec expertise MLOps

Publiée le
Planification
Python

3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
CDI

Offre d'emploi
Architecte d'entreprise H/F

Publiée le

65k-75k €
75001, Paris, Île-de-France
Télétravail partiel
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client ( banque privée) basé à Paris 1er un Architecte d'entreprise H/F dans le cadre d'un CDI. Rattaché au DSI, l'Architecte d'entreprise H/F doit définir, maintenir et gouverner la trajectoire d'architecture (métier, data, applicative, intégration, technique/cloud, sécurité) afin d'assurer un SI cohérent, résilient, auditable et conforme, notamment au regard des attentes ACPR/BCE/EBA et du règlement DORA, avec un focus sur l'inventaire, la cartographie, et les dépendances des actifs TIC supportant les fonctions critiques/importantes. Missions principales A. Stratégie d'architecture d'entreprise * Définir et maintenir la cible d'architecture (Target Architecture) et la trajectoire (roadmap) en alignement avec la stratégie de la banque. * Construire/maintenir la Business Architecture : modèle de capacités, cartographie processus/fonctions, analyses de maturité. * Réaliser les analyses d'impact pour cadrer les évolutions et arbitrages. B. Gouvernance, standards et revues d'architecture * Mettre en place et animer la gouvernance d'architecture : principes, standards, patterns (API, intégration, data, IAM, cloud, etc.). * Conduire les revues d'architecture des projets majeurs pour assurer la conformité aux standards et à la stratégie, ainsi que la gestion des risques (sécurité, résilience, conformité réglementaire). C. Référentiels, cartographies et exigences DORA * Maintenir un dispositif « audit-ready » d'inventaires et cartographies du SI (applications, données, flux, dépendances, actifs critiques). * Assurer l'alignement avec les exigences réglementaires, notamment DORA Art. 8, en matière de résilience et de continuité. D. Rationalisation et modernisation du portefeuille * Piloter l'évaluation et la rationalisation du portefeuille applicatif. * Promouvoir des trajectoires de modernisation alignées avec la stratégie de la DSI de la banque. E. Innovation et amélioration continue * Effectuer une veille technologique et proposer des pistes d'innovation adaptées aux services financiers de la banque. * Animer des ateliers avec les parties prenantes pour aligner besoins, risques, architecture et planning. 3. Livrables attendus * Cartographie du SI à jour (applications, données, flux, tiers). * Modèle de capacités (capability map métier et IT) et trajectoire pluriannuelle. * Dossiers d'architecture (HLD/LLD, standards et patterns). * Avis d'architecture + registre des dérogations et plans de remédiation. * Exigences d'exploitabilité (« Architecture Run Readiness »). * Référentiel DORA Art. 8 : inventaires, actifs critiques, interdépendances, configurations. 4. Indicateurs de performance (KPI/KRI) KPI : * Taux de couverture des cartographies (applications, flux, tiers) et délais de mise à jour post-changement. * % de projets majeurs validés en revue d'architecture avant Go-Live. * Réduction de la redondance applicative et de la complexité. KRI : * Zones non cartographiées du SI sur les périmètres critiques. * Nombre de dépendances critiques non maîtrisées. * Nombre de dérogations sans plan de remédiation ou exceptions permanentes. Compétences requises Compétences techniques : * Vision transverse : business, data, applicatif, intégration, infrastructure, cloud/hybride. * Expertise en urbanisation SI, architecture API/événementielle, data governance. * Maîtrise des concepts de résilience (PRA/PCA, observabilité, SRE). * Connaissance des exigences réglementaires (notamment DORA Art. 8). Compétences comportementales : * Excellente communication orale et écrite, capacité de synthèse et de vulgarisation. * Leadership d'influence, capacité à challenger de manière constructive. * Rigueur, sens du risque et exigence de traçabilité « audit-proof ». * Capacité à arbitrer valeur vs risque vs coût vs délai.
Freelance

Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75

Publiée le
Databricks
Microsoft Fabric
PySpark

12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.
3404 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous