Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 819 résultats.
Freelance

Mission freelance
Chef de projet Senior Migration Sharepoint data

Mon Consultant Indépendant
Publiée le
SharePoint

12 mois
640-680 €
Paris, France
Bonjour, Nous recherchons un Project Manager SharePoint senior + de 10 ans d'expérience pour piloter une migration complexe déjà engagée et sécuriser les prochaines étapes critiques. La mission couvre • la finalisation de la migration de données SharePoint (On-Prem & Online/Teams vers une cible On-Prem unique) • la préparation et le pilotage de l’ upgrade vers SharePoint Subscription Edition Environnement sensible, à forts enjeux métiers et de sécurité, avec une attente forte de maîtrise du delivery et de réassurance des parties prenantes Profil recherché : • Chef de projet senior/expert (10+ ans) expert SharePoint On-Prem & Online • Solide track record sur des migrations SharePoint complexes , idéalement en contexte de souveraineté / sécurité • Capacité à reprendre un projet en cours, structurer, cadrer et piloter les équipes techniques • Forte compétence en change management et communication avec les équipes métiers • F rançais / anglais , présentiel majoritaire • Démarrage ASAP , mission 6 mois
Freelance
CDI

Offre d'emploi
Tech Lead IAM - Data - Chiffrement (H/F)

5COM Consulting
Publiée le
Grafana
Keycloak
Red Hat

3 ans
Paris, France
Nous recherchons un(e) Tech Lead expérimenté(e) pour piloter la conception et l'évolution des solutions IAM, Data et Chiffrement au sein d'une équipe Engineering Platform. Vous serez le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, tout en accompagnant la transformation technique et organisationnelle. Vos missions principales Management & Organisation Encadrer et faire monter en compétences les équipes (collaborateurs internes et prestataires) Définir la roadmap technique et prioriser les initiatives stratégiques Animer les rituels Agile (Scrum/Kanban) et participer aux comités de pilotage Assurer la coordination transverse avec les équipes projets, production et sécurité Promouvoir les bonnes pratiques DevSecOps et la culture d'amélioration continue Expertise Technique Maîtriser les protocoles d'authentification : SAML v2, OpenID Connect, OAuth2, WebAuthn, FIDO2 Concevoir et superviser l'intégration de solutions IAM dans des environnements Cloud (AWS, Azure, GCP) Définir les standards de chiffrement et de gestion des clés/certificats Orienter les développements en Java/Spring Boot/JEE selon les principes Clean Code Superviser l'optimisation des bases PostgreSQL et garantir la haute disponibilité (PCA/PRA) Contrôler la conformité des pipelines CI/CD (GitHub Actions, Jenkins) Mettre en place l'observabilité (Grafana, Prometheus, Loki)
Freelance
CDI

Offre d'emploi
Expert Data Snowflake / Azure (H/F)

Lùkla
Publiée le
Snowflake

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet stratégique de mise en place d’un MVP Data, nous recherchons un Expert Data Snowflake / Azure, avec une forte culture Data Engineering et Cloud. Vos missions : Participer à la conception et à l’implémentation de l’architecture Data basée sur Snowflake et Azure Contribuer aux choix d’architecture cloud, data et infrastructure Développer et optimiser les pipelines de données (ingestion, transformation, modélisation) Travailler sur les aspects performance, sécurité et scalabilité Collaborer étroitement avec les équipes projet et les partenaires impliqués dans l’implémentation Intégrer les bonnes pratiques DevOps / DataOps Environnement technique : Snowflake Microsoft Azure Concepts Cloud & Architecture Data Infrastructure & DevOps (CI/CD, automatisation, monitoring…) Outils Data Engineering
Freelance

Mission freelance
Chef de projet - Data Management / Framework

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
75001, France
🧭 Chef de projet - Expert Data Management / Frameworks (F/H) 🏦 Secteur : finance | 📍 Paris (hybride) | 🗣️ Anglais requis 🆔 Réf. : DM Frameworks | 🚀 Démarrage : ASAP | ⏳ Durée : longue 🎯 Contexte Dans le cadre du déploiement des frameworks Groupe en France : ✅ Data Management Control (gouvernance, data quality , lineage , conformité) 🧩 EUC - End‑User Computing (inventaire, criticité, contrôles d'accès, documentation, recovery) Votre mission : adapter localement ces cadres, définir la feuille de route et piloter les contrôles jusqu'à la mise en conformité . Environnement multi‑pays , nombreux stakeholders (Finance, Regulatory Reporting, KYC, IT/Data). 📄 Documentation 100% en anglais. 🛠️ Vos missions 🧭 Localiser les frameworks Groupe pour la France (périmètre, exigences minimales, mode d'implémentation) 🧾 Construire la matrice de contrôle & les evidences (owners, périodicité, workflows, runbooks) 🧱 Gouvernance EUC : inventaire, classification/criticité, contrôles d'accès, BCP/Recovery , cycle de vie 📊 Sécuriser DQ & Lineage : règles, seuils, KPIs , monitoring & remédiations 📚 Produire standards & templates (policies, modèles, playbooks) et animer l' acculturation (stewards/owners) 📈 Reporting clair et régulier aux sponsors (indicateurs, risques, décisions) 👤 Profil recherché (must‑have) 🎓 7-10+ ans en Data Management (gouvernance, data quality , metadata/lineage ) en banque 🧩 Maîtrise des cadres de contrôle data & EUC governance (métier + IT) 📘 Culture DAMA‑DMBOK / DCAM ; sens de la conformité et de la traçabilité (certifiations non obligatoires) 🗣️ Anglais courant (écrit/oral, comités & doc) 🤝 Coordination multi‑équipes, communication solide et conduite du changement 🔎 Modalités 📍 Paris - hybride 🗓️ ASAP, mission longue (programme pluriannuel) 🗣️ Anglais requis
Freelance

Mission freelance
Consultant Senior Data – Référent Technique & Architecte Dataiku / Braincube

Signe +
Publiée le
Dataiku

12 mois
700 €
Malakoff, Île-de-France
Contexte Dans le cadre du déploiement et de l’exploitation des plateformes Dataiku et Braincube , le consultant interviendra comme référent technique et architectural au sein de la Data Factory. Il garantira la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise . Environnement technique Dataiku : Design Node, Automation Node, API Node, Deployer Node (AWS & On Premise C3) Braincube hébergé sur AWS (EKS), opéré par l’éditeur Écosystème data : AWS EKS, Snowflake, stockage, ingestion, restitution Environnement collaboratif : Teams, backlog, documentation centralisée Environnements : Dev / Pré-production / Production avec processus d’industrialisation Missions principales Assurer le rôle de référent technique et architectural Dataiku / Braincube Maintenir les standards techniques et assurer la conformité des usages et licences Gérer incidents, demandes et changements (RUN & BUILD) Piloter la performance des plateformes, définir et suivre SLAs et KPIs Construire et piloter la roadmap technologique Garantir sécurité, résilience, conformité (RBAC, chiffrement, RGPD) Coordonner les équipes France / Inde et les interfaces DSIC Participer à l’amélioration continue et à la gestion du plan de charge Contribuer à la gestion de l’obsolescence technologique Livrables attendus Offre de service (ServiceNow) Reporting et météo du service Guides de bonnes pratiques Dataiku / Braincube Supports de formation et d’onboarding Cartographie des flux et des modèles data Business model du service Compétences requises Expertise AWS (S3, EKS, EC2, IAM…) Maîtrise de Dataiku et bonnes connaissances Data / ML Ops Solide compréhension des architectures SI & data Sensibilité forte aux sujets de gouvernance et sécurité Capacité de documentation, vulgarisation et structuration de services Aisance dans des contextes internationaux (France / Inde) Profil recherché Consultant senior avec minimum 8 ans d’expérience Capacité à prendre un rôle transverse et structurant Autonomie, rigueur et posture de référent Nationalité française (obligatoire) Modalités Démarrage : courant février Fin de mission : 30/06/2026 (renouvelable) Télétravail : 2 jours / semaine Localisation : Paris / Malakoff + déplacements ponctuels (Châteaufort, Magny-les-Hameaux)
Freelance

Mission freelance
AI Product Owner

Codezys
Publiée le
Azure
Cloud
Data science

12 mois
Lille, Hauts-de-France
Principales missions : Vision & Stratégie Produit IA : Définir la stratégie des solutions IA en collaboration avec les équipes métier, en identifiant les opportunités dans les domaines du Risque, du Paiement, du Digital, etc., et en priorisant les projets selon leur valeur et faisabilité. Gestion du Backlog & Priorisation : Coordonner et prioriser les initiatives en Data Science et IA en traduisant les besoins métier en fonctionnalités, en maintenant le backlog et en arbitrant les priorités pour maximiser l’impact business à chaque sprint. Pilotage du Delivery Agile : Superviser la livraison des projets IA via des méthodologies agile (Scrum/Kanban), organiser les cérémonies, suivre l’avancement, lever les obstacles, et garantir le respect des délais, du budget et de la qualité, tout en communiquant avec les sponsors. Coordination Métiers–Data–IT : Servir d’interface entre les équipes Data Science, IT et métiers, en facilitant la co-construction de solutions adaptées, en intégrant les contraintes techniques et en assurant une mise en œuvre fluide. Crédit & Risque (Scoring) – Use cases « Machine Learning » classiques : Piloter l’évolution des modèles de scoring crédit (octroi, scores comportementaux), en concevant, expérimentant, déployant et en monitorant les modèles en collaboration avec Risque et Validation, en s’assurant qu’ils respectent les normes réglementaires et qu’ils améliorent la stabilité du coût du risque. IA Générative & Agents : Explorer et déployer des cas d’usage liés à l’IA générative, tels que chatbots, assistants cognitifs ou systèmes avec LLM/RAG, pour automatiser l’analyse de documents, soutenir les équipes internes ou enrichir le support client, en définissant objectifs et indicateurs de performance.
Freelance

Mission freelance
SAP Data Migration Cockpit - Consultant technico fonctionnel

EBMC
Publiée le
SAP

6 mois
400-740 €
Île-de-France, France
Dans le cadre d’un projet de transformation SAP S/4HANA de type Greenfield, nous recherchons un consultant technico-fonctionnel freelance pour intervenir sur les activités de migration de données via SAP Data Migration Cockpit. La mission porte sur un périmètre fonctionnel large incluant les modules FI, CO, MM, SD et PS, avec un rôle central dans la préparation, le pilotage et la sécurisation des flux de données vers le nouvel environnement S/4. Le consultant interviendra en lien étroit avec les équipes projet afin de garantir la qualité, la cohérence et la fiabilité des données migrées, depuis les phases de cadrage jusqu’aux chargements finaux. Il participera activement aux ateliers de définition, aux tests de migration et à la résolution des anomalies, dans un contexte exigeant propre aux projets Greenfield.
Freelance

Mission freelance
PM - Product Management Transverse Agile

Byrongroup
Publiée le
Confluence
Data analysis
JIRA

1 an
400-500 €
Île-de-France, France
Vision & stratégie produit • Co-construire la vision produit et décliner la stratégie sur votre périmètre • Déployer et piloter la roadmap en priorisant les initiatives à fort impact • Co-construire les OKR de la value team et piloter leur atteinte Pilotage & priorisation • Traduire les besoins utilisateurs et métiers en problèmes clairs et priorisés • Construire des hypothèses de valeur, orienter les choix via des KPI, ROI et analyses de risques • Arbitrer entre portée, valeur et capacité des équipes, en assurant la cohérence inter-squads Cycle de vie produit • Piloter le discovery : compréhension utilisateur, exploration, tests, faisabilité • Prioriser le backlog, animer les rituels agiles et garantir la qualité fonctionnelle des livrables • Coordonner le go-to-market avec les équipes marketing, change et support Leadership & coordination transverse • Collaborer avec plusieurs value teams, équipes tech transverses et parties prenantes métiers • Contribuer à diffuser une culture produit orientée valeur, expérimentation et mesure d’impact Mesure d’impact & amélioration continue • Mettre en place des KPI d’usage, de valeur et de performance • Monitorer les résultats et piloter les plans d’amélioration continue • Partager régulièrement les apprentissages et next steps à la gouvernance
Freelance
CDI

Offre d'emploi
Expert Agentic AI & LLM

R&S TELECOM
Publiée le
AWS Cloud
Azure
Hortonworks Data Platform (HDP)

1 an
Malakoff, Île-de-France
CONTEXTE GENERAL : Dans un contexte de transformation numérique et d’essor rapide de l’intelligence artificielle générative et agentique, le Groupe, via sa DSI centrale, souhaite structurer et maîtriser l’introduction de ces technologies au sein de son système d’information. L’objectif est d’explorer les apports de l’Agentic AI pour soutenir les métiers et les fonctions transverses. Missions : Partenariats & écosystème plateformes Cartographier l’écosystème des éditeurs/intégrateurs et identifier les bons interlocuteurs. Préparer, animer et restituer les workshops partenaires (ex. AWS, Microsoft, MuleSoft, Snowflake). Évaluer les offres (frameworks, orchestration, observabilité, sécurité, gouvernance, intégration SI). Discovery & cas d’usage Agentic AI Animer des ateliers multi-domaines pour : • définir des cas d’usage transverses (support, IT ops, knowledge assistant, productivité dev, automation), • définir des cas d’usage spécifiques à l’aéronautique (maintenance, supply chain, engineering, ops, qualité, MRO, doc). Formaliser les cas d’usage : objectifs, périmètre, acteurs, données, risques, critères de succès. Prioriser selon valeur/risque/effort (quick wins vs bets stratégiques). Recommandations plateformes & trajectoire Proposer des patterns d’architecture Agentic AI (RAG, multi/single agent, event-driven, human-in-loop). Recommander plateformes/briques : cloud, iPaaS, API management, vector DB, orchestration, MLOps/LLMOps. Définir la trajectoire de déploiement : MVP → industrialisation, critères de passage en production, exigences non fonctionnelles. Portfolio, roadmap & gouvernance Construire un portfolio projet (lots, jalons, budget, staffing, dépendances SI). Définir la gouvernance : prise de décision, sécurité, conformité, data governance, gestion des risques, modèle opérationnel. Exploration technologique & livrables Piloter des tech spikes/POC orientés faisabilité et design. Produire un livre blanc interne : standards, patterns, comparatif plateformes, guidelines sécurité, recommandations d’industrialisation, retours d’expérience.
CDI
Freelance

Offre d'emploi
Data Engineer Hadoop/Cloudera/Airflow/Spark

OBJECTWARE
Publiée le
Apache Airflow
Apache Spark
Cloudera

3 ans
40k-67k €
400-550 €
Île-de-France, France
Les missions sont : Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Freelance

Mission freelance
Data scientist IA + Python + GCP

emagine Consulting SARL
Publiée le
AI
BigQuery
Google Cloud Platform (GCP)

3 ans
Île-de-France, France
Descriptif mission : En coordination avec les différents acteurs du pôle Payment et du Groupe • contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • Exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs Connaissances techniques : Maîtrise des architectures et plateforme de l’IA ainsi que du Cloud. • Environnements et outils de Google Cloud Platform : - BigQuery, - Airflow, - Vertex Ai/Notebook Jupyter • Maîtrise des algos ML (notamment classification et NLP) • Langages : SQL, Python (Pandas, Scikit learn, Tensor Flow) • Delivery : Git, Jenkins / Cloud Build • Connaissance du Data Engineering fortement appréciée • Bonne connaissance générale des logiques décisionnelles Connaissances fonctionnelles : Comprendre l’environnement et les métiers de Paiements. Une connaissance préalable des paiements serait un plus.
Freelance
CDI

Offre d'emploi
Data Engineer Cloud & BI (Finance)

Amontech
Publiée le
Azure
Git
Google Cloud Platform (GCP)

1 an
40k-45k €
400-450 €
Île-de-France, France
Contexte Nous recherchons un(e) Data Engineer pour rejoindre un projet stratégique dans le secteur bancaire. La mission vise à améliorer l’exploitation des données métiers à travers la création et la refonte de dashboards et le développement de solutions analytiques sur le cloud. Missions Comprendre l’environnement et les besoins métiers pour proposer des solutions adaptées S’approprier et optimiser les dashboards existants Collecter, transformer et gérer les données en garantissant leur qualité, intégrité et sécurité Participer à la définition et au suivi des KPI métiers Animer des ateliers et groupes de travail avec les utilisateurs pour collecter les besoins Développer et automatiser les traitements de données Former et accompagner les utilisateurs sur les outils et dashboards Contribuer à l’amélioration de l’expérience utilisateur (UX) et du design des tableaux de bord
Freelance

Mission freelance
Product Manager / Product Owner technique – API & Data Platform (H/F)

TEOLIA CONSULTING
Publiée le
API
API REST
JSON

12 mois
400-550 €
Paris, France
Dans le cadre d’une mission à fort enjeu sur un produit cœur de système d’information , nous recherchons un(e) Product Manager / Product Owner à forte culture technique , capable d’intervenir sur une plateforme transverse exposant des services via API . Vous intégrerez un environnement complexe, structurant et à forte volumétrie de données, impliquant de nombreux consommateurs (équipes internes, produits aval, partenaires). Votre rôle consistera à piloter la vision produit , à structurer les flux de travail et à garantir la valeur délivrée, en étroite collaboration avec les équipes de développement et les parties prenantes techniques. Vous interviendrez notamment sur : Le pilotage produit de services exposés via API REST La gestion et l’évolution de modèles de données complexes Le cadrage, la priorisation et la structuration du backlog Le recueil de besoin via des approches de discovery (interviews, mapping, analyse d’usages) L’amélioration continue de l’organisation produit (flux, indicateurs, visibilité) L’adaptation des pratiques agiles aux contraintes opérationnelles (Kanban, flux continus, feature teams) Ce poste nécessite une forte proximité avec les équipes techniques et une réelle capacité à dialoguer avec des développeurs backend et data sur des sujets structurants.
Freelance
CDI

Offre d'emploi
Expert IBM Infosphere Data Replication (IIDR)

VISIAN
Publiée le
IBM Cloud

1 an
40k-45k €
400-700 €
Paris, France
Descriptif du poste Dans le cadre du programme qui vise à construire une Data Platform intégrée, la réplication des données AS/400 vers le Data Hub est un enjeu clé. IBM Infosphere Data Replication (IIDR) est l'outil en place pour assurer la synchronisation des tables de l'AS/400 (on-premise) vers PostgreSQL (Cloud). Actuellement, le périmètre des tables répliquées est limité, mais il s'étendra significativement en 2025, avec un objectif de réplication en near-sync. Toutefois, plusieurs défis doivent être adressés : Incidents en production non résolus, liés soit à la configuration existante de IIDR, soit à des instabilités sur la base PostgreSQL. Problèmes de doublons issus de l'AS/400, nécessitant des stratégies de gestion des clés et des identifiants uniques. Difficultés de réplication des tables volumineuses, où les mécanismes standards ne permettent pas d'assurer une synchronisation efficace.
Freelance

Mission freelance
BA Data Banque / Crédit - Paris

Net technologie
Publiée le
Data analysis
Reporting

6 mois
Paris, France
🚀 Contexte : Dans le cadre d’un programme international stratégique, nous recherchons un(e) BA pour accompagner la transformation front-to-back de la chaîne de Crédit et renforcer l’équipe Reporting / Data. ❇️ Missions : Le rôle couvre l’analyse des besoins Métiers, la définition des solutions fonctionnelles, la coordination avec des équipes IT internationales, le suivi des phases de build, tests et mises en production, dans un contexte Agile, à forts enjeux Business & IT.
Freelance

Mission freelance
Expert Data Streaming Kafka

JobiStart
Publiée le
Apache Kafka
Spark Streaming

3 ans
400-550 €
Paris, France
Expert en systèmes distribués, votre mission est de concevoir, déployer et administrer les clusters Apache Kafka au cœur de l'échange de données en temps réel de la banque. Vous intervenez sur la configuration fine des brokers, la gestion des topics, des schémas (Schema Registry) et des partitions pour garantir une haute disponibilité et une tolérance aux pannes maximale. Vous accompagnez les équipes de développement dans l'implémentation des producteurs et consommateurs, ainsi que dans l'utilisation de Kafka Streams ou ksqlDB pour le traitement de flux. Vous assurez le monitoring proactif des performances (latence, débit), la sécurité des flux (SSL/SASL/ACLs) et le troubleshooting complexe en environnement de production critique. Vous êtes le référent sur les stratégies d'archivage et de réplication inter-sites.
1819 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous