Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 595 résultats.
Mission freelance
Data Layer - Business Analysis
Net technologie
Publiée le
Big Data
6 mois
Paris, France
Au sein du département informatique du client en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de type Business Analyst pour contribuer sur un projet central autour de la donnée. Objectifs de la mission: - Formalisation des règles de gestion pour les développeurs et les accompagner dans leur implémentation - Formalisation des cahiers de tests : contribuer à l'approche TDD/BDD - Spécification de l'intégration de nouvelles sources de données : opérations et référentiel - Etudes et analyses du backlog d'équipe - Expertise en mode Agile
Mission freelance
Data Engineer confirmé - DATA et IA
Calytis
Publiée le
Big Data
Cloud
DevOps
12 mois
450-510 €
Paris, France
La prestation vise à contribuer à la réalisation des initiatives Data et IA 2026 au sein de la direction Informatique et d’un environnement technologique Cloud et Big Data. Elle a pour objectif de mettre à disposition une expertise Data engineering et de produire et d’industrialiser des traitements de données, des alimentations vers le socle Data et des composants Data/IA, tout en facilitant l’exploitation de ces éléments par les équipes consommatrices de données. La prestation s’inscrit également dans un cadre de collaboration avec les équipes internes Data science. sur des usages analytiques et IA, afin d’assurer la bonne compréhension, formalisation et couverture des besoins Data liés aux cas d’usage. La prestation consiste à : a. Réalisation et automatisation des flux de données - Conception et développement de flux d’alimentation de données vers les environnements Data et Innovation. - Mise en oeuvre de pipelines Cloud automatisés (Snowflake, Python, PySpark, services AWS tels que CloudFormation, Lambda, EMR, S3, EC2, Step Functions…). - Intégration de données issues de sources multiples, structurées ou non structurées. b. Développement de produits et composants Data/IA -Conception et réalisation de traitements, applications ou composants Data/IA. - Participation à l’industrialisation de modèles IA/ML et IA générative. c. Structuration, qualité et gouvernance des données - Normalisation, nettoyage, qualification et validation des données. - Documentation des structures de données, référentiels et règles de gestion. - Contribution à la cartographie et au référencement des données. d. Formalisation et clarification des besoins Data - Contribution à la formalisation des besoins Data exprimés par les équipes utilisatrices (dont les équipes analytiques). - Organisation et animation des ateliers nécessaires à cette clarification. e. Conception et intégration Cloud/DevOps - Mise en oeuvre et automatisation des déploiements via Azure DevOps. - Participation aux architectures Cloud Data (AWS + Snowflake). - Intégration de traitements ETL/ELT selon les standards techniques Livrables : Pipelines et flux d’alimentation opérationnels, automatisés et documentés. - Composants ou produits Data/IA prêts à l’usage. - Cartographie et documentation des données intégrées (référentiels, dictionnaires, règles). - Rapports de contrôle qualité, incluant duplications, cohérence, fraîcheur, conformité RGPD. - Documentation technique et architecture (Cloud, DevOps, Data). - Supports d’ateliers de clarification des besoins Data. - Datalake alimenté et dimensionné, avec données validées.
Offre d'emploi
Ingénieur DevOps – Cloud Public GCP (Confirmé à Expert)
RIDCHA DATA
Publiée le
Ansible
CI/CD
Google Cloud Platform (GCP)
1 an
Boulogne-Billancourt, Île-de-France
Contexte de la mission Dans le cadre d’un programme de transformation digitale stratégique, l’entreprise recherche un Ingénieur DevOps pour intervenir sur une plateforme digitale centrale hébergée en grande partie sur le cloud public Google Cloud Platform (GCP) . La mission s’inscrit dans un environnement Agile et collaboratif, avec de forts enjeux d’industrialisation, de sécurisation et d’optimisation des infrastructures IT et cloud. Objectifs principaux Industrialiser et automatiser les déploiements d’infrastructures et d’applications sur le cloud public GCP Garantir la stabilité, la sécurité et la performance des environnements IT Optimiser les coûts et l’utilisation des ressources (FinOps) Accompagner la mise en production des services digitaux Missions clés Déployer les infrastructures et services via des outils d’Infrastructure as Code (Terraform, Ansible) sur GCP Mettre en place et maintenir les pipelines CI/CD (GitLab CI) Administrer les environnements Linux/Unix et les ressources cloud GCP Assurer la supervision, le monitoring et la gestion des incidents (RUN) Appliquer les bonnes pratiques de sécurité systèmes, réseaux et cloud Optimiser les performances des infrastructures et des flux réseau Rédiger et maintenir la documentation technique Participer aux démarches d’optimisation des coûts cloud (FinOps) Compétences techniques essentielles Expertise solide en infrastructures IT et cloud public (notamment GCP) Très bonnes compétences en réseaux (architecture, performance, sécurité) Infrastructure as Code : Terraform, Ansible CI/CD : GitLab CI Administration Linux/Unix Sécurité des environnements cloud et pipelines Monitoring et observabilité Compétences complémentaires appréciées Connaissances en IA, Machine Learning et IA générative Maîtrise des méthodologies Agiles (SAFe apprécié) Anglais technique
Offre d'emploi
Data Analyst - Data Scientist
VISIAN
Publiée le
IA
Machine Learning
Natural Language Processing (NLP)
1 an
40k-45k €
400-670 €
Île-de-France, France
🎯 Mission principale Au sein d’une organisation spécialisée dans la data et les solutions de paiement, vous contribuez à la mise en place de projets décisionnels et Big Data en collaboration avec les équipes métiers et IT. 🧩 Responsabilités principales Contribuer à des projets décisionnels et Big Data. Participer à l’animation d’ateliers et de groupes de travail avec les utilisateurs et équipes techniques. Recueillir et analyser les besoins métiers. Concevoir et développer des reportings décisionnels : définition d’indicateurs statistiques, qualité et financiers Réaliser des analyses exploratoires de données. Rédiger la documentation projet : spécifications fonctionnelles et techniques cahiers de tests et de recette Participer aux phases de validation et de recette. Former et accompagner les utilisateurs finaux.
Offre premium
Mission freelance
Tech Lead Intégration & Data Flows (H/F) - 92
Mindquest
Publiée le
CFT (Cross File Transfer)
Confluence
Control-M
6 mois
Courbevoie, Île-de-France
Au sein d’un acteur du secteur assurantiel, l’équipe Intégration & Data Management pilote plusieurs progiciels hébergés ainsi que des services externalisés stratégiques (comptabilité, trésorerie, modélisation des risques, reporting réglementaire, gestion d’actifs, prévoyance, rentes, etc.). L’équipe est composée de : 3 Business Analysts 3 Technical Leads 5 Développeurs Le Technical Lead occupe un rôle central, en interface directe avec les équipes métiers, les BA et les développeurs. Pilotage & Coordination: Construire et suivre les plannings (développement, tests, mises en production) Organiser les montées de versions des progiciels hébergés et services externalisés Livrer les évolutions réglementaires en production Piloter les mises à jour systèmes et logicielles Run & Supervision: Revue des alertes serveurs et analyse des incidents Garantir la fiabilité des flux SFTP et CFT Assurer le bon fonctionnement global des applications Intégration & Architecture: Concevoir, mettre en œuvre et piloter les flux d’intégration entre les applications du SI Participer activement à l’amélioration continue des processus
Mission freelance
Governance & Data Management Lead
ALLEGIS GROUP
Publiée le
Data management
Gouvernance
Méthode Agile
1 an
Paris, France
Nous recherchons un Governance & Data Management Lead pour structurer, coordonner et piloter l’ensemble des processus de collecte, gestion et reporting des données de sécurité et des use cases IA au niveau Groupe. Ce rôle stratégique combine gouvernance, coordination transverse, travail avec équipes off‑shores et animation de communautés Data & AI. Votre mission principale Piloter et coordonner la collecte, gestion et consolidation des données de sécurité et des use cases IA à travers les entités du Groupe, en garantissant : la conformité, l’engagement des parties prenantes, une gouvernance solide, et une vision unifiée au niveau Group Security.
Offre d'emploi
Intégrateur N2 des applications informatiques
KEONI CONSULTING
Publiée le
Big Data
Linux
Openshift
18 mois
20k-60k €
100-350 €
Niort, Nouvelle-Aquitaine
CONTEXTE Contexte de la mission : Prise en charge de la pré-production et de la mise en exploitation des différentes évolutions des applications informatiques ainsi que les maintenances, tout ceci dans un environnement multiplateforme. MISSIONS Contribuer au bon déroulement de la phase de pré production des projets, et dans ce cadre vous assurerez : . La réception et l’analyse des dossiers d’homologation, . La conception des chaines de traitements (automatisation, ordonnancement, …), . Le développement des procédures d’exploitation, . Le bon déroulement des tests d’homologation, . La réalisation et la mise à disposition des dossiers d’exploitation, . La livraison des applications dans l’environnement de production, . La communication avec les autres entités (développement, supports, planning, exploitation…), . Le transfert de compétences vers les équipes de Production dans l’accompagnement aux changements, . Le suivi des premières exploitations et la période de VSR(Vérification de Service Régulier). ACTIVITES : Assure le suivi et le fonctionnement optimal du périmètre technique (outils, systèmes, traitements et infrastructures techniques) dont il a la charge. Suit et analyse sa performance et sa qualité ; met en place des mesures visant à les améliorer. Elabore les règles d’utilisation, en conformité avec les normes / standards de l’entreprise, dans le respect des contrats de service. Documente, promeut et contrôle leur application. Contribue au dispositif de gestion de la qualité, sur son périmètre. Etudie et propose des évolutions permettant de pérenniser et d'optimiser le fonctionnement et la sécurité des outils, systèmes, traitements et infrastructures techniques; les met en œuvre. Valide l’installation et l’intégration des nouveaux outils, systèmes, traitements et infrastructures techniques, dans l’environnement de production. Réalise et coordonne des opérations de changement et de maintenance en veillant à leur qualité. Traite les incidents ou problèmes (du diagnostic à la remise en service). Assure la communication avec les utilisateurs sur la gestion des incidents ou à l'occasion de changements. Gère les droits d’accès aux SI en fonction des profils. Réalise le transfert de compétences et le support technique sur son périmètre. Effectue une veille technologique sur son périmètre technique. Met en œuvre les normes et principes de la politique de sécurité du SI de l’entreprise. PROFIL Formations et expériences : De formation Bac+2 minimum, avec une bonne expérience de la Production, vous avez une bonne connaissance de l’informatique en générale. Expérience professionnelle > 5 ans. Expériences requises dans les domaines : Indispensables : Unix, AIX, Linux (développement de scripts en Shell) Maitrise de l’ordonnanceur Control-M Outil de déploiement : Harvest Connaissances DATA / IA (Cloudera, Talend, Informatica, Azure Databricks) Souhaitées : Connaissance SGBD Oracle Exacc MVS/Z-OS (développement de JCLs) Connaissance SGBD DB2 Openshift Serveurs d’automatisation : Jenkins
Mission freelance
Expert Data Privacy (RGPD)
Codezys
Publiée le
Audit
Data privacy
RGPD
12 mois
Lyon, Auvergne-Rhône-Alpes
Objet de la recherche Recrutement d’un expert (+15 ans d’expérience) pour un audit interne sur la gestion des données dans le traitement des réclamations techniques (niveaux 2 & 3). Contextes et enjeux Problème identifié : Perte de contrôle sur les données entre les applications, due à l’absence d’un processus cohérent de suppression et gestion des données personnelles (VILINK, SAP, CRM 360, Coltshare, etc.). Objectifs : Améliorer la gouvernance Data Privacy, la sécurité, la traçabilité, et assurer la conformité réglementaire (ex. HDS, C5). Rôle et responsabilités du prestataire Diagnostic & consolidation des flux de données : cartographie, identification des zones de superflu, stockage et réplication non souhaités. Définition et déploiement des mesures correctives : création d’un SOP pour la suppression cohérente, nettoyage des données existantes, définition des rétentions conformes. Coordination interéquipes : liaison avec IT, Data Privacy, opérations commerciales, BDR, GCS, suivi du plan de remédiation, cohérence dans les contributions. Contribution transversale : supervision du DPIA, déploiement de mesures de sécurité, gestion des risques, support méthodologique en Data Privacy. Livrables attendus Procédure de “Data Deletion Consistent Process Across Applications”. Cartographie validée des flux de données patient. Plan de remédiation consolidé, mis à jour et exécuté. Reporting hebdomadaire et suivi pour les managers GCS. Documents pour révision DPIA et gouvernance post-projet. Tous les livrables mentionnés dans le rapport d’audit partagé au démarrage.
Mission freelance
Product Owner Data – Data & Analytics
SKILLWISE
Publiée le
Qlik Sense
Snowflake
3 mois
400-550 €
Île-de-France, France
Nous recherchons pour l'un de nos client un Data Product Owner qui sera chargé(e) de piloter la valorisation de la donnée au sein des équipes Retail et Supply Chain. Il/Elle coordonne le développement de produits data, assure la qualité et la fiabilité des données, et conçoit des tableaux de bord permettant une prise de décision éclairée. Travaillant en méthode agile, il/elle organise les sprints, priorise les besoins métiers, rédige les user stories et garantit la cohérence entre enjeux business et solutions techniques. Grâce à sa compréhension du retail, de la chaîne de valeur supply chain et des dynamiques saisonnières, il/elle identifie les leviers de performance et propose des évolutions continues sur les outils et produits data. Son rôle principal est de transformer la donnée en valeur : fournir aux équipes des insights fiables, des visualisations pertinentes et des solutions data qui améliorent la performance opérationnelle et stratégique de l’entreprise.
Mission freelance
Ingénierie Méthodes & Data Analyst (Production Data & Master Data)
Mon Consultant Indépendant
Publiée le
Data analysis
6 mois
540-590 €
Paris, France
Profil recherché : Ingénierie Méthodes & Data Analyst (Production Data & Master Data) Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Mission freelance
Chef de Projet IA Senior
Gentis Recruitment SAS
Publiée le
Data governance
Dataiku
6 mois
500-650 €
Paris, France
Contexte de la mission Un grand groupe bancaire basé en Île-de-France renforce son dispositif de gouvernance de l’intelligence artificielle dans un contexte de montée en maturité des usages IA et de mise en conformité avec les exigences réglementaires, notamment l’ IA Act . Dans ce cadre, le client recherche un Chef de Projet IA Senior capable de piloter des projets IA complexes et structurants, avec un fort enjeu de gouvernance, de conformité et d’industrialisation des pratiques. Objectifs de la mission Mettre en place et structurer une gouvernance IA au sein de l’organisation Accompagner la mise en conformité des projets IA avec l’IA Act Capitaliser et formaliser les pratiques de gouvernance IA existantes Assurer le pilotage transverse des projets IA (métiers, data, IT, conformité) Outiller la gouvernance via les solutions Dataiku Rôle et responsabilités Pilotage de projets IA complexes en environnement bancaire Définition et déploiement des cadres de gouvernance IA Accompagnement des équipes métiers et techniques sur les enjeux réglementaires IA Mise en place de processus de conformité IA Act (documentation, traçabilité, contrôles) Utilisation avancée de Dataiku , notamment du module Govern Node Coordination des parties prenantes (Data, IT, Risk, Conformité, Métiers) Reporting et suivi de l’avancement auprès des instances de gouvernance Modalités TJM max: : 750 € Présence en Île-de-France requise (2 jours de télétravail)
Offre d'emploi
Data Developer
TECOS
Publiée le
Bitbucket
Git
Oracle
40k-48k €
Île-de-France, France
Contexte : Le département informatique CEFS NFR a été créé en 2025. Ce département a pour objectif de répondre à tous les besoins informatiques de CIB en matière de risques non financiers : applications informatiques, services et assistance pour gérer le contrôle opérationnel, les risques informatiques et la résilience opérationnelle (à venir). Une nouvelle application mondiale destinée à gérer le contrôle opérationnel au sein de CIB a été confirmée en 2025. Cette nouvelle application doit automatiser les contrôles et être entièrement alignée sur les autres applications du groupe afin de garantir la production de rapports harmonisés. Cette nouvelle application s'inscrit dans le cadre d'un programme d'industrialisation, qui implique également que tous les contrôles existants soient revus, puis rejetés, confirmés ou remaniés. Une autre application qui sert de référentiel de référence pour toutes les procédures applicables au sein de CIB fonctionne en mode BAU et nécessite des améliorations afin de se conformer aux nouvelles exigences réglementaires et de se connecter à la nouvelle application de cadre de contrôle décrite ci-dessus.
Offre d'emploi
Data Analyst
Atlanse
Publiée le
BigQuery
DBT
Gitlab
1 an
45k-55k €
400-450 €
Massy, Île-de-France
Au sein de l’Analytics Factory, vous intervenez sur l’exploitation et la valorisation des données afin d’optimiser la performance des processus métier. Votre rôle Analyse et production d’insights · Mener en autonomie des analyses ad-hoc : cadrage du besoin, extraction et préparation des données, traitement, interprétation et restitution · Mettre en évidence les tendances, signaux faibles et leviers d’optimisation · Identifier les limites ou biais potentiels des analyses réalisées Pilotage de la performance et data visualisation · Définir et formaliser des KPI pertinents · Créer des reportings / dashboards interactifs Contribution aux produits analytiques · Contribuer aux projets de construction de produits analytiques intégrant une forte dimension data · Partager les résultats d’analyses · Présenter les outils développés à des interlocuteurs métier en faisant preuve de conviction ·
Mission freelance
Consultant Transformation IT Senior (H/F)
Freelance.com
Publiée le
Architecture
Cloud
Cybersécurité
3 mois
400-700 €
La Défense, Île-de-France
Dans le cadre d’un programme stratégique de transformation IT lié à une acquisition internationale, nous recherchons un Consultant Transformation IT Senior pour accompagner la modernisation des environnements de travail et la mise en place d’une plateforme Data stratégique. Le consultant interviendra sur des sujets à forte visibilité, en lien avec des équipes locales et internationales, dans un contexte de convergence IT avec un groupe américain. Démarrage : ASAP Durée : jusqu’à décembre 2026 (au plus tôt) Séniorité : 5–6 ans (Senior / début de manager)
Offre d'emploi
Data Governance Lead F/H
DSI group
Publiée le
Data governance
Luxembourg
DSI Group recherche un Data Governance Lead H/F pour son client basé au Luxembourg. Nous recherchons un(e) Data Governance Lead pour jouer un rôle clé dans la structuration et le déploiement de la gouvernance des données du client. Ce poste stratégique est au cœur des enjeux de fiabilité, conformité et valorisation des données, au service des activités assurance, santé et gestion de patrimoine. Vous interviendrez comme référent(e) de la gouvernance data, en lien étroit avec les équipes BI, Data, IA & Data Science, afin de garantir une exploitation responsable, conforme et performante des données dans une organisation résolument data-centric. Vos missions : Définir et déployer le cadre de gouvernance des données à l’échelle du Groupe Concevoir et opérationnaliser les modèles de responsabilité et de propriété des données, en cohérence avec les principes du Data Mesh Mettre en place des standards de qualité, de documentation et des indicateurs clés de gouvernance Structurer les pratiques de gestion des métadonnées, de traçabilité et de cycle de vie des données Garantir la conformité réglementaire (CAA, Solvabilité II, RGPD, CSSF), notamment pour les données sensibles Animer les comités de gouvernance data et accompagner les parties prenantes métiers et IT Collaborer avec les équipes IA & Machine Learning afin d’assurer une exploitation éthique et responsable des données Promouvoir et diffuser une culture data forte au sein de l’organisation
Offre d'emploi
Data Domain Manager
VISIAN
Publiée le
Data governance
1 an
40k-45k €
400-660 €
Paris, France
Tâches attendues Autour du DDM : Préparation et animation des sessions d'interactions et ateliers DDM (Support & CR) Animation de la communauté DDM au fil de l'eau (méthodologie, outillage…) Pilotage des points de suivi - Management des DDM et sponsor (Support & CR) Coordination de la montée en compétence des DDM sur les axes de la gouvernance data (roadmap, feedback, plan d'actions …) Coordination avec les autres initiatives Groupe et intra-groupe (supports, notes de réunions) Autour du Data Product : Construction d'un Kit/book de déploiement des data products auprès des producteurs et consommateurs (méthodologie, documentation …) Animation de meetings de vulgarisation (Support & CR) Préparation et organisation d'un Meet Up d'acculturation (jalon mai 2026)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Client final, ESN et société de portage filiale de l'ESN
- URSSAF micro-entreprise : factures impayées, encaissement et facture groupée
- Mon ESN me demande de baisser mon TJM de 100 euros
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- Root-MENU ressemble à une arnaque
- Un Avis sur votre activité
1595 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois