Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 474 résultats.
Freelance
CDI

Offre d'emploi
Chef de Projet IT – IT Run Framework (Finance de marché)

Publiée le
API
Control-M
ITIL

1 an
Île-de-France, France
Télétravail partiel
🎯 Contexte Nous recherchons un Chef de Projet IT pour rejoindre une équipe en charge de l’amélioration du Run IT au sein d’un environnement Finance de Marché. Vous interviendrez dans le cadre de la mise en œuvre de l’IT Run Framework, un programme stratégique visant à renforcer la qualité de la Production (Incident, Problem, Change), avec un fort accent sur le développement d’outils, l’automatisation et l’exploitation de la data. 🔎 Missions Pilotage du delivery IT Run Piloter la roadmap de l’IT Run Framework en lien avec les enjeux de Production Prioriser et cadrer les besoins fonctionnels en collaboration avec les équipes IT Développements & Outillage IT Définir les besoins fonctionnels liés aux outils Run (Incident, Problem, Change) Contribuer à la conception de solutions telles que : plateformes de communication incidents automatisation de workflows ITIL Participer à l’intégration d’API Amélioration continue & Qualité Production Mettre en place et faire évoluer les processus de sécurisation des changements (CAB) Structurer la documentation et les contrôles automatisés Formaliser les incidents et problèmes dans les backlogs de développement Data, KPI & IA Définir et suivre les indicateurs de performance du Run IT Construire et exploiter des dashboards (Power BI) Contribuer à des use cases IA
CDI

Offre d'emploi
Data Governance Lead

Publiée le
Data governance
Gouvernance, gestion des risques et conformité (GRC)
KPI

Boulogne-Billancourt, Île-de-France
Télétravail partiel
Dans le cadre du déploiement d’un domaine majeur de conformité réglementaire lié au partage de données, une organisation internationale recherche un consultant senior pour accompagner la structuration, la gouvernance et le pilotage des dispositifs de conformité Data. La mission vise à apporter un support méthodologique, organisationnel et opérationnel afin d’aligner les pratiques, processus et gouvernances existantes avec les exigences réglementaires européennes relatives au Data Sharing. Le consultant interviendra en interface avec des équipes pluridisciplinaires (Data, IT, Sécurité, Juridique, Conformité et Métiers) et évoluera dans un environnement complexe et international. Il contribuera à la définition des modèles de gouvernance, animera et coordonnera des groupes de travail transverses, produira les livrables nécessaires à la prise de décision (roadmaps, plans d’action, supports de gouvernance) et accompagnera la transformation des pratiques liées à la gestion et au partage des données.
Freelance

Mission freelance
Data analyst

Publiée le
SQL

12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
Freelance

Mission freelance
Consultant Expert en Sécurité Opérationnelle - IAM CLOUD

Publiée le
AWS Cloud
Azure
CI/CD

1 an
400-600 €
Paris, France
Dans le cadre d’un projet stratégique mené par une grande organisation basée à Paris, nous recherchons un consultant expérimenté en sécurité opérationnelle , avec une expertise pointue en Identity and Access Management (IAM) sur les environnements Cloud Public : Google Cloud Platform (GCP) , Microsoft Azure et Amazon Web Services (AWS) . Le consultant rejoindra une équipe d’experts en sécurité Cloud pour renforcer les dispositifs IAM, accompagner les équipes projets et garantir la conformité aux politiques de sécurité internes. Vos missions principales : Auditer les environnements Cloud existants (GCP, Azure, AWS) afin d’identifier les vulnérabilités et les axes d’amélioration en matière de gestion des identités et des accès. Concevoir une stratégie IAM robuste , alignée sur les besoins métiers et les exigences de sécurité, incluant la gestion des permissions, des rôles et des politiques d’accès. Implémenter les meilleures pratiques de sécurité , notamment via des outils comme AWS SCP, GCP Deny Policy et les mécanismes de contrôle natifs des plateformes Cloud. Accompagner les équipes projets , en les formant aux concepts IAM et en les sensibilisant aux enjeux de sécurité. Documenter les processus et configurations , afin d’assurer la traçabilité et la pérennité des dispositifs mis en place.
Freelance

Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline

Publiée le
Azure DevOps
Git
Helm

1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Freelance

Mission freelance
Developpeur senior Sharepoint / .Net / Azure

Publiée le
.NET
Azure
SharePoint

12 mois
400-550 €
Paris, France
Télétravail partiel
Senior developper Sharepoint .Net AzureMissions principalesConception et architecture Analyse des besoins fonctionnels et techniques Définition des architectures SharePoint (On-Premise et Online) et Azure Réalisation de POC et études de faisabilité Contribution à la gouvernance Microsoft 365 Développement et intégration Développement de solutions SharePoint (SPFX, WebParts, extensions) Développement d’applications .NET / .NET Core / Mise en œuvre de solutions Power Platform (Power Apps, Power Automate) Développement de bots avec Bot Framework Intégration avec des systèmes tiers (ERP, GED, annuaires, API) Scripting et automatisation via PowerShell Migration et modernisation Migration SharePoint (On-Premise vers Online, Classic vers Modern) Migration applicative ( MVC vers Core) Modernisation des intranets et applications existantes Migration de traitements batch vers Azure Functions ou WebJobs Cloud et DevOps Déploiement et exploitation des solutions sur Azure Mise en place de pipelines CI/CD via Azure DevOps Automatisation des déploiements multi-environnements Optimisation des performances et supervision Maintenance et support Maintenance corrective et évolutive Analyse et résolution des incidents Documentation technique et transfert de compétences Support aux équipes techniques et métiers
Freelance

Mission freelance
PRODUCT OWNER DATA PRODUIT

Publiée le
Snowflake

12 mois
560-570 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à dimension internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes structurée par domaines fonctionnels. Le rôle est rattaché au Lead PO Data Sales / Finance / CRM. Objectif : piloter la vision, la roadmap et la valeur du produit DATA autour du périmètre PRODUIT. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (manipulation et analyse de gros volumes de données). – Environnement actuel : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT à venir – QlikSense (visualisation et reporting) ENVIRONNEMENT FONCTIONNEL Intervention sur des sujets Data stratégiques autour du PRODUIT. Le PO aura en charge : – La conception des parcours utilisateurs et la définition des KPIs. – La rédaction des spécifications fonctionnelles pour les Data Engineers / Data Analysts. – La gestion et la mise à jour du Data Catalog. – La participation au design produit et à la qualité des livrables. – L’animation des rituels agiles (sprints de 3 semaines). Outils : JIRA, Confluence. Le rôle nécessite un esprit critique fort, une capacité à challenger le besoin et à proposer de la valeur. PROFIL RECHERCHÉ – Expérience : 8 ans dans la Data, dont minimum 4 ans en Chef de Projet Data ou Product Owner. – Connaissances solides du Retail (processus opérationnels, planification, référentiel produit). – Qualités attendues : – Autonomie et prise d’initiative – Leadership naturel pour fédérer les équipes – Capacité d’analyse poussée et esprit critique – Sens de la communication vers les métiers comme vers la tech
CDI
Freelance

Offre d'emploi
Data Analyst Dataiku/Tableau/SAS

Publiée le
Dataiku
SAS
Tableau software

3 ans
40k-67k €
400-550 €
Île-de-France, France
Objectif de la mission Au sein du Pole Data & Analytics, dans l’équipe Data Monitoring Réseaux, dont la fonction principale est de délivrer les reportings et les Dashboard pour le réseau d’agence, nous étoffons notre équipe de data Analysts pour répondre aux demandes du Plan Stratégique 2026-2030. Prestations demandées Les missions sont : - Analyse, création, évolution et modification des traitements de données (création d'indicateurs & des codes références) - Uniformisation technique des processus de traitement de données - Supervision du bon déploiement des nouveaux processus de traitement - Vérification de la bonne intégration des données et de leurs référencements (mise à jour des glossaires associés) - Mise en place, maintenance et test des jeux de données - Automatisation des programmes avec DataIku - Prise en charge à la réalisation de la Visualisation avec Tableau (Desktop / Serveur) La maitrise de DataIku et de SQL sont indispensables. La maitrise de Tableau et SAS seraient de vrais plus.
Freelance

Mission freelance
Accompagner DBA SQL SERVER / POSTGRESQL AZUR & AWS

Publiée le
Datadog
Microsoft SQL Server
PostgreSQL

12 mois
400-620 €
Île-de-France, France
Télétravail partiel
Compétences techniques : SQL SERVER - Expert - Important POSTGRESQL - Confirmé - Important Description détaillée : Au sein d'une équipe d'expert des bases de données, l'expert DBA devra : -- assurer les incidents N3 sur les bases de données : 30 % de l'activité -- analyser, proposer des solutions de contournement ou des corrections, rédiger des procédures de résolution sur des incidents de bases de données ( ex: erreur de connexion, de sauvegardes, ....) -- analyser et proposer des solutions sur les baisses de performance sur les bases de données -- mettre en place de la supervision sur les différentes type de bases. Une bonne connaissance de DATADOG est un plus. -- accompagner les projets de mise en oeuvre d'applications : 70 % de l'activité -- proposer des solutions de mise en oeuvre des bases de données : architecture, normes de mise en place, conseil sur la sécurité d'acces -- accompagner sur des solutions applicatives sur les bases de données : solutions de mise en oeuvre des flux de données -- réaliser des automatisations : pipelines, code terraform, ... sur les bases de données Périmètre : Base de données : SQL SERVER, PostGreSQL Domaine : On Prem et Azure PAAS ou AWS RDS Des connaissances sur ORACLE seraient appréciées. Des connaissances sur Databrick ou Snowflake serait un plus. Automatisation : Connaissance des pipelines, code terraform , powershell fortement appréciable Il gère et administre les systèmes de gestion de données de l'entreprise, en assure la cohérence, la qualité et la sécurité. Il participe à la définition et à la mise en oeuvre des bases de données et des progiciels retenus par l'entreprise.
Freelance

Mission freelance
Data Engineer Python / AWS (h/f)

Publiée le

1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.
CDI

Offre d'emploi
Architecte Master Data Management F/H

Publiée le

50k-60k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Dans le cadre de nos activités, nous développons pour nos clients des solutions dédiées à la gestion de la donnée cliente : améliorer la qualité de la donnée client à travers sa fiabilisation, son dédoublonnage et sa diffusion à travers un référentiel unifié. Pour accompagner la croissance de notre entité spécialisée dans la transformation digitale, nous recherchons notre futur Architecte MDM (Master Data Management) F/H. CE QUE L'ON VOUS PROPOSE Vous participez à la construction de l'offre MDM, en particulier sur les aspects techniques et technologiques. Vous intervenez sur les phases clés associées à la construction d'un projet de MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation (4 à 6 consultants en moyenne selon projet) : - Vous concevez et préconisez les solutions techniques, - Vous menez des ateliers techniques avec les clients, - Vous intervenez sur différentes phases du projet depuis l'avant-vente jusqu'à leur utilisation en production - Vous encadrez les équipes techniques (accompagnement, transfert de compétences, audit des réalisations).
Freelance
CDI

Offre d'emploi
BA/MOA - Data Quality (7 ans et plus)

Publiée le
Gestion de projet
Méthode Agile

3 ans
45k-70k €
450-620 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre de la réglementation Basle III, le référentiel client CIB doit améliorer son niveau de qualité et s'aligner avec les autres Référentiel de la banque. En lien avec les équipes IT et Ops, la mission proposée a pour objectifs de lister les améliorations techniques et opérationnelles nécessaires pour spécifier les actions (MOA). 💡 Missions : A l'aide de la documentation et en interviewant les entités, lister les améliorations nécessaires pour améliorer la qualité du référentiel. Spécifier les actions opérationnelles et les besoins de développements pour s'aligner au Référentiel groupe. Analyse et Integration de nouveaux indicateurs de qualité produits par CDO et le programme (CRM KQI) dans le BAU. A l'aide des outils informatiques (Base de données Python, Excel, Business Object, Tableau), extraire et produire les indicateurs et volumétries permettant de piloter les progrès de la qualité. Participer aux réunions et aux groupes de travail, rédiger les minutes et les conclusions. préparer les supports de réunions. En tant que MOA du projet pour Référentiel Ops, rédiger les documentations (spécifications, procédures, ...).
Freelance

Mission freelance
DBA SQL Server

Publiée le
Microsoft SQL Server
VBA

6 mois
380-460 €
La Défense, Île-de-France
Télétravail partiel
Traiter l’obsolescence des bases SQL Server en version 2016 vers la version SQL 2022. Technique o Vérifier espace disque (binaires, backup, logs) o Télécharger les binaires d’installation (setup SQL Server) o Vérifier la compatibilité OS/SQL version o Vérifier la compatibilité des applications vers SQL Server 2022, les bases doivent être au minimum en niveau de compatibilité 100, en dessous de ce niveau, elles ne sont pas supportées o Désactiver la supervision le temps de l’opération 120 instances à Upgrade (11 déjà fait)
Freelance
CDI

Offre d'emploi
Data Engineer Fullstack IA - Lille (59)

Publiée le
GenAI
Java
NestJS

6 mois
35k-45k €
300-330 €
Lille, Hauts-de-France
Télétravail partiel
Data engineer & développeur full stack - Discovery, IA & MVP ( Lille - 59) Dans un contexte d’accélération des technologies autour de l’AI et du GenAI , de transformation digitale et d’organisation d’entreprise plateforme, nous déployons des solutions et produits en lien direct avec l’ensemble de nos BUs et des communautés Digitales. Ton Job : Discovery, Data Engineering et Developpement Rapide En tant que Data Engineer avec un rôle de Discovery Lead, tu es un profil moteur sur l'ensemble du cycle : de l'analyse des nouvelles tendances à la mise en production de MVP (Minimum Viable Product): 1/ Pilotage du Discovery 2/ Veille, Analyse & Architecture 3/ Développement de MVP (Minimum Viable Product) 4/ Mesure & Communication Périmètre des Sujets : - Phase 1 - SEO Technique & Gen AI : Construction de solutions pour enrichir, formater et rendre nos données "AI-friendly" afin d'optimiser son indexation et sa compréhension par les moteurs de recherche et les Generative Engines. - Phase 2 - Expérience Client & Plateforme : Ton périmètre s'étendra à des sujets stratégiques : Site Web (Navigation, Personnalisation), Espace Client, Pages Magasins, et développement d'APIs Backend transverses (Web/Mobile/App).
Freelance
CDI
CDD

Offre d'emploi
Expert/Développeur Power Platform – Power Automate / Power Apps (H/F)

Publiée le
Power Platform

1 an
Montpellier, Occitanie
Responsabilité de la mission : Concevoir et implémenter des solutions sur la Power Platform (Power Apps, Power Automate). Accompagner les projets de développement : configuration des environnements, gestion des habilitations, stockage Dataverse, politique DLP. Mettre en place des automatisations via scripts PowerShell pour l’administration des services. Participer à la gouvernance et définir les règles d’usage de la Power Platform. Assurer la communication avec Microsoft sur les services Power Platform. Mettre en œuvre les éléments de sécurité demandés par le RSSI. Produire la documentation à destination des équipes N2. Traiter les incidents de niveau 3 et animer des groupes de travail techniques.
Freelance

Mission freelance
PRODUCT OWNER DATA SUPPLY

Publiée le
Snowflake

12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
4474 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous