Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 228 résultats.
Freelance

Mission freelance
Program Manager Privacy (F/H)

Publiée le
Data privacy

12 mois
93000, Bondy, Île-de-France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Program Manager / Chef de projet Privacy pour intervenir chez l’un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter un programme de maturité en matière de confidentialité et conformité (RGPD, Data Protection). - Mettre en place la gouvernance et superviser l’exécution des sous-projets. - Assurer la gestion des risques, reporting stratégique et suivi des livrables. - Coordonner les équipes projet et communiquer avec les parties prenantes. - Définir et suivre les standards qualité, gérer les changements et proposer des améliorations continues.
Freelance

Mission freelance
Data Engineering Manager (Bordeaux)

Publiée le
AWS Cloud

6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
CDI
Freelance

Offre d'emploi
Data Analyst / Power BI

Publiée le
BI

24 mois
40k-45k €
225-450 €
Istres, Provence-Alpes-Côte d'Azur
Dans le cadre d'un projet stratégique dans l'aéronautique de défense, nous recherchons un(e) Data Analyst pour intégrer une équipe en charge du suivi de la qualité des données . Vous rejoindrez une équipe dynamique et participerez activement à l'analyse des données migrées et saisies par les utilisateurs. 🛠️ Vos missions principales Analyser en profondeur les données migrées et les données utilisateurs Vérifier la conformité, la cohérence et la qualité des données Produire des rapports de suivi et d'évolution Participer à l'amélioration continue des processus de collecte et de fiabilité des données Contribuer à la création de dashboards sous Power BI (occasionnellement) Assister les utilisateurs sur leurs problématiques de données et relayer certains sujets internes (25 % du temps)
Freelance

Mission freelance
Lead data en Ile de France

Publiée le
Apache Airflow
AWS Cloud
DBT

6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Freelance

Mission freelance
Data Engineer/ Expert GCP

Publiée le
BigQuery
Cloud
Data science

12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Freelance
CDI

Offre d'emploi
Data Engineer / Data Analyst (H/F)

Publiée le
Databricks

6 mois
55k-65k €
450-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👌 Dans le cadre du renforcement de son pôle dédié à l’architecture, la valorisation et l’exploitation de la donnée, une grande entreprise nationale du secteur de l’énergie recherche un Data Engineer / Data Analyst (H/F) .🚀 L’objectif : contribuer à la fiabilité, la qualité et l’analyse des données nécessaires à la gestion des réseaux, ainsi qu’au développement de plateformes Data avancées. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Data Engineering 🔸Concevoir, développer et maintenir des pipelines de données robustes et scalables. 🔸Industrialiser les traitements dans un environnement Databricks (Spark, Delta Lake). 🔸Optimiser la qualité, la performance et la disponibilité des données. 🔸Participer à l’architecture des solutions Data, notamment dans un contexte cloud. Data Analysis 🔸Structurer, analyser et valoriser les données issues des réseaux et services. 🔸Construire des Dashboard et indicateurs fiables pour les équipes métiers et techniques. 🔸Contribuer à la mise en place d’une gouvernance efficace des données. Collaboration & Support 🔸Travailler étroitement avec les équipes Architecture, Exploitation et SI. 🔸Participer à la documentation, la standardisation et l’amélioration continue des pratiques Data. 🔸Accompagner les utilisateurs internes dans la compréhension et l’exploitation des datasets.
Freelance

Mission freelance
Chef de projet technique - IaaS et Data

Publiée le
IaaS (Infrastructure-as-a-Service)

12 mois
660 €
Yvelines, France
Télétravail partiel
Notre client, un établissement financier majeur, recherche un CP IaaS et Data pour renforcer son équipe Cette mission est au sein du centre d’expertise pour l’infrastructure, le cloud, la donnée, l’IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l’innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. La mission consiste à piloter des projets dans le cadre de création d’offre produit, de traitement d’obsolescence ou de mise en conformité (réglementaire, sécurité, amélioration de QoS). - Piloter des projets sur le périmètre IaaS et DATA - Définir les solutions cibles, en collaboration avec les experts, et en lien avec les besoins utilisateurs -Coordonner l’ensemble des parties prenantes -Structurer et animer la gouvernance des projets -Etablir les plans d’investissements et le suivi financier des projets, en lien avec le Contrôle de Gestion - Gérer les risques projets Livrables - Rédaction des notes de cadrage ; présentation aux parties prenantes (sponsors, Chief Platform Officer, PM, PO) et aux différents comités - Animation des comités de suivi - Suivi opérationnel de l’avancement des projets (respect des délais, des jalons …) - Suivi des risques et des plans d’actions associés - Suivi rigoureux des budgets alloués - Garant de la livraison de tous les documents conformément à la méthodologie Projets Environnement technique Cloud Infrastructures (VMWare, OpenStack, Openshift), OS Factory (Windows, Linux, Unix), Containers (Docker, Kubernetes), plateformes Data (Cloudera, MAPR, Data Cloud GCP, …), Data Storage (bloc, fichier, objet)
Freelance
CDD

Offre d'emploi
Data Engineer – Data Analyste spécialiste DATAIKU

Publiée le
CI/CD
Cloudera
Git

1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
La mission proposée sera d’accompagner les métiers dans la cadre du projet de sortie du progiciel SAS vers le progiciel DATAIKU. Dans ce cadre, les activités principales sont : • Accompagner les utilisateurs dans la prise en main de Dataiku et le déploiement des solutions pour leurs cas d’usage. Cela passe par la compréhension de leurs besoins et contraintes opérationnelles, l’étude des solutions potentielles basées sur le progiciel, et l’aide et support à la réalisation. • Appliquer et diffuser les bonnes pratiques Dataiku ainsi que du processus MLOPS. • Assurer le Support et RUN post déploiement : surveillance, maintenance et optimisation des traitements DATAIKU. Dans le cadre de cette mission, il y a de fortes exigences sur : • Le sens de service. • La pédagogie pour accompagner efficacement les utilisateurs SAS. • L’échange et la communication avec le reste de l’équipe SOD/IA Factory ainsi que les différents interlocuteurs sur ce sujet. A savoir, l’architecte SOD/SAS, l’architecte technique SOD, les architectes DATA ainsi que les interlocuteurs CAGIP. Le critère d’expérience doit s’appliquer à tous ces éléments pour garantir l’adéquation du profil à la demande. Expertise DATAIKU DSS avec certifications : • Core Designer • Advanced Designer • ML Practitioner • MLOps Practitioner • Developer • Generative AI Practitioner
Freelance

Mission freelance
Business analyst data / BI- N

Publiée le
Business Analysis
SAS
SQL

18 mois
100-350 €
Nantes, Pays de la Loire
Télétravail partiel
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Freelance

Mission freelance
Data Engineer : Tests de Non-Régression

Publiée le
Agile Scrum
Google Cloud Platform (GCP)
Linux

3 mois
440 €
Paris, France
Télétravail partiel
Vous rejoindrez une équipe agile (10 personnes dans l'équipe "customer data", dont 3 développeurs, PO, BA, Scrum Master, PM) pour travailler sur un enjeu majeur : garantir la fiabilité des données clients. Votre mission principale sera de concevoir et d'exécuter des tests de non-régression entre la plateforme de données historique on-site et la nouvelle plateforme migrée sur GCP (Google Cloud Platform) . 💻 Votre Profil et Compétences Une forte expertise en SQL (Teradata/GCP) est indispensable (environ 60 % de l'activité). Vous utiliserez également vos compétences en Big Data (15 %) et Linux (10 %) pour investiguer les problèmes. Nous recherchons un profil faisant preuve d'une forte autonomie , d'un engagement et d'une curiosité solides pour concevoir et mener des tests fiables. Une bonne intégration dans une équipe dynamique est essentielle. Le candidat devra maîtriser l' anglais courant (C1 minimum)
Freelance

Mission freelance
Product Owner Data (Finance)

Publiée le
Backlog management
Data management
Finance

1 an
Montréal, Québec, Canada
Télétravail partiel
Product Owner Data – Secteur Bancaire (Montréal) Dans le cadre d’un programme de données stratégique, nous recherchons un(e) Product Owner Data pour intervenir chez un client majeur du secteur bancaire, basé à Montréal. 🎯 Contexte du mandat Programme de transformation et gouvernance des données Gestion de données transverses à l’échelle de l’organisation Collaboration étroite avec les équipes Data, IT et métiers 🧩 Responsabilités Porter la vision produit Data et gérer le backlog Recueillir, analyser et prioriser les besoins métiers liés aux données Travailler avec les équipes techniques (Data Engineers, Architectes, BI, etc.) Assurer la valeur business des produits Data livrés Participer aux cérémonies agiles (planification, refinement, reviews) Contribuer à la gestion de produit dans un contexte bancaire réglementé.
Freelance

Mission freelance
Un Tech Lead Data sur Grenoble

Publiée le
DevOps
Git
Jenkins

6 mois
300-380 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Tech Lead Data sur Grenoble. Contexte du projet Projet TMA Data pour un client industriel : maintenance évolutive et corrective des systèmes de reporting et datawarehouse, gestion des flux de données sensibles (production, finance), support et développement de nouvelles fonctionnalités. Environnement technique orienté bases de données, ETL, BI Missions principales Pilotage technique et coordination Prendre du recul sur les besoins et proposer des solutions adaptées Cadrer les sujets techniques et fonctionnels Challenger les solutions proposées par l’équipe et le client Animer des réunions techniques et ateliers avec le client Assurer la qualité des livrables et le respect des délais Encadrement et accompagnement Accompagner les profils juniors Réaliser des revues de code et garantir les bonnes pratiques Partager les connaissances (process, outils, standards) Contribution technique Concevoir et optimiser des pipelines ETL/ELT Maintenir et faire évoluer les datawarehouses et bases de reporting Participer aux développements complexes et aux tests d’intégration Assurer la documentation technique et la capitalisation Amélioration continue Identifier et proposer des axes d’amélioration (process, outils, organisation notamment mise en place CI/CD, utilisation de l’IA..) Être force de proposition sur les évolutions techniques et méthodologiques Assurer le cadrage et plan de déploiement de ces propositions d’amélioration / industrialisation Compétences techniques requises Langages & outils : SQL avancé Bases de données : Oracle, PostgreSQL CI/CD & DevOps : Git, Jenkins Expérience 5 à 8 ans minimum en ingénierie des données, dont 2 ans en rôle de lead ou senior. Expérience en contexte TMA ou projets de maintenance évolutive. Localisation & Langues Région grenobloise Français courant, anglais professionnel.
Freelance
CDI

Offre d'emploi
Ingénieur Cloud VMware Expert VCF / NSX-T / AVI (Senior)-Ivry-sur-Seine(H/F)

Publiée le
BGP (Border Gateway Protocol)
VMware vSphere

1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte de la mission Dans le cadre d’un programme stratégique de construction d’un cloud privé souverain , nous recherchons un Ingénieur Cloud VMware Senior , expert sur les technologies clés de virtualisation et réseau VMware : VCF, vSphere, NSX-T, AVI . La mission s’effectue au sein d’une équipe Cloud dédiée à la conception, au déploiement, au hardening et à l’exploitation d’infrastructures VMware de grande envergure, hautement sécurisées et critiques pour les applications internes. 🛠️ Missions principales 🔧 1. Conception & Développement des plateformes VMware Concevoir et optimiser des plateformes avancées basées sur : vSphere NSX-T (SDN / micro-segmentation) AVI (Load Balancing) VCF Participer à la construction du cloud privé souverain. Définir les services cloud adaptés aux besoins métiers. ⚙️ 2. Administration & Exploitation Gérer et maintenir l’infrastructure VMware : NSX-T, AVI, BGP . Assurer la haute disponibilité , la performance et la résilience. Intervention sur réseaux complexes : Juniper, Cisco . 🔐 3. Sécurité & Hardening Contribuer au hardening des infrastructures . Mettre en place des contrôles de sécurité avancés. Réaliser audits techniques, sécurité, conformité. 🤝 4. Collaboration & Support Accompagner les équipes de développement. Fournir support technique niveau expert. Participer à la montée en compétence interne. 🚨 5. Gestion des incidents Diagnostiquer et résoudre des incidents complexes. Proposer des axes d’améliorations et sécurisations. 📄 Livrables attendus Dossiers de conception des plateformes VMware Documents d’exploitation (Runbook / Architecture / Procédures) Hardening & fiches de conformité Documentation technique cloud & réseau ⚙️ Compétences techniques requises (IMPÉRATIVES) VCF – Expert NSX-T – Expert AVI – Expert vSphere, VMware Cloud Réseaux : BGP , virtual networking, haute dispo Connaissance des environnements datacenter (Cisco, Juniper) Français courant (impératif)
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Ansible
Big Data
Elasticsearch

1 an
40k-45k €
250-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission se déroule au sein de l'équipe Infrastructure CaaS (Container As a Service) pour la gestion, la maintenance et le contrôle de la Data et des assets de l'équipe. Nous proposons une mission de Data Engineering avec des expertises des produits récents sur le Big Data. Responsabilités Interaction avec REST APIs Gestion des jobs et administration Ansible + Scripts Python BigData Opensearch / Elastic + Dashboard Kibana / Power BI Technologies Confluence / JIRA pour la gestion documentaire, Git / Bitbucket
Freelance
CDI

Offre d'emploi
Data Engineer – Elastic Stack Expert

Publiée le
Apache Kafka
ELK
Intégration

1 an
Île-de-France, France
Télétravail partiel
Nous recherchons pour notre client Grand-Compte un Ingénieur Data , Expert ELK pour: accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données L’objectif est de passer d’une logique très outillée/infrastructure à une approche orientée usages data & métiers . Refonte complète de l’offre logs existante (tous types de logs : applicatifs, systèmes, réseau, sécurité) Forte volumétrie et enjeux de standardisation, qualité et exploitabilité de la donnée Missions Concevoir et mettre en œuvre les chaînes de collecte et d’ingestion des logs Implémenter et industrialiser les cas d’usage observabilité pour les équipes opérationnelles Accompagner les équipes métiers et techniques dans l’exploitation des logs Développer des dashboards et visualisations avancées (Kibana, évolution possible vers Grafana) Intervenir sur l’ensemble du cycle data : collecte → transformation → stockage → restitution Participer à l’évolution de l’offre groupe et à la structuration des bonnes pratiques Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source)
Freelance

Mission freelance
data scientist

Publiée le
Data science

12 mois
400-550 €
Paris, France
Télétravail partiel
Prise en charge la réalisation des études et du développement des cas d’usage d’intelligence artificielle identifiés dans le cadre de plan stratégique mais aussi de besoins ad hoc remontés pour améliorer notamment l’efficacité opérationnelle. Dans ce cadre les missions et activités principales sont : • Identifier, tester et implémenter des approches permettant d’exploiter des technologies de machine learning et d’IA générative au service des processus risques • Explorer et exploiter les données internes • Faire évoluer les applicatifs IA existants (notamment applicatif de production GCP sur un cas d’usage de ciblage) • Echanger avec les équipes DSI et autres équipes de Data Scientists du Groupe • Assurer une veille technologique sur les évolutions des technologies d’IA générative
2228 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous