Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 397 résultats.
Freelance

Mission freelance
Responsable / Chef de Projet Gouvernance Data

ALLEGIS GROUP
Publiée le
Data governance

3 ans
400-570 €
Niort, Nouvelle-Aquitaine
Responsabilités 1. Gouvernance & Stratégie Construire, formaliser et déployer le cadre de gouvernance Data : normes, qualité, sécurité, rôles, catalogues, bonnes pratiques. Définir et animer les trajectoires Data (organisationnelles, techniques, qualité). Contribuer à la structuration des besoins Data pour l’ensemble des projets du périmètre (≈ 16 collaborateurs / 30 projets). Assurer la cohérence globale des initiatives Data en lien avec les équipes métiers et techniques. 2. Pilotage Data Suivre l’avancement des actions Data, dont les jalons clés (ex. J+15). Instaurer un pilotage robuste : reporting régulier, gestion des risques, consolidation des indicateurs. Participer au développement de la culture Data au sein de l’organisation. 3. Gestion de Projet Recueillir, structurer et prioriser les demandes Data . Coordonner les parties prenantes internes et externes (prestataires, métiers, IT). Garantir la qualité , la cohérence et la complétude des livrables Data (modèles, règles, dictionnaires, contrôles…). 4. Management Fonctionnel Animer la communauté Data et participer à la structuration des rôles (Data Owners, Data Stewards…). Superviser le périmètre opérationnel (~16 personnes). Intervenir à la fois sur le stratégique (vision, trajectoires) et l’ opérationnel (suivi, arbitrages, priorisation).
CDI

Offre d'emploi
Développeur Back End Node SQL H/F

ADSearch
Publiée le

60k-70k €
Biot, Provence-Alpes-Côte d'Azur
[En Bref] CDI - Développeur Back End Node SQL H/F - Sophia-Antipolis - 55/60K€ - 3 jours de TT/sem Je recrute pour une Fintech sur Sophia qui travaille avec les plus grandes banques internationales, un Lead pour accompagner une petite équipe de 3 développeurs. Tu souhaites travailler sur des plateformes data à forte valeur ajoutée utilisées partout dans le monde par des pointures ? Tu aimes concevoir des systèmes robustes, manipuler de grands volumes de données et intervenir sur toute la chaîne technique ? Tu recherches un environnement exigeant et stimulant ? Alors ce poste est fait pour toi ! TON POSTE Rejoins les 3 Développeurs Back, chargée de la gestion et la qualité des données financières, de la conception, au développement en passant par la maintenance sur des sujets back-end, APIs, bases de données, pipelines de données, Cloud, ... Tu es attendu pour : - Accompagner techniquement l'équipe sur des sujets complexes (main dans la main avec le CTO), - Partager les bonnes pratiques de développement et d’architecture, - Développer et maintenir la plateforme, - Intégrer et superviser des flux et la qualité de données, - Concevoir et faire évoluer des solutions de web scraping, - Garantir la fiabilité, la performance et la résilience des systèmes.
CDI

Offre d'emploi
Data Engineer GCP

K2 Partnering Solutions
Publiée le
Google Cloud Platform (GCP)

48k-57k €
Belgique
En tant que Data Engineer, vous serez impliqué(e) dans la conception, le développement et l’optimisation de solutions data modernes sur Google Cloud Platform. Vous bénéficierez : d’un accompagnement terrain (on-the-job training) , d’un encadrement par des experts reconnus , d’un environnement collaboratif mêlant équipes IT et métiers . C’est une opportunité unique de développer vos compétences tout en évoluant dans une équipe dynamique et conviviale 🌟 Pourquoi nous rejoindre ? Projet de transformation stratégique à forte visibilité Utilisation de technologies modernes et innovantes Environnement international et collaboratif Réelles opportunités d’apprentissage et d’évolution
Freelance

Mission freelance
Product Manager Referentiel et data

Freelance.com
Publiée le
Confluence
Gherkin
JIRA

1 an
580-600 €
Île-de-France, France
Dans le cadre d’un programme stratégique au sein d’un grand acteur du financement et de l’assurance, nous recherchons un Product Manager Data & Référentiel pour intervenir sur un environnement SI métier complexe et transverse . La mission s’inscrit dans un train SAFe dédié aux applications métiers , avec une forte interaction entre plusieurs équipes produits et data. Le Product Manager interviendra sur deux domaines structurants : Référentiel et composants transverses Data / Infocentres Ces équipes couvrent les besoins mutualisés de plusieurs produits métiers et participent à la transformation des plateformes data. Vous serez amené à piloter des initiatives transverses impliquant différentes équipes et trains agiles, notamment autour de projets de modernisation data et d’amélioration continue des solutions. Une attention particulière est portée à l’intégration de l’IA dans les pratiques produits et dans la chaîne de delivery , afin d’améliorer la performance collective des équipes. En tant que Product Manager , vous serez garant de la vision produit et de la valeur délivrée : Définir des solutions désirables, viables et réalisables répondant aux besoins métiers Construire et porter la vision produit et la roadmap Élaborer et maintenir : la Roadmap Solution (vision pluriannuelle) la Roadmap PI (planification des features sur les Program Increment) Identifier et initier les Features et Enablers dans le backlog Gérer la priorisation du backlog produit Collaborer étroitement avec les métiers et les équipes Agile Animer des ateliers de recueil de besoins Traduire les besoins métiers en solutions livrables par les équipes techniques Piloter des projets transverses impliquant plusieurs équipes Contribuer à l’amélioration continue des pratiques produit et data
CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance

Mission freelance
Business Analysts expérimentés sur Workday

Codezys
Publiée le
Business Analysis
Data management
Formation

12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
Freelance

Mission freelance
Lead Data Scientist

Signe +
Publiée le
Big Data

12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
CDI
Freelance

Offre d'emploi
Ingénieur Big Data

OBJECTWARE
Publiée le
Apache Spark
Cassandra
CI/CD

3 ans
40k-76k €
400-550 €
Île-de-France, France
Contexte : Intégration d´une équipe de développeurs data (Java, Spark, Spring) dont le rôle est la mise en place de pipelines de données à destination de vues NoSQL (Cassandra, MongoDB, Elasticsearch) Hard skills demandés : Maîtrise Développement Objet Maîtrise d’un langage objet (Java) Maîtrise SQL Framework Spring Plateforme Spark Connaissance des Web Applications & Micro-services Maîtrise DevOps (CICD, Git, Jenkins) Connaissance approfondie des bonnes pratiques de développement et des Design Pattern Connaissance Domaine Cloud Connaissance du Métier Data / Big Data Vernis langage Python Hard skills optionnels : Maitrise de Mongo DB , Cassandra, et Elastic Search Conception asynchrone Connaissance Domaine DataScience Connaissance Domaine Cybersecurité Soft skills : Autonomie Motivation Organisation Humilité Négociation Curiosité Partage Sens du service Pragmatique / Réaliste Mindset Sensibilisé à la Qualité de code Sensibilisé à la vie de Production Expérience demandée : Développement objet en environnement de production Expérience de 5 ans min en développement data Expérience dans un grand groupe (expérience de l’inertie et des contraintes d’un groupe) Expérience sur tout le cycle de vie d’une application (besoin, conception, développement, déploiement, maintenance) Expérience souhaitée en amélioration d’une solution existante (contrainte de SLA, performance, montée en charge, refactoring, voir refonte) Les missions sont : Recueillement du besoin utilisateur/BA, conceptualisation de la solution technique associée et l’implémenter Adoptation d´une approche proactive sur la qualité de code avec une méthodologie TDD Amélioration continue du code existant et revue avec les pairs des évolutions Support et sensibilisation des pairs à la qualité du code, aux bonnes pratiques et outillage améliorant l’expérience de développement Inscription dans une démarche agile avec un rythme de livraison soutenu (1 MEP / mois)
CDI

Offre d'emploi
POT9085 - Un Agile Master Data Sur Plaine Saint Denis

Almatek
Publiée le
Méthode Agile

Saint-Denis, Île-de-France
Almatek recherche pour l'un de ses clients, Un Agile Master Data Sur Plaine Saint Denis. Contexte : Au sein de la direction des technologies, les équipes Data Services ont pour raison d’être de fournir une plateforme et des services data fiables, sécurisés et industrialisés, permettant aux équipes produit et métiers des différentes BU d’exploiter la donnée en toute autonomie. Elles agissent comme un enabler transverse, en séparant clairement les responsabilités (infrastructure, gouvernance, usages) et en mettant à disposition des données de qualité, accessibles et exploitables à l’échelle de l’entreprise. Par leur expertise, elles valorisent la donnée pour soutenir la prise de décision, le pilotage de la performance et l’innovation, au service des enjeux business et stratégiques Activités : Au sein des équipes Data Services, le consultant sera amené à avoir : Un rôle d’agile master au sein d’une équipe pluridisciplinaire œuvrant sur un produit Un rôle d’agile master à l’échelle du domaine Data Fabric ( 30 personnes), A animer les cérémonies et faciliter les ateliers collaboratifs A Mettre en place les artefacts (Indicateurs, Burndown, HealthCheck...), utiles, utilisés et utilisables au suivi de l’efficience du collectif et élaborer le plan d’amélioration continue Identifier les dysfonctionnements et points d’amélioration Analyser proactivement les obstacles, éléments bloquants, interférences extérieures, et de tout ce qui peut détourner le collectif de ses objectifs et le ralentir Alerter sur les éléments bloquants et obstacles qui ne peuvent être traités localement Compétences attendues : Capacité à analyser et à comprendre un système complexe (techniquement, fonctionnellement et organisationnellement). Capacité à résoudre des problématiques. Esprit d’analyse et de synthèse. Organisation. Rigueur. Bonne capacité à travailler en équipe.
Freelance
CDI

Offre d'emploi
Data Quality / VBA Developer (H/F)

OMICRONE
Publiée le
Microsoft Access
Microsoft Excel
Microsoft Power BI

2 ans
40k-45k €
400 €
Île-de-France, France
📢 Mission – Data Quality / VBA Developer (H/F) Dans le cadre d’un programme de transformation data au sein d’un grand groupe bancaire, nous recherchons un consultant confirmé en VBA / Data Quality pour intervenir sur des sujets de réconciliation de données et automatisation de processus . 🔹 Missions : Maintenance et évolution de scripts VBA (Excel / Access) Pilotage des processus de réconciliation de données Exécution et suivi de bulk data Administration et migration SharePoint Online Suivi des incidents et amélioration des processus 🔹 Environnement technique : VBA, Excel, Access, SQL, PowerShell, SharePoint Online, ServiceNow, Power BI 📍 Localisation : France (présentiel + télétravail) 📅 Démarrage : Avril 2026 👤 Expérience : 3 ans minimum
CDI

Offre d'emploi
Data Scientist IA générative/agentique F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python

Saint-Denis, La Réunion

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Développeur Infrastructure / DevOps – Plateforme Data (H/F)

Pickmeup
Publiée le
Azure
Kubernetes
Terraform

2 ans
500-600 €
75015, Paris, Île-de-France
🏢 Contexte Au sein d’une organisation publique innovante spécialisée dans la gestion et la valorisation de données à grande échelle , vous rejoignez la direction technique en charge de la conception, de l’implémentation et de la maintenance d’une plateforme Data sécurisée. Vous intégrerez une équipe technique dédiée à l’infrastructure, évoluant dans un environnement agile et collaboratif, en interaction avec des profils Data, Produit et Ops. La plateforme repose sur des technologies cloud modernes et des pratiques d’ Infrastructure as Code dans un contexte exigeant en matière de sécurité. 🚀 Missions En tant que Développeur Infrastructure / DevOps, vous interviendrez sur : 🔧 Développement & automatisation Développement et maintenance de l’infrastructure as code Automatisation des déploiements cloud à grande échelle Intégration de composants techniques au sein d’environnements Kubernetes ⚙️ Plateforme & performance Déploiement et maintenance de composants applicatifs et techniques Contribution à la stabilité, performance et évolutivité de la plateforme Collaboration avec les équipes Data pour répondre aux besoins métiers 🔐 Sécurité & bonnes pratiques Application des standards de sécurité et conformité Participation aux évolutions d’architecture Veille technologique et amélioration continue 📚 Documentation & collaboration Rédaction et mise à jour de la documentation technique Participation aux échanges techniques et partage de bonnes pratiques 🛠️ Environnement technique Cloud : Azure Infrastructure as Code : Terraform, Terragrunt, Packer, Ansible Conteneurisation : Kubernetes, Docker, Helm Scripting : Bash, Python Outils : Git, CI/CD, GitLab Data tools : Jupyter, Spark, PostgreSQL
CDI

Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience

Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue

La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Freelance

Mission freelance
IT & Data Integration Manager

TEOLIA CONSULTING
Publiée le
ERP
Google Cloud Platform (GCP)
Supply Chain

6 mois
Paris, France
Dans le cadre d’un programme de transformation stratégique autour d’un outil d’Integrated Business Planning (IBP), un grand groupe international recherche un IT Data & Integration Manager. Ce programme vise à connecter plusieurs systèmes (ERP, outils métiers, plateformes data) afin de fiabiliser la donnée et améliorer la prise de décision à l’échelle globale. Missions : Piloter la mise en place des flux de données et interfaces entre systèmes Définir les règles de transformation des données et les spécifications fonctionnelles / techniques Coordonner les équipes internes (Business, IT) et l’intégrateur Suivre la delivery en Agile (backlog, sprints, Jira) Garantir la qualité, la cohérence et la fiabilité des données Participer aux phases de tests (UAT, validation, mise en production) Anticiper et sécuriser le passage en RUN (monitoring, performance, stabilité)
CDI

Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F

DSI group
Publiée le
Azure Data Factory
Azure DevOps

45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Freelance
CDI

Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision

Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker

6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6397 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous