Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 645 résultats.
Freelance

Mission freelance
Architecte Technique Senior - VMWARE VCF, AWS

CAT-AMANIA
Publiée le
AWS Cloud
VMware

3 mois
400-550 €
Île-de-France, France
Mission : Architecte Technique Senior - VMWARE VCF, AWS Nous recherchons un Architecte Technique confirmé pour renforcer nos équipes d’Architecture Technique. Dans un environnement technologique riche, vous interviendrez sur des projets multidisciplinaires mêlant applicatif, infrastructures IT4IT et activités de RUN Architecture. 📅 Détails de la mission Date de début : 30/03/2026 Durée : Jusqu’au 30/06/2026 (Renouvellement possible) Charge : 100% (Temps plein) Lieu : Hybride (2 jours de télétravail par semaine) Déplacements : Occasionnels Astreintes : Oui 🎯 Vos Objectifs En tant que Référent Architecture Technique (RAARCH) ou contributeur expert, vos responsabilités seront les suivantes : 1. Analyse, Design & Expertise Décliner l’architecture technique et l’infrastructure des solutions (Cloud AWS / On-Prem). Garantir la conformité des solutions vis-à-vis du cadre technologique et des standards de l'entreprise. Proposer des architectures robustes et résilientes (DRP/BCP, haute disponibilité). Réaliser des études d’opportunité, des POC ou des POV pour valider les choix technologiques. 2. Gouvernance & Documentation Produire les livrables d’architecture (HLD, LLD, cadres de référence). Présenter et défendre les dossiers en comités d’architecture. Assurer la veille technologique et l'amélioration continue des référentiels. 3. Support au RUN & Industrialisation Apporter une expertise de niveau 3 sur les incidents critiques. Identifier les axes d'industrialisation ou de fiabilisation (Gestion des problèmes). Contribuer à la roadmap d’évolution des socles d’infrastructure. 🛠 Compétences recherchées Expertises Techniques (Impératives) : Cloud & Virtualisation : Maîtrise de VMware VCF , des environnements hybrides et d' AWS . Infrastructures : Solides connaissances en OS, Stockage, Réseaux et Sécurité. Modernisation : Conteneurs, Orchestration, API Management et Sécurité by Design . Automatisation : Expérience en Infrastructure as Code (IaC) et pipelines CI/CD . Méthodologie & Soft Skills : Connaissance des frameworks d’architecture (ex: TOGAF ). Capacité à vulgariser des sujets complexes pour des décideurs ou des opérationnels. Esprit critique, capacité à challenger le besoin et rigueur documentaire. 📄 Livrables attendus Mise à jour du référentiel d’architecture d'entreprise (normes, standards, cartographie). Dossiers d'architecture technique (DAT) complets et validés. Schémas directeurs et préconisations d'amélioration des processus.
Freelance

Mission freelance
Consultant Data Quality

NOVAMINDS
Publiée le
Data quality

3 mois
400-440 €
Paris, France
Objectif de la mission La mission du Data Office s’est fortement enrichie avec la promotion de l’utilisation de la Data par l’ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de la banque de détail et du Groupe. L’objectif est de développer l’activité commerciale, de diminuer les coûts, d’améliorer l’efficacité opérationnelle et de répondre à la dimension règlementaire. La mission se déroulera au sein de l’équipe Data Office Data Quality de la banque de détail. Prestations demandées L’activité de cette équipe porte sur le développement, l’amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l’écosystème banque de détail et sur l’accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion, etc.). Le profil a une connaissance théorique des expertises demandées par sa formation et a pu les mettre en pratique sur une ou deux missions. Le profil est régulièrement formé ou informé par ses pairs ou par le biais de formations sur l’expertise demandée.
CDI

Offre d'emploi
Lead Developer Backend - Expertise IA & Agentique - Paris (H/F)

EASY PARTNER
Publiée le
C/C++
Data science
Go (langage)

71k-90k €
Paris, France
Contexte du poste Vous êtes passionné par l'innovation et l'intelligence artificielle ? Rejoignez une entreprise en pleine croissance spécialisée dans le développement de solutions numériques avancées, située en plein cœur de Paris. Notre département R&D, composé d'une équipe pluridisciplinaire de talents, cherche à agrandir ses rangs avec un Lead Developer Backend afin de piloter des projets stratégiques liés à l'IA et aux systèmes agentiques. Ce poste clé est à pourvoir pour renforcer notre expertise technique et soutenir notre croissance face aux défis complexes du numérique, tout en collaborant étroitement avec la direction et les équipes de base de données. Missions Missions principales - Concevoir, architecturer et implémenter notre nouveau système avec une forte composante IA. - Assurer le pilotage technique et l'accompagnement de l'équipe dans la réflexion et l'optimisation technologique. - Travailler en étroite collaboration avec la direction R&D pour aligner les objectifs stratégiques. - Prendre en charge l'intégralité du cycle de vie des projets, de la définition des besoins à leur déploiement. Missions annexes - Participer activement à la gestion des incidents et à l'amélioration continue. - Contribuer à la veille technologique et à l'innovation au sein de l'entreprise.
Freelance

Mission freelance
Lead Tech Python – GenAI (H/F) – Mission 3 jours semaines – Île-de-France

HOXTON PARTNERS
Publiée le
AWS Cloud
GenAI
Python

10 mois
550 €
Massy, Île-de-France
Dans le cadre de la mise en place d’une GenAI Factory au sein d’un grand acteur bancaire, nous recherchons un Lead Tech Python expérimenté. La mission consiste à intervenir comme référent technique auprès d’une équipe de développeurs GenAI afin de renforcer la qualité et la robustesse des développements Python. Le consultant participera activement au développement, challengera les choix techniques, diffusera les bonnes pratiques (architecture, structuration de code, tests, performance) et recommandera les librairies adaptées aux cas d’usage IA générative (LLM, RAG, orchestration, etc.). Une expérience concrète en développement sur des projets Generative AI est indispensable. Une connaissance d’environnements cloud, idéalement AWS, est fortement appréciée.
Freelance

Mission freelance
Lead Data Architect – Refactoring Data Platform

Pickmeup
Publiée le
Data governance

2 mois
800-1 200 €
Paris, France
Dans un contexte de transformation stratégique post-acquisition, notre client souhaite refondre en profondeur son architecture data afin d’unifier deux écosystèmes distincts : Une plateforme orientée AI / data temps réel Un système historique structuré de type ERP / media planning L’objectif est de construire une architecture cible robuste, scalable et “AI-ready” , capable de supporter des cas d’usage avancés tout en garantissant la cohérence des données métiers. Nous recherchons un Lead Data Architect pour une mission courte et à fort impact, avec une responsabilité clé : poser les fondations de la future plateforme data du groupe . Responsabilités Réaliser un audit rapide des architectures existantes (data models, flux, dépendances) Identifier les limites actuelles : silos, incohérences, dette technique, performance Définir une architecture data cible (data platform / lakehouse / data products) Concevoir un modèle de données unifié (canonical data model) Proposer une stratégie de convergence entre : données temps réel (event-driven) données structurées (ERP / finance / planning) Définir les principes d’architecture : découplage scalabilité gouvernance sécurité Structurer les premiers data products par domaine métier Cadrer les choix technologiques (cloud, stockage, orchestration, streaming) Accompagner les équipes techniques dans la mise en mouvement (kickoff, guidelines) Produire une documentation claire à destination du CTO et des équipes
Freelance

Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)

Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud

6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
CDI

Offre d'emploi
développeur .net azure (saalrié)

KOUKA
Publiée le
.NET
AWS Cloud
Azure

40k-58k €
Île-de-France, France
Concevoir, développer et maintenir des applications .NET distribuées et asynchrones , basées sur des architectures événementielles dans des environnements cloud Microsoft Azure et AWS .NET (.NET Core / .NET 6+) ☁️ Cloud & Messaging Azure : Service Bus Azure Functions Storage Accounts AWS : Lambda SQS / SNS EventBridge 🔄 Asynchrone & Architecture Programmation asynchrone (async/await, Task, multithreading) Architecture événementielle (event-driven) Microservices CQRS / Event Sourcing (un plus) Minimum 5 ans d'expérience Poste en CDI
Freelance

Mission freelance
Directeur de projet

HAYS France
Publiée le
Data governance
Gouvernance

5 ans
110-600 £GB
Lille, Hauts-de-France
Manager de la gestion de l’actif stratégique des données business Contexte et enjeux : Les données business, en tant que couche finale de consumer-aligned data, constituent un actif stratégique majeur pour l’entreprise. Elles incluent notamment les données orientées usages métiers, les KPI, les Aggregated Data Products ainsi que le référentiel sémantique partagé. Dans ce contexte, le/la manager de la gestion de l’actif stratégique des données business a pour mission de maximiser la valeur créée par ces données, tout en maîtrisant leur qualité, leur usage et les coûts associés à leur construction et à leur exploitation. Mission principale : Piloter, structurer et valoriser l’actif des données business de l’entreprise, en assurant l’alignement entre les enjeux stratégiques, les attentes des métiers et les capacités data et technologiques. Responsabilités clés : 1/ Animation et gouvernance du backlog de données business : -Animer et accompagner la construction, la priorisation et la gouvernance du backlog de données business aux niveaux GLT, Platform Leaders et Head of Data, Performance -Assurer l’alignement stratégique et la gestion des attentes des parties prenante -Garantir la cohérence globale des besoins métiers exprimés 2/ Pilotage de la valeur, de l’usage et de la qualité de l’actif data : -Mettre en place et animer un cockpit de pilotage de l’utilisation des données business - Analyser l’usage réel des KPI et des Aggregated Data Products existants - Mettre en regard les coûts de construction avec les niveaux d’adoption et de consommation - Identifier les opportunités de rationalisation et de création de valeur
Freelance
CDI

Offre d'emploi
Intégrateur applicatif / DevOps

LEVUP
Publiée le
Ansible
Apache
AWS Cloud

12 mois
Annecy, Auvergne-Rhône-Alpes
Dans le respect des règlementations et des procédures, avec le souci de la qualité et de la rigueur, la mission consistera à déployer, configurer et valider les applications et les infrastructures liées à la plateforme. Gestion des montées de versions ; Gestion des environnements ; RUN applicatif ; Garantir la haute disponibilité et la résilience de la plateforme ; Gestion des environnements cloud ; Garantir l'intégration applicative ; Gestion des certificats, clé, instances web ; Assurer les astreintes et le déploiement applicatif ; Supervision et monitoring ;
Freelance

Mission freelance
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le
API
Python

12 mois
450-550 €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Offre premium
Freelance

Mission freelance
Chef de projet Flux/Data

Come Together
Publiée le
Gestion de projet

1 mois
Nord, France
Nous recherchons pour un grand compte de la région un chef de projet flux/data Mission : Pilotage des projets de mise en place de flux de données en provenance de systèmes industriels. Principales tâches de la mission - Accompagner les interlocuteurs métier dans la définition des besoins d’export. - Piloter les projets de mise place de flux DATA en provenance de systèmes industriels en lien avec les experts métiers, les éditeurs de solutions et les équipes IT - Produire l’ensemble des livrables en accord avec la méthodologie Projet du client. - Documenter et industrialiser dans l’équipe RUN afin d’en sécuriser la maintenance.
Freelance
CDI

Offre d'emploi
Data Manager confirmé – Gouvernance Data / Data Quality / Catalogage

Inventiv IT
Publiée le
Big Data
Data governance
Développement

6 mois
48k-58k €
460-550 €
Paris, France
Nous voulons un profil polyvalent technico-fonctionnel orienté Data, Data Quality, Développement & DevOps (avec une vision globale). 20 % : Technique applicative (DevOps & Développement) 20 % : Data Gouvernance & Catalogage 20 % : Data transverse 40 % : Data Quality Confirmé : entre 3/7 ans d’expérience Contexte Au sein de la Data Factory, la mission s’inscrit dans le cadre du renforcement de l’outillage et des pratiques de Data Management sur la plateforme Data et sur les sujets de Data Quality Groupe. L’objectif est d’accompagner l’industrialisation des pratiques de gouvernance de la donnée, d’améliorer la qualité des données, de fiabiliser les mises en production et de renforcer la traçabilité et la conformité des activités data. Objectifs de la mission Le consultant interviendra pour : renforcer l’industrialisation des pratiques de Data Management sur la plateforme Data améliorer l’outillage de catalogage, de lineage et d’interconnexion entre outils, contribuer au chantier Data Quality fonctionnelle au niveau Groupe, garantir la conformité aux exigences de gouvernance data et de traçabilité, accompagner les métiers et équipes projets dans l’usage des outils et livrables de gouvernance. Positionnement Rattachement opérationnel : sous la supervision du Product Owner de la Plateforme Data Groupe Reporting hiérarchique : manager des plateformes Data Interactions fréquentes avec : référents Data métiers, équipes Gouvernance Data Groupe, squads projets, intervenants IT / DSI. Participation aux principales cérémonies Agile de l’équipe. Missions principales 1. Administration et amélioration des outils de Data Management Garantir la cohérence globale des paramétrages des fonctions Data Management dans le socle Data & IA. Administrer ou contribuer à l’administration des outils de gestion de métadonnées et de catalogage. Assurer la continuité et l’amélioration de la qualité de l’écosystème d’outils. Gérer les interconnexions pour garantir un linéage fiable entre outils, notamment Databricks et Collibra. Produire la documentation d’exploitation et les modes opératoires. Identifier des améliorations pragmatiques pour réduire les tâches manuelles et augmenter le taux de tables documentées/taggées. 2. Contribution à la gouvernance Data Groupe Apporter son expertise sur l’offre de services autour du Data Catalogue Groupe / Collibra. Contribuer à la structuration du programme Data Quality fonctionnelle : méthodologie, planning, audits, reporting, coordination avec les BU. 3. Accompagnement méthodologique des produits Data métier Accompagner les Data Owners métiers dans les ateliers de qualification des sources. Garantir la cohérence des CCD (Cadres de Confiance Data). Assister les équipes sur la production des Contrats d’Interface et Contrats de Consommation. Faire monter les équipes en autonomie sur les outils fournis, notamment via coaching et accompagnement. 4. Gouvernance, conformité et pilotage Documenter le patrimoine de données avec une vision transverse. Vérifier le bon renseignement des métadonnées techniques de la recette à la production. Contrôler et fiabiliser le linéage. Maintenir la qualité du catalogage : définitions, descriptions, tags, propriétaires, périmètres. Classifier les données selon leur sensibilité : DCP, données business sensibles, santé, etc. Fournir des tableaux de bord sur la qualité des données et la gouvernance dans la plateforme Data Suivre l’avancement sur plusieurs projets en parallèle. Tenir à jour la matrice Applications x Domaine. Rédiger des comptes rendus orientés actions / décisions. Alerter rapidement et formellement en cas de retard ou dépendance bloquante.
Freelance

Mission freelance
Architecte Cloud Senior

NEXORIS
Publiée le
Amazon Elastic Compute Cloud (EC2)
AWS Cloud
Gitlab

1 an
400-600 €
Paris, France
Notre client, acteur majeur du secteur bancaire, recherche un Architecte Cloud Senior (H/F) dans le cadre d'une longue mission. Conception et implémentation de services managés sur AWS et GCP au sein d'une plateforme d'hébergement et d'exploitation des applications. Extension des landing zone public cloud permettant le déploiement de services IaaS, PaaS et CaaS conformes aux normes de sécurité en vigueur (AMI sécurisées, remontée au SOC, observabilité, gestion des cycles de vie). Travaux à réaliser : - Porter et piloter la vision d'architecture des offres Cloud - Concevoir et définir l'architecture des services managés (compute, stockage, bases de données, conteneurs) sur AWS et GCP - Analyser les besoins et définir le catalogue de services managés cloud - Superviser l'implémentation et l'industrialisation des services managés - Accompagner les équipes dans l'adoption et l'utilisation des services managés - Définir et superviser les processus de gestion du cycle de vie des services - Assurer l'intégration avec les outils d'observabilité, monitoring et SOC - Analyser les performances et proposer des optimisations techniques Livrables : - High level design - Documents d'architecture techniques / Architecture Decision Records - Mise à jour des normes & standards techniques si requis - Supports de présentations - Plans de tests techniques - Comptes-rendus techniques d'ateliers
Freelance
CDI

Offre d'emploi
Cloud Security Architect AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Nous recherchons un Cloud Security Architect AWS pour définir, piloter et renforcer la posture de sécurité des environnements cloud dans des contextes industriels et critiques. Vous serez responsable de la conception des architectures de sécurité AWS, en intégrant des modèles Zero Trust, une segmentation fine des réseaux et une gouvernance robuste des identités et des accès (IAM, SCP, Control Tower). Vous travaillerez sur la sécurisation des Landing Zones AWS, la mise en place de contrôles préventifs et détectifs (AWS Config, GuardDuty, Security Hub, Firewall Manager) et l’automatisation des politiques de sécurité via Infrastructure as Code. Vous accompagnerez les équipes DevOps et SRE dans l’intégration de la sécurité “by design” et “by default” dans les pipelines CI/CD. Vous participerez à l’analyse des risques, à la gestion des vulnérabilités et à la définition des stratégies de protection des données (chiffrement, KMS, secrets management). Vous contribuerez également à l’amélioration continue de la posture de sécurité en analysant les incidents, en proposant des remédiations et en diffusant les bonnes pratiques auprès des équipes techniques.
CDI

Offre d'emploi
Data scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
Deep Learning
Ocaml

41k-47k €
Roubaix, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

2645 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous