Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 004 résultats.
Freelance
CDI

Offre d'emploi
Architecte technique Sécurité AWS - Data (H/F)

AVA2I
Publiée le
Amazon S3
AWS Cloud
Data Lake

4 ans
Île-de-France, France
Dans le cadre de la mise en place et de la sécurisation d’une plateforme Data Cloud, vous intervenez sur des architectures basées sur AWS intégrant des composants Data Lake, Data Warehouse et des services de stockage type S3. L’objectif est de garantir la sécurité des accès, la protection des données et la conformité dans un environnement à forts enjeux. 🛠️ Environnement technique Cloud : AWS Stockage : Amazon S3 Data : Data Lake / Data Warehouse Sécurité : IAM (Identity & Access Management) Outils : CI/CD, Infrastructure as Code (Terraform/CloudFormation – souhaité 🚀 Missions 🔐 Sécurité Cloud Définir et appliquer les politiques de sécurité AWS Gérer les accès via IAM (rôles, policies, permissions) Mettre en œuvre les principes de least privilege ☁️ Architecture Participer à la conception d’architectures sécurisées Sécuriser les flux et le stockage de données (S3, Data Lake) Contribuer à la robustesse des plateformes Data 📊 Gouvernance Assurer la conformité (RGPD, normes internes) Mettre en place des contrôles et audits de sécurité Participer à la gouvernance des accès et des données ⚙️ Amélioration continue Automatiser les contrôles de sécurité Mettre en place du monitoring et des alertes Promouvoir les bonnes pratiques sécurité auprès des équipes
Freelance

Mission freelance
Data scientiste Ingénieur IA GCP DEVOPS 500 e par j

BI SOLUTIONS
Publiée le
Data science
Google Cloud Platform (GCP)

2 ans
400-500 €
Île-de-France, France
Ingénieur IA GCP DEVOPS 500 e par j Intelligence Artificielle Générative (IAG) Modèles : Maîtrise parfaite des LLMs tels que Gemini et GPT. Frameworks : Vertex AI Agent Builder, LangChain. Data : Expertise en bases de données vectorielles. 2. Écosystème Cloud & Data Science Cloud : Utilisation avancée de GCP (Vertex AI, Model Garden, Compute/Storage). Langages & Libs : Python, Pandas, NumPy, SciPy. ML Classique : Scikit-learn, TensorFlow ou PyTorch; solides bases en NLP et Deep Learning. Visualisation : Matplotlib, Seaborn, Plotly. 3. Software Engineering & DevOps Méthodologies : Agile (Scrum), Software Craftsmanship (SOLID, YAGNI), couverture de tests (Sonar). Outils : Git, CI/CD, principes d'observabilité. 500 e par j
CDD
CDI
Freelance

Offre d'emploi
Data Engineer

R&S TELECOM
Publiée le
BI
ETL (Extract-transform-load)
Qlik Sense

6 mois
Montpellier, Occitanie
Contexte de la mission : L’objet de la mission porte sur la réalisation d’une prestation d’expertise technique et de développement des flux et applications Génio & Qlik au sein du pôle décisionnel. Tâches à réaliser : La mission consiste à réaliser les tâches suivantes, en autonomie : · Comprendre et reformuler techniquement les besoins métiers ; · Assister les métiers dans la réalisation des maquettes · Concevoir, modéliser et développer des flux de données et/ou des reportings · Rédiger la documentation technique · Rédiger et réaliser des plans de tests et PV de recette. · Organiser et réaliser les mises en production · Analyser les demandes dans la globalité du SI Décisionnel et adapter les solutions pour optimiser la maintenabilité des applications Compétences recherchées : Obligatoires : Compétences confirmées et des expériences dans un contexte BI OTIC/GENIO V16 (ETL indispensable) QlikView / Qlik Sense (Dataviz indispensable) NPrinting Optionnelles : La connaissance des métiers de l’immobilier est un plus Expérience nécessaire : 7 à 9 ans minimum sur la fonction (profil senior) (profil ITS : Hors grille) Méthodologie : Agile Langues : Français Date de démarrage : 20/05/2026 Localisation : · Locaux du client situés MONTPELLIER Possibilité d’interventions hors site Client : OUI, 40% (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : NON Autre matériel requis : NON
Freelance
CDI
CDD

Offre d'emploi
Data Engineer TJM MAX 580 Python + Azure + Microsoft Fabric/Cognite

Craftman data
Publiée le
Azure
Microsoft Fabric
Python

6 mois
40k-55k €
400-580 €
Paris, France
Contexte de la mission Grand groupe international du secteur industriel et énergétique, présent à l’échelle mondiale, engagé dans la transformation de ses activités via une entité digitale interne structurée en équipes pluridisciplinaires. Cette organisation conçoit, développe et déploie des solutions numériques à grande échelle afin de soutenir les opérations métiers dans un environnement international. Objectifs et livrables Dans le cadre d’un projet stratégique, nous recherchons un(e) Data Engineer disposant de solides compétences en Python, Azure, Microsoft Fabric et idéalement Cognite. Le/la consultant(e) sera responsable de la conception, du développement et de la mise en production d’une architecture de données robuste et évolutive. Missions principales : Recueillir et analyser les besoins métiers et utilisateurs Concevoir l’architecture de données adaptée aux enjeux du projet Développer les pipelines de données Industrialiser et mettre en production les flux de données Assurer la maintenance, l’évolution et l’optimisation de l’architecture existante Compétences requises : Technologies : Python (expert) Azure Cloud (confirmé) Microsoft Fabric (confirmé, forte maîtrise appréciée) Cognite (confirmé, forte maîtrise appréciée) Langues : Anglais courant (écrit et oral) Profil recherché : Solide expérience en Data Engineering et architecture cloud Capacité à comprendre les enjeux métiers et à les traduire en solutions techniques Autonomie dans la conception, la livraison et l’amélioration continue Maîtrise des environnements data modernes et des bonnes pratiques de mise en production
CDI
Freelance

Offre d'emploi
Architecte Big Data

HN SERVICES
Publiée le
Apache Kafka
Apache Spark
Google Cloud Platform (GCP)

6 mois
40k-70k €
400-550 €
Paris, France
Vous serez responsable de la conception et de la mise en œuvre d'architectures optimisées et scalables au sein d'une plateforme data, analytique et IA basée hébergée en hybride Cloud/On Premises. Ce poste nécessite une compréhension approfondie de l’écosystème Data en terme de technologies et de pratiques à l’état de l’art (i.e. Hybridation, Datamesh etc…) Les principales activités sont les suivantes : - Collaborer avec les équipes data (Data Engineer, Data Analyst, Data Scientist, Business Analyst, Product Owner, Chef de projet, etc.) pour comprendre les exigences en matière de données, d'usages et de capacités et concevoir et formaliser l’architecture adaptée - Accompagner les équipes data dans la mise en œuvre des architectures définies - Assurer la qualité, l'intégrité et la sécurité des données dans l'environnement de la plateforme data, analytique et IA - Optimiser les processus d'ingestion de données et contribuer à la définition et la mise en œuvre des politiques de gouvernance des données - Évaluer et préconiser les technologies et outils appropriés pour le stockage, le traitement et l'analyse des données - Proposer des optimisations pour résoudre les problèmes d’architecture liés au stockage, à l’accès et à l’exploitation de la plateforme data - Une expérience sur l’accompagnement de projet en lien avec des migrations de plateforme data On premises vers le Cloud (idéalement GCP). Compétences techniques ou métier recherchées : - Vous avez une expérience minimale de 6 ans sur un poste d'architecte data et vous avez une expérience de mise en œuvre d'une plateforme basée sur une technologie Cloud. - Vous avez obtenu un diplôme dans le domaine IT et êtes spécialisé dans la Data. - Vous avez une expérience similaire sur la modélisation des données. - Concepts et technologies liés au Big Data (par exemple, Apache Spark, Hadoop) et aux bases de données SQL/NoSQL. Compétences comportementales recherchées : - Coopérer et fonctionner en transversal - Interagir facilement avec les autres - Négocier et convaincre - Proposer des initiatives ou des solutions - S'adapter aux changements. Compétence complémentaire : - Maitrise des Plateformes Data GCP, Spark, Python, SQL, Kafka, MongoDB Excellente connaissance des concepts et technologies des datalake, datawarehouse / entrepôts de données, lakehouse, des plateformes cloud telles que Google Cloud.
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP/Big data

DATAMED RESEARCH
Publiée le
Apache Spark
BigQuery
Cloudera

24 mois
45k-62k €
450-580 €
Issy-les-Moulineaux, Île-de-France
Contexte : migration de On premise vers GCP En tant que Data Engineer, vous serez au cœur de notre stratégie data. Vous concevrez et mettrez en œuvre des solutions innovantes pour collecter, transformer et stocker nos données massives. Votre expertise technique sera essentielle pour les projets et offrir des insights précieux à nos équipes métiers. Vos missions : Conception et développement: Définir et mettre en œuvre des architectures de données robustes (data lakes, data warehouses). Concevoir et développer des pipelines de données automatisés (ETL). Optimiser les performances des traitements de données. Technologies: Maîtrise des langages de programmation : Python, Scala, SQL. Expérience avec les outils de traitement de données : Spark, Hadoop, Kafka. Connaissance des bases de données relationnelles et NoSQL. Expérience avec les clouds (GCP) Collaboration: Travailler en étroite collaboration avec les équipes métiers. Participer à la définition de la roadmap data.
CDI
Freelance

Offre d'emploi
Data Engineer, GCP (H-F)

K-Lagan
Publiée le
Azure
Big Data
Databricks

1 an
42k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer GCP (F/H) pour rejoindre l’un de nos clients du secteur assurance , basé à Niort, Nouvelle-Aquitiane. 🎯 Contexte Vous intégrerez une équipe Data en charge de la gestion et de l’optimisation des environnements Cloud GCP. Votre rôle sera central dans l’administration de la plateforme Data, la gestion des droits d’accès, l’optimisation des traitements de données et l’industrialisation des flux au sein de l’écosystème BigQuery. 🚀 Vos missions Gérer et administrer l’environnement BigQuery Assurer la gestion de l’infrastructure Google Cloud Platform (GCP) Administrer les droits et accès pour les équipes Data Intervenir sur l’automatisation via Terraform (IaC) Développer et maintenir les flux Data avec DBT Participer à l’amélioration continue des performances et de la fiabilité de la plateforme Contribuer aux bonnes pratiques de développement et d’industrialisation
Freelance
CDI

Offre d'emploi
Architecte Big data sur le Havre

EterniTech
Publiée le
Big Data
Data Lake
Data science

3 mois
Le Havre, Normandie
Je cherche pour un de mes client un Architecte Big data sur le Havre Missions principales : Conception, mise en place et évolution d’architectures data modernes (Data Lakes, Data Warehouses) adaptées aux enjeux métiers et aux volumes de données. Développement et industrialisation de pipelines de données (ingestion, transformation, orchestration) dans des environnements Big Data. Intégration et valorisation des données pour alimenter des cas d’usage avancés, notamment en data science et intelligence artificielle. Développement de modèles analytiques et algorithmes de data science en réponse aux problématiques métiers. Création de tableaux de bord et reporting décisionnel via des outils BI tels que Qlik et Microsoft Power BI. Mise en œuvre et optimisation de moteurs de recherche et d’indexation avancée basés sur Elasticsearch (expertise clé). Gestion, enrichissement et évolution du catalogue de données (data catalog) afin de garantir la gouvernance et la qualité des données. Activités transverses : Analyse des systèmes existants et animation d’ateliers avec les parties prenantes pour cadrer les besoins. Définition des standards techniques, bonnes pratiques et architectures cibles. Dimensionnement, chiffrage et cadrage des solutions data. Accompagnement des équipes projet dans la mise en œuvre des solutions et suivi opérationnel. Transfert de compétences et montée en autonomie des équipes internes. Rédaction de documentation technique, cahiers des charges et rapports d’études. Réalisation d’audits techniques et amélioration continue des processus data. Veille technologique et conseil stratégique sur les outils et architectures data. Environnement technique : Big Data, Data Lake, Data Warehouse, ETL/ELT, Elasticsearch, Qlik, Power BI, Data Catalog, IA / Data Science.
Freelance

Mission freelance
POT9121 - Un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF.

Almatek
Publiée le
Data management

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF. Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : -planification des changements globaux/locaux -planification et suivi des soumissions -planification et suivi des enregistrements -gestion des CCDS et de l’étiquetage local -reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset). Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Contrainte forte du projet : Diplome pharma/ expertise affaires règlementaires / connaissance RIM / IDMP Connaissances linguistiques : anglais professionnel (Excellentes compétences en communication en anglais.)
Freelance
CDI

Offre d'emploi
Consultant Data Governance & Data Migration (H/F)

Deodis
Publiée le
Data governance
Data Lake

1 an
38k-50k €
430-600 €
Île-de-France, France
En tant que Consultant Data spécialisé en gouvernance et migration, vous intervenez au cœur d’un programme stratégique de transformation visant à structurer, fiabiliser et harmoniser les flux de données dans un environnement complexe. Intégré(e) au Data Office, vous jouez un rôle clé dans la définition des besoins métiers, la conception des flux de données et le pilotage des livraisons, tout en garantissant la qualité, la traçabilité et la conformité des données. À ce titre, vous animez des ateliers avec les équipes métiers et IT afin de recueillir et formaliser les besoins data, réalisez des analyses d’écart entre les systèmes existants et les solutions cibles, et concevez les data lineage de bout en bout. Vous participez activement aux ateliers de conception fonctionnelle et technique, en apportant votre expertise sur les enjeux de gouvernance, de qualité et d’architecture des données. Vous êtes également en charge du pilotage de la roadmap data, en assurant le suivi des livraisons, l’identification des dépendances critiques et la gestion des risques. Vous maintenez un backlog structuré, suivez les indicateurs de performance et contribuez à la mise en place des standards de gouvernance et de qualité définis par le Data Office. Enfin, vous agissez comme référent sur votre périmètre, en accompagnant les équipes dans l’adoption des bonnes pratiques, en produisant une documentation de qualité (data dictionaries, processus, cartographies de flux) et en contribuant aux actions de change management dans un contexte de transformation à grande échelle.
CDI
Freelance

Offre d'emploi
Business Analyst DATA

INFOTEL CONSEIL
Publiée le
Cloudera
Informatica
Oracle

2 ans
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de ses équipes, nous recherchons un Business Analyst Data pour intervenir auprès des directions métiers sur les sujets liés à la donnée au sein d’un grand groupe basé à Niort. Vos missions : Assurer une proximité avec les directions métiers et les accompagner sur les usages autour de la Data, Recueillir, analyser et formaliser les besoins métiers, Apporter un conseil aux directions métiers sur l’exploitation et la valorisation de la donnée, Participer au cadrage des projets Data (études d’impacts, faisabilité), Contribuer aux études d’opportunité et de faisabilité sur les sujets Data, Garantir la cohérence fonctionnelle et technique du SI, Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections, Produire les livrables fonctionnels (SFG, SFD, modélisations de données), Assurer la tenue à jour de la documentation du patrimoine Data, Garantir la satisfaction des métiers sur les sujets Data (qualité, coûts, délais, engagements). Environnement technique : Écosystème Data SI décisionnel : Oracle / Informatica, Plateforme Big Data : Cloudera.
CDD
CDI

Offre d'emploi
Lead Dev Data Streaming

OCTOGONE
Publiée le
Apache Kafka

6 mois
Grenoble, Auvergne-Rhône-Alpes
Vous intervenez en tant que référent technique et pilote d’une équipe d’environ 5 développeurs sur une plateforme de data streaming dédiée à la collecte et au traitement de données énergétiques issues d’équipements terrain (capteurs IoT, automates, systèmes de gestion technique de bâtiments). L’objectif de la plateforme est de permettre le pilotage intelligent de systèmes de chauffage et de climatisation, en exploitant des flux de données en temps réel afin d’optimiser la consommation énergétique tout en garantissant le confort des occupants. Le contexte présente des enjeux très forts de volumétrie et de passage à l’échelle : ingestion massive de données issues de centaines de milliers d’équipements, gestion de flux continus à haute fréquence, et nécessité de garantir des traitements fiables et performants en conditions de charge. Vous évoluez ainsi sur des problématiques techniques exigeantes : partitionnement Kafka, gestion du throughput, optimisation de la latence, tolérance aux pannes, reprise sur incident, cohérence des données et supervision de pipelines critiques.
Freelance
CDI

Offre d'emploi
Développeur Data (Foundry) et Fullstack (Python, Typescript)

CAT-AMANIA
Publiée le
Data Engineering
Python
SQL

1 an
58k-60k €
490-500 €
Paris, France
Nous recherchons un profil Data / Full Stack sur la plateforme Foundry de Palantir, pour mettre en place de nouveaux dispositifs data‑centrés visant à répondre aux enjeux réglementaires LCB‑FT (Lutte contre le Blanchiment des Capitaux et le Financement du Terrorisme). Mise en œuvre d’applications d’investigation et traitement d’alertes dans une équipe de développement en montée en compétence sur une plateforme Foundry de chez Palantir. Comprendre rapidement l’écosystème Foundry existant Reprendre un existant, rétro-ingénierie, corrections, améliorations Maintenir et faire évoluer les pipelines de données Pipelines ETL / data workflows Développer ou adapter des workshops Foundry Applications et écrans métier complexes orientés analystes (investigation, suivi des alertes, reporting Assurer la fiabilité, la lisibilité et la maintenabilité des traitements Collaborer étroitement avec les équipes data et métier assurance Assurer avec l’équipe le suivi Run/MCO
CDI
Freelance

Offre d'emploi
Data Scientiste Senior

Etixway
Publiée le
IA Générative
Microservices
Python

1 an
40k-45k €
400-450 €
Noisy-le-Grand, Île-de-France
Nous recherchons pour l’un de nos clients un(e) Data Scientist Senior disposant d’une solide expérience sur les sujets IA et data avancée. Le consultant interviendra sur des problématiques de traitement et valorisation de données avec une forte dimension Intelligence Artificielle et IA générative. Compétences recherchées • Expertise Python • Expérience significative en Data Virtualization • Maîtrise des sujets IA / LLM (Large Language Models) • Bonne compréhension des architectures data et pipelines de traitement • Capacité à intervenir de manière autonome sur des sujets complexes • Expérience dans des environnements grands comptes ou secteur public appréciée Environnement technique • Python • IA générative / LLM / RAG • Data Virtualization • APIs / Microservices • Cloud & outils data modernes
Freelance

Mission freelance
ARCHITECTE DATA EXPERT

Groupe Ayli
Publiée le
.NET
.NET Framework
Apache Kafka

3 mois
Paris, France
Étude de refonte du backbone data & modernisation des plateformes décisionnelles 🏢 Contexte Dans un environnement data à forte volumétrie, comparable à des secteurs comme les télécoms, banques, assurance ou l’e-commerce, notre Client souhaite engager une réflexion stratégique sur l’évolution de son architecture data . L’architecture actuelle, conçue en 2018, repose sur des technologies éprouvées mais nécessite aujourd’hui une évolution pour répondre aux enjeux de performance, de scalabilité et de nouveaux usages . 🏗️ Stack technique actuelle ETL : IBM InfoSphere DataStage Base de données : Oracle Exadata Restitution : IBM Cognos Analytics + applications .NET Architecture globale : mise en place en 2018 🎯 Enjeux business Définir une trajectoire d’évolution du backbone data Structurer une roadmap de transformation autour de l’évolution des outils ETL Accompagner le développement de nouveaux usages data (API, microservices, etc.) Moderniser l’écosystème décisionnel et analytique 🎯 Objectifs de la mission Piloter et réaliser, en autonomie, une étude d’architecture complète sur une durée inférieure à 3 mois, visant à : Diagnostiquer les limites de l’architecture actuelle et identifier les besoins de performance Concevoir une architecture cible moderne, scalable et performante Définir une stratégie de transformation technologique Identifier et structurer les nouveaux usages autour de la donnée (API, microservices…) Élaborer une roadmap de transformation avec estimation des impacts (coûts, risques, organisation) 📦 Livrables attendus Diagnostic technique Audit complet de l’architecture existante, identification des limites, des forces et des axes d’amélioration Cahier des charges cible Recommandations argumentées, définition de l’architecture cible et des choix technologiques Roadmap de transformation Planning de transformation, estimation budgétaire et analyse des risques Présentation exécutive Synthèse stratégique et recommandations à destination de la direction 📌 Livrables détaillés Cartographie applicative et technique actualisée Analyse comparative des solutions alternatives ETL Architecture cible (logique et physique) documentée Estimation budgétaire et planning de transformation Matrice des risques et plans de mitigation
Freelance
CDI

Offre d'emploi
Data Analyst – Data Référentiels & Gouvernance (MDM / Data Platform)

AVA2I
Publiée le
MySQL

1 an
Île-de-France, France
🏢 Contexte Dans le cadre d’une stratégie de transformation Data, une grande organisation met en place un système de gestion des données de référence afin de centraliser et fiabiliser les données critiques utilisées par les métiers (finance, reporting, opérations, outils décisionnels). Le Data Analyst interviendra au sein de l’équipe Data pour concevoir, améliorer et maintenir des datasets exposés via une Data Platform. 🎯 Objectifs du poste Garantir la qualité, cohérence et disponibilité des données Concevoir des datasets fiables et exploitables Assurer le lien entre besoins métier et implémentation technique Contribuer à la gouvernance et documentation des données
2004 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous