Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 321 résultats.
CDI
Freelance

Offre d'emploi
Expert Cybersécurité Cloud GCP – S3NS / Environnement critique

RIDCHA DATA
Publiée le
Confluence
Google Cloud Platform (GCP)
Hardware Security Module (HSM)

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme stratégique majeur de transformation numérique visant la modernisation des systèmes d’information métiers (nucléaire, thermique, déconstruction), nous recherchons un Expert Cybersécurité Cloud GCP . La mission s’inscrit au sein d’une Usine des Socles SI Maintenance , avec pour objectif de remplacer et sécuriser un SI EAM (Enterprise Asset Management) utilisé pour la maintenance d’installations industrielles critiques. 👉 Enjeux clés : Sûreté des systèmes critiques Souveraineté des données Conformité réglementaire Migration vers un cloud de confiance S3NS (Google Cloud opéré par un acteur souverain) Mission avec obligation de résultats , pilotée par livrables et indicateurs. 🎯 Vos missions En tant qu’ expert cybersécurité transverse , vous interviendrez sur les dimensions stratégiques, opérationnelles et de conseil : Évaluer la conformité cybersécurité (PSSI interne, SecNumCloud) Réaliser analyses de risques, études d’impact, cartographies des menaces Définir et mettre en œuvre des mesures compensatoires Contribuer à la stratégie globale de sécurisation des SI Accompagner la migration vers les nouveaux SI cloud S3NS Intégrer la sécurité sur tout le cycle de vie produit ( Security by Design / by Default ) Mettre en place la supervision sécurité : audits, logs, détection d’incidents Sensibiliser et acculturer les équipes (Security Champions)
Freelance
CDI

Offre d'emploi
Senior Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
Apache Airflow
Automatisation

2 ans
Paris, France
Missions principales Concevoir et faire évoluer des architectures data cloud sur AWS Développer et maintenir des pipelines data fiables et performants (batch & orchestration) Industrialiser les traitements data et API de services data Participer aux choix d’architecture, aux bonnes pratiques et à la gouvernance data Collaborer étroitement avec les équipes Analytics, BI et IA Contribuer à l’automatisation, à la qualité et à l’observabilité des chaînes data Cloud & Data AWS (Redshift, services managés) Terraform (Infrastructure as Code) Airflow (orchestration) Développement Python FastAPI Docker Atouts bonus Expérience GCP (BigQuery, services data) Exposition ou projets autour de l’ IA agentique (LLM, agents, automatisation intelligente, pipelines IA)
Freelance

Mission freelance
Support Market Data

Cherry Pick
Publiée le
Linux
PL/SQL
Python

12 mois
Paris, France
Mission : Nous assister dans l’implémentation, le support et la maintenance de nos architectures market data ainsi qu’au développement et à la maintenance des outils de support. Cette mission se situe dans une équipe market data (5 personnes y compris le prestataire) qui gère la disponibilité des flux temps réel pour les applications de trading CFM Missions: Support niveau 1, qualification, traitement et suivi des incidents et des remontés d’alertes. Implémentation des nouvelles architectures des flux de données Détection, suivi et résolution des problèmes techniques et fonctionnels avec les autres équipes IT et les équipes de Recherche. Communication pendant et après les incidents auprès des utilisateurs et du management. Optimisation de la qualité des flux Intégration de nouveaux marchés Suivi et veille technologique sur les évolutions des places boursières : compréhension de l’impact sur nos infrastructures et proposition d’intégration Astreintes de l’équipe Nous recherchons donc un consultant avec les compétences suivantes : Développement Python, PL/SQL Gitlab 2/3 ans d’expérience. Support Connaissance réseau (routage, unicast, multicast) Linux, PL/SQL Expérience de support applicatif Connaissance des marchés boursiers
CDI

Offre d'emploi
DATA ANALYST (H/F)

█ █ █ █ █ █ █
Publiée le
Data management

Brive-la-Gaillarde, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer H/F

OBJECTWARE
Publiée le
Microsoft Power BI
Python
SQL

1 an
Tours, Centre-Val de Loire
Missions : Animation du processus (Coordination des correspondants, Suivi des données d’entrée nécessaires à l’exécution, reporting…) Administration et exploitation de l'application métier (Paramétrage, Exécution des traitements…) Support utilisateur & MCO (Assistance fonctionnelle niveau 1 & 2, Diagnostic, résolution d’incidents, escalade si nécessaire...) Planification et organisation des recettes, Formalisation des PV Création/mise à jour de fiches d’assistance, manuels utilisateurs, procédures d’ingénierie
Freelance
CDI
CDD

Offre d'emploi
Project Manager / PMO Finance

RIDCHA DATA
Publiée le
Gestion de projet

1 an
Paris, France
Contexte Dans le cadre du renforcement de ses activités transversales, Ridchadata recherche un profil expérimenté pour accompagner les services Remediation & GenSec Transversal Services , en assurant la gestion budgétaire, le suivi des projets stratégiques et la coordination des ressources humaines. Missions principales1. Gestion budgétaire Élaborer des budgets annuels complets couvrant les dépenses opérationnelles et les projets. Suivre les dépenses réelles et l’avancement des projets, avec des reportings réguliers à l’équipe de direction et au contrôle de gestion. Être l’interlocuteur principal pour toutes les questions liées au budget dans les projets transversaux. Accompagner les managers dans le suivi et l’optimisation de leurs budgets tout au long de l’année. 2. Suivi des actions de remédiation d’audit Collecter et suivre les demandes budgétaires liées aux plans de remédiation d’audit. Contrôler la consommation des budgets et challenger les besoins exprimés par les équipes. 3. Gestion du portefeuille de projets Superviser le portefeuille de projets de la division en cohérence avec la stratégie de l’entreprise. Coordonner avec les chefs de projet la définition des périmètres, budgets, plannings et priorités. Fournir des reportings réguliers basés sur les données réelles et les retours des chefs de projet. Assister les chefs de projet dans les processus de validation budgétaire. 4. Suivi des ressources humaines Suivre l’évolution des effectifs et la stratégie RH mise en œuvre durant l’année. Assurer un suivi hebdomadaire des recrutements en cours et à venir avec les recruteurs. 5. Contributions complémentaires Accompagner les managers dans l’utilisation des outils et applications internes. Piloter ou contribuer à des projets transversaux ponctuels
Freelance
CDI

Offre d'emploi
Data Engineer Senior - Nantes &Vannes F/H

Argain Consulting Innovation
Publiée le
Apache Hive
Apache Spark
Batch

2 ans
40k-45k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons un Data Engineer pour intervenir sur la fabrication de cas d’usages Data et le développement des produits associés. L’environnement est transverse, multi-sites, avec des enjeux forts de cohérence, de qualité et d’industrialisation des solutions Data à l’échelle de l’entreprise, en lien avec les équipes métiers et techniques. ➕ Les + de la mission Environnement technique structuré Enjeux Data à forte valeur métier Collaboration avec des équipes techniques expérimentées Mission longue durée 📍 Localisation Vannes / Nantes (1 jour par semaine sur site à Vannes requis) Mission longue
Freelance
CDI

Offre d'emploi
Data Scientist

VISIAN
Publiée le
Machine Learning
Python
SQL

1 an
40k-45k €
140-480 €
Paris, France
Mission La mission d'une institution financière majeure est de contribuer à une croissance responsable et durable par un financement de l'économie dans le respect des plus hauts standards éthiques, en particulier dans les domaines de l'anti-blanchiment d'argent, de la lutte contre le terrorisme, et de la lutte contre la fraude et l'ingénierie sociale. L'optimisation des services opérationnels via la science des données représente une opportunité majeure pour notre entreprise de se démarquer sur le marché. Descriptif du Poste Assurer la recherche de données et la mise au point de modèles performants afin d'assister de nombreuses équipes de la banque commerciale dans leur effort d'identification et d'analyse des comportements suspects. Déployer et intégrer ces modèles dans les infrastructures et flux de travail de l'entreprise en assurant un impact positif et maîtrisé. Profil Recherché Nous cherchons un profil capable de développer et intégrer des solutions avancées de data science appliquée à des données structurées en priorité. Des compétences en traitement du langage naturel (NLP traditionnelle, voire GenAI) seraient un plus permettant de proposer à nos clients internes des fonctionnalités différenciantes et l'évolution en interne du profil vers d'autres projets. Ce profil doit connaître en détail le fonctionnement de nombreux algorithmes d'apprentissage, supervisé comme non supervisé, et être en pleine possession des méthodologies d'évaluation de modèles. Idéalement, le candidat devrait avoir une expérience pratique dans des projets similaires et démontrer une capacité à traduire un problème concret en problème mathématique au moyen des données. Une excellente maîtrise de Python et de SQL est en outre nécessaire. Des compétences de type "soft skills" seront également incontournables, comme la gestion de projet, une écoute de qualité avec les interlocuteurs métier ainsi qu'une bonne communication, et un goût de la collaboration et le partage des connaissances, notamment avec les autres data scientists et les équipes techniques et opérationnelles (MLE, MLOPS, OPS).
Freelance
CDI

Offre d'emploi
Data Domain Lead (H/F)

RIDCHA DATA
Publiée le
Data visualisation
Microsoft Fabric
PowerBI

1 an
Paris, France
Nous recherchons un Data Domain Lead expérimenté pour accompagner des projets de transformation data au sein d’une organisation de grande envergure et à dimension internationale. La mission consiste à concevoir et déployer des cas d’usage data et reporting de bout en bout , à accompagner les entités métiers dans leurs initiatives d’ automatisation , et à jouer un rôle clé dans la montée en maturité data des équipes. Responsabilités principales Définir et porter la vision et la roadmap des produits data , en tant que point de contact principal entre les équipes métiers et data. Concevoir et mettre en œuvre des domaines data et solutions analytiques , depuis les pipelines d’acquisition jusqu’aux tableaux de bord et reportings orientés métier. Construire et maintenir des modèles de données sémantiques , des datamarts et des solutions de reporting via Microsoft Fabric et Power BI . Recueillir et traduire les besoins métiers en vision produit, epics et user stories fonctionnelles , et piloter la priorisation du backlog selon la valeur et le ROI. Analyser les données afin de produire des insights actionnables à travers des dashboards et data products destinés aux fonctions corporate et aux entités métiers. Identifier, structurer et piloter des cas d’usage analytiques , accompagner les citizen data analysts et promouvoir la culture data. Contribuer aux sujets de gouvernance data , de standards et de Master Data Management. Accompagner le change management , la data literacy et l’animation de communautés data.
Freelance

Mission freelance
Data Engineer Azure Data Factory - CosmosDB

Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps

12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
CDI
CDD

Offre d'emploi
Ingénieur Réseaux Datacenter – Expertise Routing/Switching

RIDCHA DATA
Publiée le
BGP (Border Gateway Protocol)
Cisco ACI
DataCenter Infrastructure Management (DCIM)

2 ans
Paris, France
🎯 Objectif global Accompagner le développement, l’évolution et le maintien en conditions opérationnelles des infrastructures réseaux en datacenter . 📝 Description de la mission Le consultant interviendra au sein de l’équipe Réseau Datacenter pour gérer la conception, l’ingénierie, le déploiement et l’exploitation des architectures réseaux critiques. Missions principales 🔹 BUILD – Ingénierie & Projets Participer aux études d’évolution des infrastructures LAN/MAN. Réaliser l’installation, le paramétrage et la validation des plates-formes techniques. Coordonner, si nécessaire, les différents intervenants techniques. Intervenir sur la qualification des infrastructures avant la mise en production. Gérer les évolutions et le design des architectures réseaux. 🔹 RUN – Exploitation & MCO Garantir le bon fonctionnement des infrastructures (N2/N3). Assurer la disponibilité des ressources réseaux en lien avec les opérateurs télécom. Analyser et corriger les incidents réseaux complexes. Contribuer au capacity planning et aux diagnostics de performance. Maintenir les infrastructures dans des conditions optimales (qualité, sécurité, productivité). 🔹 Contexte technique Infrastructures Datacenter modernes (fabrics, automation). Environnements multi-métiers variés. Automatisation avancée (Ansible, JSON, etc.). Déplacements occasionnels (France/international). Astreintes + interventions soir/week-end possibles. 🛠️ Compétences techniques requises ⭐ Impératives Routage : BGP, OSPF, MP-BGP – Niveau Expert Arista EVPN ou Cisco ACI – Niveau Expert Architecture réseau datacenter – Niveau Expert ⭐ Importantes Expertise Switching avancée Gestion de projet technique Scripting & automatisation appréciés (Ansible, JSON, etc.) 🌍 Langues Anglais Professionnel – Impératif
CDI

Offre d'emploi
Data Engineer Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance
CDI

Offre d'emploi
Architecte de domaine DATA (H/F)

LOMEGARD
Publiée le
Data governance
TOGAF

3 ans
40k-45k €
400-650 €
Pays de la Loire, France
Dans le cadre d’une activité d’architecture de domaine, nous recherchons un(e) Architecte de domaine DATA pour intervenir au sein d’une équipe d’architectes fonctionnels d’envergure nationale (environ une vingtaine de personnes), répartie sur plusieurs sites en France. La mission s’inscrit dans un contexte de transformation des systèmes d’information , au sein d’un grand groupe du secteur assurance / services , avec des enjeux forts autour de la gouvernance des données et des architectures Data . En tant qu’ Architecte de domaine DATA , vous interviendrez comme référent architecture auprès du domaine DATA et serez notamment en charge de : Être l’interlocuteur(trice) architecte du domaine DATA pour accompagner sa transformation Accompagner les projets du domaine dès les phases d’études de faisabilité Proposer et comparer des scénarios d’architecture IT Contribuer à la connaissance du domaine via la modélisation et la cartographie Garantir la qualité et la cohérence des référentiels d’architecture Dans le cadre des accompagnements études / projets, vous serez amené(e) à : Réaliser des travaux de modélisation sur les différents plans d’architecture : Métier Fonctionnel Applicatif Technique Rédiger des dossiers d’architecture permettant d’éclairer les choix Présenter ces dossiers en comités d’architecture Décliner l’architecture retenue en phase projet, en coordination avec : Les équipes métiers Les autres domaines IT La sécurité L’intégration en production Dans votre rôle transverse, vous assurerez également : La production et la mise à jour des cartographies d’architecture du domaine DATA La qualité et la conformité de la documentation dans les référentiels d’entreprise
CDI

Offre d'emploi
Data Engineer Python - Dax

KOMEET TECHNOLOGIES
Publiée le
Databricks

45k-50k €
Occitanie, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
Data Steward / Référent Gouvernance de la Donnée

ESENCA
Publiée le
Data governance
Data quality
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
🎯 Objectif global Accompagner les équipes produits dans l’exposition, la qualité et la gouvernance de leurs données , afin de garantir des données fiables, cohérentes et conformes aux standards définis. 🧩 Contexte et contraintes Enjeux forts de gouvernance et de qualité des données Nécessité d’une modélisation rigoureuse des données Collaboration transverse avec des équipes data et produits digitaux 📦 Livrables attendus Données exposées conformément aux règles de gouvernance définies Règles de qualité des données déployées et opérationnelles Évaluations régulières du respect des règles de gouvernance de la donnée 🛠️ Description de la mission Au sein d’une équipe data transverse, le Data Steward joue un rôle clé dans l’accompagnement des équipes produits digitaux afin d’assurer une gestion structurée, maîtrisée et cohérente des données tout au long de leur cycle de vie. 🎯 Missions principales Accompagner les équipes produits dans l’exposition de leurs données, en garantissant le respect des règles de gouvernance de données établies Contribuer à la définition, à la formalisation et au déploiement des règles de qualité des données Garantir la certification des données exposées , selon les standards et référentiels en vigueur Évaluer le niveau de conformité des données aux règles de gouvernance Participer à l’amélioration continue des pratiques de gouvernance de la donnée, en coordination avec les autres référents data Sensibiliser et acculturer les équipes aux enjeux de qualité, traçabilité et fiabilité des données 🧠 Compétences techniques requises Confirmé – Impératif Gouvernance de données Qualité des données Confirmé – Important Modélisation de données Confirmé – Souhaitable Environnements Cloud (GCP) Outils de visualisation et reporting (Power BI) 🌍 Compétences linguistiques Français courant – Impératif Anglais professionnel – Secondaire 🤝 Compétences transverses Capacité d’accompagnement et de pédagogie Sens de la rigueur et de la qualité Esprit de collaboration et travail transverse Capacité d’analyse et de synthèse Orientation amélioration continue
Freelance
CDI

Offre d'emploi
Architecte Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
2321 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous