Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 683 résultats.
CDI

Offre d'emploi
INGÉNIEUR SYSOPS / RUN DATA GCP - H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

45k-50k €
Montigny-le-Bretonneux, Île-de-France
Missions Dans le cadre de vos fonctions, vous serez amené(e) à intervenir sur une plateforme DATA critique, en assurant son bon fonctionnement et son amélioration continue. À ce titre, vous allez être amené(e) à : • Assurer le RUN et l'exploitation d'une plateforme DATA critique, en garantissant sa disponibilité, sa performance et sa stabilité au quotidien. • Analyser et résoudre les incidents liés aux traitements et aux pipelines de données, en identifiant rapidement les causes et en mettant en place des actions correctives adaptées. • Améliorer la supervision existante et contribuer à la fiabilisation du RUN, notamment via la mise en place d'outils de monitoring, d'alerting et de bonnes pratiques d'exploitation. • Participer aux tests et au déploiement des évolutions techniques, en veillant à la qualité, à la non-régression et à l'intégration fluide dans l'environnement existant. • Documenter les incidents et capitaliser sur les retours d'expérience, afin d'améliorer en continu les processus, les procédures et la connaissance globale de la plateforme. • Collaborer étroitement avec les équipes DATA et applicatives, en favorisant la communication, le partage d'information et la résolution transverse des problématiques. Référence de l'offre : kcd9qi161r
CDI

Offre d'emploi
ALTERNANCE - Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Python
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DATA ANALYST ASSET MANAGEMENT REFERENTIEL (NEOXAM)

PARTECK INGENIERIE
Publiée le
Data quality
Python
SQL

12 mois
400-550 €
75000, Paris, Île-de-France
Contexte Dans le cadre d’une stratégie Data, mise en place d’un système MDM (Master Data Management) basé sur une Data Platform pour centraliser et exposer les référentiels via APIs. Mission Intégré à l’équipe Data Referential, le Data Analyst intervient en lien avec les équipes Data & Analytics pour : Recueillir et formaliser les besoins métiers Rédiger user stories, critères de tests Réaliser des analyses de données et scripts ponctuels (SQL/Python) Concevoir et faire évoluer des datasets référentiels Contribuer à la qualité des données et à la modélisation Participer aux sujets de data catalog & metadata Documenter et accompagner la mise en production Environnement MDM (Neoxam DataHub), Data Platform Données utilisées pour : ESG, reporting, finance, front office Contexte international avec projets de migration Profil Data Analyst (3–6 ans d’expérience) SQL requis, Python apprécié Bonne maîtrise data modeling / data quality Capacité à faire le lien entre métier et technique Conditions Localisation : Paris Télétravail : jusqu’à 3 jours/semaine Durée : ~12 mois (2026–2027)
Freelance
CDD

Offre d'emploi
QA Data (H/F)

SMARTPOINT
Publiée le
Databricks
JIRA
Microsoft Power BI

3 ans
40k-45k €
400-450 €
Île-de-France, France
Nous recherchons un(e) QA Data (H/F) pour rejoindre la squad Équipement de la Maison , rattaché(e) au Pôle Qualité Data . Vous évoluerez dans un environnement agile et structuré , rythmé par : Des rituels agiles cadrés et trimestriels Des cycles de réalisation de 3 semaines (Sprint Planning, Affinage, Sprint Review, Daily Meeting) Une culture d'équipe basée sur l'entraide et l'autonomie Pilotage de la qualité Définir et réaliser la stratégie de test adaptée au contexte Data Analyser et évaluer les cas d'usage et User Stories Rédiger les plans de test , identifier les prérequis et spécifier les jeux de données Identifier et réceptionner les environnements de test Maintenir et faire évoluer le référentiel de test Exécution & suivi Exécuter les cas de tests fonctionnels Réaliser des tests d'intégration 2 à 2 , des tests end-to-end et des tests de surface dans un contexte Data Créer et assurer le suivi des défauts avec les différentes parties prenantes Rédiger les Procès-Verbaux de recette Présenter les sujets en CAB (Change Advisory Board) pour le passage en production Collaboration & amélioration continue Participer activement aux ateliers et rituels agiles Contribuer à l' amélioration continue des pratiques et process qualité Être force de proposition pour gagner en efficacité et en qualité
CDI

Offre d'emploi
Consultant Senior Data Catalog Collibra (H/F)

ASTRELYA
Publiée le
Collibra
Data governance
IA

92800, Puteaux, Île-de-France
Votre mission : En tant que Consultant Data Catalog spécialisé Collibra, vous accompagnerez nos clients dans la structuration, l’opérationnalisation et la gouvernance de leur Data Catalog. Vous interviendrez sur des projets stratégiques visant à renforcer la maîtrise, la qualité et la valorisation des données, en vous appuyant sur les capacités avancées de Collibra Data Intelligence Platform. Votre rôle sera clé pour aider les organisations à déployer un Data Catalog robuste, gouverné, adopté et aligné avec les enjeux Data & IA Concrètement, vous allez : 1. Structurer & Opérationnaliser le Data Catalog · Définir la stratégie Data Catalog et accompagner les clients dans leur transformation Data Governance. · Paramétrer Collibra : communautés, domaines, rôles, workflows, policies, règles de qualité, operating model. · Concevoir et adapter le métamodèle Collibra : Data Domains, Data Sets, Data Elements, Data Owners, Stewards, modèles IA, indicateurs de qualité… · Mettre en place les connecteurs d’ingestion (Collibra Connect, Collibra Data Quality, ingestion automatisée). · Modéliser les objets métiers et assurer leur documentation dans Collibra. · Déployer les workflows de gouvernance (validation, certification, demandes d’accès, gestion des changements). 2. Assurer la valorisation & l’adoption du Data Catalog · Définir et déployer les cadres de Data & AI Governance. · Structurer les Data Domains, Data Objects, Data Contracts, glossaires métier et usages IA. · Accompagner les Data Owners, Stewards et équipes IT dans la prise en main de Collibra. · Concevoir des parcours d’acculturation : formations, vidéos, kits, communautés Data, webinaires. · Promouvoir les bonnes pratiques d’usage et faire évoluer la culture Data. Votre futur environnement de travail : · Data Catalog : Collibra (Data Governance, Data Quality, Lineage, Workflow, Operating Model). · Outils de documentation & IA Responsable : Model Cards, risk matrices, AI Act traceability. · Outils collaboratifs : Notion, Miro.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure Sénior

VISIAN
Publiée le
Azure Data Factory
Azure DevOps
Python

1 an
Paris, France
Contexte La Direction des Systèmes d’Information recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données. Missions Mener les projets d’intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger (Anglais) pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l’entreprise
CDI

Offre d'emploi
Consultant(e) Senior Data Analyst - Luxe & Retail (GCP / BigQuery) F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
BigQuery
SQL

Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Architecte Big data sur le Havre

EterniTech
Publiée le
Big Data
Data Lake
Data science

3 mois
Le Havre, Normandie
Je cherche pour un de mes client un Architecte Big data sur le Havre Missions principales : Conception, mise en place et évolution d’architectures data modernes (Data Lakes, Data Warehouses) adaptées aux enjeux métiers et aux volumes de données. Développement et industrialisation de pipelines de données (ingestion, transformation, orchestration) dans des environnements Big Data. Intégration et valorisation des données pour alimenter des cas d’usage avancés, notamment en data science et intelligence artificielle. Développement de modèles analytiques et algorithmes de data science en réponse aux problématiques métiers. Création de tableaux de bord et reporting décisionnel via des outils BI tels que Qlik et Microsoft Power BI. Mise en œuvre et optimisation de moteurs de recherche et d’indexation avancée basés sur Elasticsearch (expertise clé). Gestion, enrichissement et évolution du catalogue de données (data catalog) afin de garantir la gouvernance et la qualité des données. Activités transverses : Analyse des systèmes existants et animation d’ateliers avec les parties prenantes pour cadrer les besoins. Définition des standards techniques, bonnes pratiques et architectures cibles. Dimensionnement, chiffrage et cadrage des solutions data. Accompagnement des équipes projet dans la mise en œuvre des solutions et suivi opérationnel. Transfert de compétences et montée en autonomie des équipes internes. Rédaction de documentation technique, cahiers des charges et rapports d’études. Réalisation d’audits techniques et amélioration continue des processus data. Veille technologique et conseil stratégique sur les outils et architectures data. Environnement technique : Big Data, Data Lake, Data Warehouse, ETL/ELT, Elasticsearch, Qlik, Power BI, Data Catalog, IA / Data Science.
Freelance
CDI
CDD

Offre d'emploi
Lead Tech / CDP Full Stack — .NET Core 10 • Vue.js • Microservices • Kubernetes • Dapr

Craftman data
Publiée le
Azure DevOps
Microsoft SQL Server

12 mois
40k-45k €
400-650 €
Le Havre, Normandie
Notre client engage la modernisation complète de son SI, du legacy .NET Framework / BizTalk / SQL Server vers une architecture cloud-native micro-services (.NET Core 10, Kubernetes, Dapr, PostgreSQL, Vue.js). Nous cherchons LE Lead Tech qui sait à la fois architecturer, coder et embarquer une équipe. Hands-on à 30-50 %, vous êtes la pierre angulaire entre les architectes, les développeurs et le Directeur de Programme. La mission Vous prenez le lead technique full stack des chantiers de transformation applicative. Vous animez les équipes au quotidien en contexte agile, suivez l'avancement dans Azure DevOps, contribuez activement au code (30 % à 50 % du temps) et portez les décisions techniques back & front. Vous êtes rattaché au Directeur de Programme et travaillez en binôme étroit avec l'équipe architecture. Le contexte technique Modernisation du SI vers une architecture cloud-native micro-services : Stack actuelle .NET Framework, App Services Azure, SQL Server, BizTalk, Windows, Vue.js Stack cible .NET Core 10, Kubernetes, Docker / Podman, Linux, PostgreSQL, Dapr, Vue.js Vos terrains de jeu1. Lead .NET microservices • Définir, challenger et implémenter les architectures (clean / hexagonale) avec les architectes • Trancher les décisions techniques back & front et débloquer les sujets complexes • Contribuer au développement .NET Core 10+ et Vue.js, orienté micro-services (K8s, Dapr) • Relire le code, faire du pair programming, animer les revues techniques 2. Pilotage technique & agilité • Animer les rituels agiles (daily, sprint planning, refinement, rétros) avec pragmatisme • Suivre l'avancement dans Azure DevOps (backlog, sprints, bugs) • Lever les blocages des développeurs et sécuriser les engagements de sprint • Maintenir une visibilité claire sur l'avancement technique full stack 3. Collaboration avec l'architecture • Aligner les implémentations full stack sur la vision globale portée par les architectes • Participer aux ateliers d'architecture back / front et aux arbitrages techniques • Garantir l'application des patterns et standards architecturaux • Faire le lien entre les décisions d'architecture et leur mise en œuvre opérationnelle 4. Delivery & industrialisation CI/CD • Contribuer à la mise en place des pipelines CI/CD avec les DevOps • Superviser les déploiements et la qualité des livrables • Capitaliser sur les patterns réutilisables (microservices + UI Vue.js, Dapr)
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
Freelance

Mission freelance
Architecte Sécurité Cloud & Données (H/F)

HOXTON PARTNERS
Publiée le
Data Lake
Databricks
IAM

6 mois
650-810 €
Boulogne-Billancourt, Île-de-France
Nous recherchons un Architecte Sécurité Cloud & Données pour l’un de nos clients dans le cadre d’un programme de transformation numérique à dimension internationale. La mission s’inscrit dans la sécurisation des environnements cloud et des plateformes data au sein d’un écosystème en forte évolution. Missions principales : Concevoir des architectures sécurisées pour les environnements cloud et data (Azure et environnements hybrides) Réaliser des évaluations de sécurité sur les services et architectures data et proposer des recommandations Définir les exigences de sécurité pour les projets cloud (identité, intégration, plateformes data/IA) Mettre en place les politiques, standards et bonnes pratiques de sécurité des données Piloter des initiatives de sécurité (choix de solutions, cadrage, mise en œuvre) Accompagner les équipes dans le déploiement sécurisé des workloads et la gestion des risques
Freelance

Mission freelance
Développeur Python Senior | RESIM ADAS | Environnement Cloud & HPC

RIDCHA DATA
Publiée le
Bash
Calcul hautes performances (HPC)
DevOps

1 an
Boulogne-Billancourt, Île-de-France
Nous recherchons un Développeur Python Senior pour intervenir sur une plateforme stratégique de re-simulation ADAS, au cœur des enjeux de validation des projets véhicules. Cette plateforme s’appuie sur des infrastructures cloud pour exécuter des chaînes complexes de simulation, intégrant : • des traitements batch intensifs (CPU / GPU) • des workflows majoritairement développés en Python • des environnements cloud • de fortes exigences en robustesse, performance, traçabilité et automatisation Le projet est critique pour le respect des jalons véhicules et s’inscrit dans une démarche d’amélioration continue des capacités de simulation. 🎯 Votre mission En lien direct avec les équipes de développement et les référents techniques, vous serez en charge de : • Développer, maintenir et optimiser les scripts Python des chaînes de simulation • Améliorer la robustesse, la lisibilité et la maintenabilité du code existant • Optimiser les performances des traitements et l’utilisation des ressources IT (CPU, RAM, GPU, stockage, réseau) • Industrialiser et automatiser les workflows techniques • Contribuer à l’analyse et à la résolution d’incidents complexes • Participer aux choix techniques et aux architectures logicielles • Mettre en place les bonnes pratiques de développement (tests, qualité, logging, sécurisation) • Participer aux rituels Agile du projet 📦 Livrables attendus • Code Python documenté et conforme aux standards projet • Scripts et outils d’automatisation opérationnels • Documentation technique (conception, usage, intégration) • Rapports d’optimisation de performance si nécessaire • Bilans des tests unitaires et d’intégration réalisés
CDI

Offre d'emploi
Senior Data Scientist / ML Engineer (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Elasticsearch
Git

53k-59k €
Rennes, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Manager / Data Steward

INFOGENE
Publiée le
Data management
Data quality

Malakoff, Île-de-France
Contexte Dans le cadre du renforcement de la gouvernance des données au sein d’un grand groupe industriel, nous recherchons un(e) Data Manager / Data Steward expérimenté(e), avec une forte sensibilité aux environnements métiers industriels et ERP. Missions principales Piloter la qualité des données (data quality management) Mettre en place et maintenir des référentiels de données fiables Réaliser la cartographie des données et des processus métiers Travailler en étroite collaboration avec les équipes métiers pour comprendre et structurer les flux de données Définir et suivre les indicateurs de qualité de données (KPIs) Participer à la gouvernance des données (data governance) Contribuer à l’amélioration continue des processus liés aux données dans les systèmes ERP Environnements métiers Vous interviendrez sur des domaines variés, notamment : Logistique Approvisionnement Achats Bâtiment / infrastructures Machines / production industrielle Compétences requises Expérience confirmée en Data Management / Data Stewardship Maîtrise des problématiques de qualité de données Expérience en cartographie des processus métiers Bonne connaissance des systèmes ERP (SAP ou équivalent) Capacité à interagir avec des interlocuteurs métiers variés Esprit analytique, rigueur et sens de l’organisation
CDI

Offre d'emploi
Chargé d'Études Actuarielles - Data Scientist H/F

█ █ █ █ █ █ █
Publiée le

Nanterre, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Quality Analyst – VBA & Reconciliation

PARTECK INGENIERIE
Publiée le
Data quality
VBA

12 mois
400-500 €
Paris, France
Dans le cadre d’un programme de transformation KYC d’un grand groupe bancaire, intervention au sein d’une équipe Data Quality en charge de la fiabilité, réconciliation et migration des données entre systèmes legacy et plateforme cible. Rôle hybride 50% développement / 50% production : maintenance et évolution de scripts VBA pilotage des réconciliations de données et des traitements de remédiation (bulk) garantie de la continuité des flux vers des équipes internationales administration et migration SharePoint Online Intervention dans un environnement critique nécessitant rigueur, organisation et réactivité , avec respect des SLA et gestion de flux en continu. Stack principale : VBA, SQL, PowerShell, SharePoint (+ outils de ticketing et reporting). Objectif : assurer la continuité opérationnelle , sécuriser les flux de données et accompagner la migration vers les systèmes cibles jusqu’au décommissionnement des legacy. Profil : expérience confirmée en VBA / data processing , bonne capacité d’analyse, gestion multi-sujets et anglais professionnel.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5683 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous