Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 075 résultats.
CDI
Freelance

Offre d'emploi
Architecte Data / CMDB Snow (ServiceNow)

OBJECTWARE
Publiée le
Master Data Management (MDM)
ServiceNow

3 ans
45k-95k €
540-700 €
Île-de-France, France
Prestations demandées Les Missions principales sont : -Conception et optimisation du data model des référentiels IT techniques (CIs et métadonnées) -Définition des règles d’identification et de réconciliation (IRE) au sein de ServiceNow -Spécification des sources de vérité et cartographier les flux d’alimentation des référentiels -Déploiement des stratégies de data quality : déduplication, fiabilité, couverture, obsolescence -Application des principes de Master Data Management au contexte de la CMDB -Mise en place une gouvernance claire, documentée et partageable -Collaboration étroite avec les équipes ITSM, Discovery, MDM, sécurité et infrastructure -Accompagnement des équipes en charge des découvertes et des inventaires techniques -Production de la documentation d’architecture, standards, bonnes pratiques et processus -Développement des produits de données permettant de répondre aux besoins de reporting et d'audit
Freelance
CDI

Offre d'emploi
Senior IT Production Data Analyst / Incident Manager

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Contexte de la mission : Dans le cadre de l’évolution de la Group Control Tower , nous recherchons un Senior IT Production Data Analyst / Incident Manager afin d’accompagner l’exploitation et la valorisation des différents modules de la plateforme. Le consultant interviendra en étroite collaboration avec les Product Owners et les équipes techniques (Réseaux, Sécurité, Flux, Développement) afin d’analyser les données de production, améliorer les performances des environnements et identifier des leviers d’optimisation basés sur l’analyse des données. Missions principales :Analyse et optimisation des environnements de production Recommander des axes d'amélioration dans l’exploitation et la valorisation des modules de la Group Control Tower Analyser les données techniques de production afin d’identifier des leviers d’optimisation Produire des analyses et dashboards permettant d’améliorer la performance des environnements Travailler avec les Product Owners afin d'améliorer l'utilisation et la performance du produit Gestion des incidents et support opérationnel : Piloter la gestion des incidents de production Assurer le suivi du cycle de vie des incidents jusqu’au rétablissement du service Coordonner les actions avec les équipes techniques (Réseaux, Sécurité, Flux, Développement) Analyser les causes racines et proposer des plans d'amélioration Gestion des changements et support aux équipes : Garantir la bonne exécution des changements en production Assurer le suivi, le reporting et la communication autour des changements Contrôler les environnements et les changements de version Intervenir en support des équipes de développement Communication et coordination : Assurer la communication auprès des Product Owners et de la hiérarchie Participer aux cérémonies Agile Produire les reportings et tableaux de bord de suivi Environnement technique Microsoft O365 SQL Outils BI / Analytics ServiceNow Dynatrace (apprécié) Outils de monitoring et d'analyse de production Analyse de données techniques de production Statistiques appliquées aux environnements IT
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
CDI

Offre d'emploi
Coordinateur Système/réseau N3 - CDI H/F

GROUPE ARTEMYS
Publiée le
Citrix

75010, Paris, Île-de-France
Qui sommes-nous ? On est une ESN spécialisée dans le domaine des infrastructures à taille humaine, avec plus de 30 ans d’histoire. Mais ce qui fait notre vraie différence ? On ne se contente pas de dire qu’on valorise nos collaborateurs, on le prouve au quotidien. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. 📍 Le terrain de jeu ? Notre siège est situé au cœur du dynamique 10e arrondissement de Paris, mais nous recherchons actuellement pour l’un de nos clients grand compte situé en région parisienne Sud (92) Dans le cadre d’un contrat d’infogérance, et sous la responsabilité du Service Delivery Manager, vous intervenez comme coordinateur sur les périmètres Systèmes & Réseaux. Vous êtes à la fois : un pilier technique N3 un chef d’orchestre opérationnel un point d’appui pour les équipes et le client Votre mission (si vous l’acceptez) : Coordination & pilotage opérationnel Coordonner et prioriser l’activité des équipes techniques (systèmes, réseaux, support) Gérer les plannings afin d’assurer une activité 24/7 (avec astreintes) Être garant du respect des engagements de service (SLA) Organiser et animer les comités techniques (COTECH) et comités de pilotage (COPIL) Assurer le reporting opérationnel auprès du client et en interne Participer à la mise en place et à l’amélioration des processus RUN / MCO – Niveaux 2 & 3 Assurer le MCO/MCS des infrastructures systèmes, virtualisation et réseau Prendre en charge les incidents complexes N3 Contribuer à la gestion des problèmes et au plan d’amélioration continue Piloter les opérations de maintenance cadrage & préparation Identification et gestion des risques Expertise technique & support Intervenir en support technique N3 auprès des équipes Être force de proposition pour améliorer la résilience, la performance et la sécurité des infrastructures Contribuer aux projets BUILD en parallèle du RUN L’environnement technique : Un environnement riche, hybride et multi-sites : Systèmes, virtualisation & cloud Hyperconvergence : HPE Simplivity, Dell VxRail Virtualisation : VMware vSphere, Hyper-V Citrix : Citrix Cloud, DaaS, WEM Cloud : Microsoft Azure, Exchange Online, Azure ADDS Stockage : HPE Nimble, Huawei OceanStor Sauvegarde : Veeam Backup & Replication Supervision : WhatsUp Gold Load Balancing : Barracuda ADC Sécurité & IAM Wallix Bastion & Access Manager PKI : Sectigo, AD CS Réseau Infrastructures Cisco (Nexus 9000, UCS, ACI) Firewalls : Palo Alto, Fortinet, Stormshield Wi-Fi : Ruckus VPN, routage, segmentation réseau, sécurisation des flux Vous, notre perle rare : 8 ans d’expérience minimum en infrastructures complexes . Une première expérience de coordination ou de management technique (pilotage d’équipe, animation de réunions, suivi opérationnel). Une expertise confirmée en VMware, Citrix, stockage SAN/NAS et compétences solides sur les environnements réseau Cisco, firewalls, VPN et ACI. Capacité à gérer simultanément du RUN (incidents N3) et du BUILD (projets techniques) . Des qualités humaines fortes : rigueur, adaptabilité, sens de la communication. Anglais conversationnel apprécié. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 58 000 - 62 000 € (Selon votre expertise) Une prime annuelle de mission , versée en reconnaissance de votre rôle clé dans la coordination technique des équipes et la bonne conduite opérationnelle des projets. Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
CDI

Offre d'emploi
HR DATA ANALYST F/H - Administration des RH (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Issy-les-Moulineaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD

Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud

5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Freelance
CDI

Offre d'emploi
Data Engineer GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Pour le compte de l’un de nos clients basé à Paris, nous recherchons un Data Architect (Secteur de Luxe) afin d’intervenir sur une mission stratégique autour de l’architecture et de la valorisation des données. Missions: Concevoir et mettre en œuvre des solutions de données de bout en bout dans Azure Fabric (Lakehouse, Data Warehouse, modèles sémantiques). Intégration avec Power BI et modèles d'évolutivité. Définir les zones/hiérarchie de données (couches Bronze, Argent, Or). Établir des cadres de gouvernance des données. Modélisation des données et conception de pipelines ETL/ELT. Définir la logique de transformation et les règles métier. Gérez les charges incrémentielles, les dimensions et les contrôles de qualité. Optimisez les performances des requêtes et l’efficacité du stockage. (Outils : SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Expertise en développement Python et SQL : rédigez des scripts Python efficaces (PySpark) pour la transformation des données dans Fabric Notebooks. SQL pour les requêtes complexes, les agrégations et l'optimisation des performances. Développer des bibliothèques de code et des fonctions réutilisables. Gérer la validation de la qualité des données et la gestion des erreurs. Représentation du fata dans la propriété finale du tableau de bord. Gestion du pipeline CI/CD et du contrôle de version GitHub : mettre en œuvre des flux de travail CI/CD pour le déploiement de produits de données. Gestion des référentiels de codes, stratégies de branchement. Suivre les modifications et maintenir des pistes d'audit. Outils : GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, règles de protection des branches. Gouvernance des données, sécurité et contrôle d'accès basé sur les rôles (RBAC) : définissez des politiques de gouvernance pour le traçage des données, la gestion des métadonnées et les normes de qualité des données. Implémentez le contrôle d’accès basé sur les rôles (RBAC) pour les espaces de travail et les ensembles de données Fabric. Configurez la sécurité au niveau de l’espace de travail, de l’ensemble de données et des lignes. Établir des schémas de classification des données.Outils : Azure Fabric RBAC, Azure AD/Entra ID, Purview (gouvernance des métadonnées), rôles d'espace de travail Fabric, Power BI RLS (Row-Level Security). Cartographie des données E2E et définition des KPI : Documentez le lignage complet des données depuis les systèmes sources (D365, bases de données héritées) jusqu'aux magasins de données finaux. Créez des documents de cartographie détaillés (champs sources → colonnes cibles). Définissez la logique métier et les règles de transformation à chaque couche. Identifier et définir des KPI alignés avec les objectifs business. Établir la logique de calcul, les seuils et le suivi des KPI. Créez des dictionnaires de données et des glossaires métier. Outils : Confluence (documentation), Visio/Lucidchart (diagrammes de flux de données), Excel (matrices de cartographie), Power BI (tableaux de bord KPI). Documentation du cadre, normes et composants de ressources : établir des normes d'architecture de données et une documentation sur les meilleures pratiques. Conventions de dénomination, structures de dossiers, modèles de conception. Créez des modèles pour les blocs-notes, les scripts SQL et les fichiers de configuration. Définir les règles de qualité des données et les cadres de validation. Documenter les procédures de déploiement, les guides de dépannage et les runbooks. Tenir à jour les enregistrements de décisions d'architecture (ADR). Fournir des guides d'intégration pour les nouveaux membres de l'équipe. Profil : Data Architect Nombre d’années d’expérience : +7 ans Site : Paris ; sur site Prix d’achat max : 1200 euros Date de démarrage : asap Date de fin : 31/12/2026 Compétences techniques requises : Microsoft Azure Microsoft Azure Service Fabric Azure DevOps Pipelines SQL PySpark Git CLI, GitHub Power BI RLS
CDI

Offre d'emploi
Ingénieur Réseaux Sénior H/F

SEA TPI
Publiée le

50k-55k €
Marignane, Provence-Alpes-Côte d'Azur
Intervenez au sein d'une infrastructure stratégique du sud de la France, où performance technologique et continuité de service sont essentielles pour assurer le bon fonctionnement d'un site accueillant plusieurs millions de passagers par an. Dans ce contexte exigeant, nous recherchons un Ingénieur Réseaux senior disposant également de solides compétences en Systèmes, capable d'intervenir sur des environnements techniques complexes, de garantir la fiabilité des infrastructures et de contribuer à l'évolution des systèmes d'information. • Conception et évolution des architectures réseau et sécurité : analyser les besoins, proposer des solutions adaptées et faire évoluer les infrastructures existantes. • Gestion des incidents majeurs de sécurité : identifier, résoudre et documenter les incidents critiques impactant les réseaux et la sécurité. • Définition et mise en œuvre des politiques de sécurité réseau : élaborer des règles et standards garantissant la protection des infrastructures et des données. • Architecture et gestion des infrastructures LAN, Wi-Fi et SD-WAN multi-sites : assurer la performance, la disponibilité et la résilience des réseaux sur l'ensemble des sites. • Optimisation des performances et de la disponibilité réseau : analyser les flux, identifier les goulots d'étranglement et proposer des améliorations continues. • Conception et déploiement des architectures VPN site-à-site et pour utilisateurs nomades : garantir l'accès sécurisé aux ressources de l'entreprise. • Architecture et optimisation des load balancers F5 : assurer l'équilibrage de charge, la haute disponibilité et la performance des applications critiques. • Audit, conformité et durcissement des infrastructures réseau : mettre en place des contrôles et recommandations pour renforcer la sécurité et répondre aux normes en vigueur. • Intégration avec les outils de supervision et de sécurité : connecter les infrastructures réseau aux systèmes de monitoring et d'alerte pour anticiper les incidents. • Définition des standards et procédures RUN réseau et sécurité : rédiger et maintenir les bonnes pratiques opérationnelles et procédures pour l'exploitation quotidienne Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : c9op6k0u5i
CDI
Freelance

Offre d'emploi
Analyste Data

CAT-AMANIA
Publiée le
Big Data
Microsoft Power BI
PySpark

2 ans
40k-48k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Analyste Data pour intégrer l’équipe Analyse de la Donnée. Rattaché à l’équipe, vous serez en charge de mettre en œuvre des cas d’usage métier via le croisement de données, développer et maintenir des produits DATA réutilisables, et restituer vos analyses à travers des dashboards et dataviz. Vous accompagnerez également les équipes métiers dans l’acculturation DATA tout en respectant les normes et bonnes pratiques de l’équipe. Maîtrise de Python, PySpark, SQL , expérience sur Big Data Hadoop (Cloudera) et compétences en Power BI sont requises, ainsi qu’une solide expertise en data science et analyse de données.
Freelance
CDI

Offre d'emploi
Data Scientist

VISIAN
Publiée le
AWS Cloud
Deep Learning
FastAPI

1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe du client travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets CND. Soft skills Votre esprit est rigoureux, créatif et méticuleux. Vous avez un bon esprit critique, ainsi que de bonnes capacités d'analyse des résultats et de prise de recul. Vous avez une bonne capacité à travailler en équipe, et de bonnes compétences en communication. Vous êtes pragmatique, et orienté résultat.
CDI

Offre d'emploi
Ingénieur Sécurité & Réseau H/F

UMANTIC
Publiée le

50k-60k €
Clichy, Île-de-France
# Ingénieur Sécurité & Réseau H/F ## ? Notre client Groupe centenaire et familial, leader en France dans la lingerie et la mode, notre client fédère plusieurs marques à travers un réseau de plus de 1 400 magasins dans 57 pays. * * * ## ? Votre rôle Rattaché au responsable de la cellule Système & Réseau, vous êtes à la fois référent technique et leader opérationnel. * * * ## ? Missions principales 1\. Leadership technique de l'équipe réseau * Accompagner la montée en compétences de l'équipe * Organiser la charge, répartir les tâches et prioriser les incidents et projets * Animer les réunions techniques hebdomadaires * Assurer le rôle d'escalade L3 sur les incidents majeurs 2\. Architecture & conception réseau/sécurité * Concevoir, adapter et dimensionner les composants réseau et sécurité * Élaborer une roadmap technologique d'évolution de l'architecture * Conduire la refonte des éléments réseau de l'entreprise * Intégrer les outils de cyberdéfense face aux nouvelles menaces * Mettre en place les interconnexions et garantir la compatibilité des réseaux * Assurer les audits, la veille technologique et les benchmarks * Superviser l'ensemble des équipements et maintenir la documentation d'exploitation 3\. Gestion de projets d'intégration * Mettre en oeuvre les choix techniques et réaliser les analyses d'impact (matériels & logiciels) * Garantir la bonne installation, l'administration et la maintenance des composants réseau/sécurité * Apporter l'expertise technique lors du lancement de projets transverses DSI 4\. Support & gestion des incidents Intervenir en tant qu'expert N2 infrastructure et N3 global magasin Détecter les menaces potentielles et appliquer les contre-mesures nécessaires Auditer les réseaux lors de dysfonctionnements Partager les bonnes pratiques avec les équipes réseau et système Maintenir à jour les tableaux de bord et rapport Environnement technique Firewalls Checkpoint · Fortinet · Palo AltoRéseauCisco (Nexus, Catalyst, Meraki) · HPE · protocoles de routage · SD-WANSASE / Zero TrustCatoNetworkCloudAzure · Oracle OCIWiFi & accèsAruba · Airwave · ClearpassLoad balancerCitrix NetscalerVPNIPsec · SSL DNSInterne & externeCollaborationToIP Microsoft Teams Phone
Freelance

Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop

Deodis
Publiée le
Red Hat

1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
CDI

Offre d'emploi
PMO secteur Data H/F

CELAD
Publiée le

42k-48k €
Antibes, Provence-Alpes-Côte d'Azur
Dans le cadre du développement de nos activités à Sophia Antipolis, nous recherchons un PMO confirmé (H/F) pour intervenir chez un leader mondial de l’industrie du voyage , opérant des plateformes critiques à l’échelle internationale. Vous intégrerez un environnement stratégique au sein d’un centre d’excellence dédié à la performance des projets et programmes d’envergure. Votre mission Vous pilotez l’orchestration complète de projets complexes de migration de bases de données , en garantissant la continuité d’activité, la sécurité des données et la maîtrise des risques. Vous intervenez de bout en bout : de la définition de la stratégie jusqu’à la sécurisation de la mise en production. Vos responsabilités Définition & pilotage stratégique Élaborer et conduire la stratégie globale de migration (planning, ressources, gouvernance). Assurer la coordination des équipes techniques, métiers et infrastructures. Garantir la visibilité et l’alignement des parties prenantes au niveau international. Apporter une compréhension solide des technologies bases de données cibles dans un contexte de migration. Challenger les choix techniques et sécuriser les décisions d’architecture. Superviser les phases de tests, validation et bascule. Identifier, anticiper et piloter les risques, impacts et changements. Gérer des dépendances complexes applicatives et infrastructures. Assurer la continuité de service sans interruption business. Veiller au respect des exigences de sécurité, conformité réglementaire et intégrité des données . Garantir la traçabilité et la qualité des livrables.
CDI

Offre d'emploi
Data Engineer Flux H/F

VIVERIS
Publiée le

35k-45k €
Lille, Hauts-de-France
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises bancaires. Dans ce cadre, nous recherchons notre Data Engineer qui contribuera à un programme important d'évolution de la plateforme Data. Vos missions et responsabilités : - Analyser les besoins métiers et les traduire en solutions BI pertinentes et durables ; - Modéliser les données en cohérence avec les objectifs fonctionnels et les bonnes pratiques décisionnelles ; - Créer et maintenir les flux de données via des outils ETL, en assurant leur qualité, robustesse et performance ; - Participer à la recette et au suivi de production des chaînes décisionnelles, en lien étroit avec les utilisateurs ; - Assurer un rôle transverse sur les projets décisionnels : échange avec les MOA, rédaction de spécifications fonctionnelles, accompagnement des utilisateurs.
Freelance

Mission freelance
Data Engineer GCP

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
6075 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous