L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 870 résultats.
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
PROPULSE IT
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre d'emploi
Data Engineer – GCP (H/F)
CELAD
Publiée le
45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, dans le secteur bancaire. L’enjeu : structurer et industrialiser l’écosystème Data & ML sur Google Cloud Platform. Vous intervenez à la fois sur l’architecture, le build, le run et la structuration des bonnes pratiques. Industrialiser les pipelines data sur l’écosystème GCP Gérer les montées de version des services managés Garantir performance, capacité et fiabilité Développer des pipelines en Python Exploiter et optimiser BigQuery Mettre en place des pratiques CI/CD adaptées aux projets data Structurer l’industrialisation des modèles de Data Science Gestion des IAM, droits d’accès et conformité Sécurisation des environnements Encadrement des accès aux données de production anonymisées Suivi des incidents Amélioration continue des livrables Gestion des évolutions techniques avec les éditeurs
Offre d'emploi
Product Owner - Data H/F
CONSORT GROUP
Publiée le
JIRA
40k-46k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Product Owner - Data H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la data et la gestion de produit en environnement Agile ? Ce poste est fait pour vous. En tant que Product Owner Data , vous êtes responsable du pilotage des besoins métiers et de la coordination des équipes techniques de notre écosystème : Côté build : Analyser et comprendre les besoins métiers liés aux solutions data Formaliser les besoins fonctionnels et rédiger les user stories Co-construire les solutions avec les équipes du train SAFe Perso Reco Participer à la modélisation et à la structuration des solutions data Piloter le développement, l’intégration et le déploiement des solutions Animer les échanges entre équipes métiers et techniques Côté run : Suivre la performance des solutions data en production Garantir la cohérence entre développement, tests et production Vérifier le respect des standards techniques et des règles de sécurité Assurer la conformité fonctionnelle des solutions livrées Identifier les risques et proposer des actions correctives Assurer le reporting d’avancement et le suivi des objectifs délais / budgets Collaborer avec les partenaires techniques et gérer les intégrations C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements exigeants. Vous aimez traduire les besoins métiers en solutions concrètes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Gestion de projet en mode Agile SAFe JIRA C’est votre manière de faire équipe : Esprit d’analyse et sens de la communication Collaboration et capacité à fédérer les équipes C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : 2j Salaire : De 40 000€ à 46 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
DBA SQL Server Expert Azure (N4 / Architecte)
Gentis Recruitment SAS
Publiée le
Azure
12 mois
Hauts-de-Seine, France
🚨 Mission Freelance – DBA SQL Server Expert Azure (N4 / Architecte) ⏳ Mission longue (12 mois renouvelables) 📍 Environnement : Cloud-first Azure (PaaS dominant) 🚫 Candidatures non pertinentes automatiquement refusées ❗ PRÉREQUIS OBLIGATOIRES (SINON NE PAS POSTULER) Minimum 11 ans d’expérience en tant que DBA SQL Server Expertise AVÉRÉE sur Azure SQL PaaS (critère éliminatoire) Anglais courant obligatoire (écrit + oral) Expérience en environnements critiques (production, HA, PRA) 👉 Toute candidature ne respectant pas ces 4 points sera rejetée. 🎯 RESPONSABILITÉS Administration et MCO des bases SQL Server (N1 → N4) Conception et évolution d’architectures SQL Server Azure PaaS Gestion d’environnements critiques : haute disponibilité PRA clusters / failover Accompagnement des équipes (dev / infra / data) Industrialisation et automatisation des déploiements Optimisation des performances et des coûts cloud 🛠 COMPÉTENCES TECHNIQUES OBLIGATOIRES 🔴 SQL Server (niveau expert) Always On / Failover Cluster Instances Performance tuning avancé Capacity planning Troubleshooting complexe (niveau N3/N4) 🔴 Azure (CRITIQUE – cœur du poste) Maîtrise concrète et opérationnelle de : Azure SQL Database Azure SQL Managed Instance Azure Storage / networking Migration vers PaaS Optimisation coûts / performance Azure 👉 Une simple expérience Azure VM ou “exposition cloud” = refus 🔴 DevOps / Automatisation Azure DevOps (pipelines CI/CD) Infrastructure as Code (Terraform ou équivalent) Scripting avancé : PowerShell (obligatoire) Python / Bash (bonus) 🔴 Environnements critiques HA / PRA / DRP Architecture distribuée Gestion incidents majeurs 🧩 COMPÉTENCES FORTEMENT APPRÉCIÉES Multi-SGBD (PostgreSQL, MongoDB, Oracle) Monitoring avancé (Grafana, Prometheus, Zabbix…) Expérience cloud hybride (Azure / AWS / On-prem) FinOps / optimisation des coûts cloud 👤 PROFIL RECHERCHÉ DBA expert / architecte (N4) Capable de : concevoir une architecture challenger les choix techniques intervenir en production critique Autonome, structuré, orienté performance ⚠️ PROFILS NON ADAPTÉS (REFUS DIRECT) DBA uniquement on-prem DBA orienté BI / Data / Power BI Data Engineer sans expertise DBA infra DBA sans Azure PaaS Profils < 11 ans d’expérience 📌 RÉSUMÉ 👉 Nous recherchons un : DBA SQL Server Expert + Azure PaaS + DevOps + Architecture 👉 Si vous n’avez pas déjà travaillé en profondeur sur Azure SQL PaaS, merci de ne pas postuler.
Mission freelance
Data ingénieur spécialiste DBT / Data Build Tool (H/F)
ALLEGIS GROUP
Publiée le
DBT
12 mois
Yvelines, France
TEKsystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur spécialiste DBT / Data Build Tool (H/F) Vos missions : Concevoir et mettre en œuvre des plateformes de données modernes Industrialiser et optimiser des solutions techniques Développer et maintenir des pipelines de données efficaces, du sourcing à la visualisation (ingestion, traitement, exposition) Assurer la qualité et la sécurité des données tout au long de leur cycle de vie Collaborer avec les équipes métier pour comprendre les besoins et fournir des solutions data adaptées Évaluer et recommander des technologies émergentes pour améliorer les capacités de la plateforme data Dans l’environnement technique suivant (cette liste n’est pas exhaustive et surtout, elle indique les technos qui nous intéressent !) :
Mission freelance
Data Engineer Confirmé / Senior – GCP / BigQuery / dbt
CHOURAK CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD
3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir sur une plateforme data moderne au sein d’un acteur du secteur de la santé , avec des enjeux forts de fiabilité, performance et conformité des données. 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de la conception, de l’industrialisation et de l’optimisation d’une architecture data moderne sur GCP , orientée qualité, scalabilité et gouvernance. La plateforme repose notamment sur : GCP · BigQuery · dbt · Airflow · CI/CD ⚙️ Missions principales Concevoir et maintenir des pipelines de données robustes et scalables . Modéliser les données dans BigQuery (architecture analytique performante). Développer et maintenir les transformations via dbt (modélisation, tests, documentation). Orchestrer les flux avec Airflow (DAGs, monitoring, gestion des dépendances). Participer à l’industrialisation via des pratiques CI/CD . Garantir la qualité, la performance et la traçabilité des données . Contribuer aux choix d’architecture et aux bonnes pratiques Data Engineering.
Offre d'emploi
Chef de projet solution de gestion du patrimoine
KEONI CONSULTING
Publiée le
Big Data
Gestion de projet
Management
18 mois
20k-60k €
100-450 €
Nantes, Pays de la Loire
CONTEXTE Le candidat interviendra sur la mise en œuvre d’une solution de gestion du patrimoine. Ce projet a 2 volets - Solution : conception et déploiement d’outil - Data : mise en œuvre de processus de Data Management s’appuyant sur des solutions exis tantes Les objectifs sont d’harmoniser les processus de travail, de les soutenir via des outils et d’implanter . Une vraie culture de gestion de la donnée et de sa qualité. La personne retenue pour exercer ces missions sera appuyée d’une directrice de projets et collaborera avec l’activité DATA. LES MISSIONS • Cadrer l’organisation des projets, • Réaliser des études et concevoir des solutions. La rédaction de cahier des charges pourra être requise, • Accompagner à la mise en œuvre et au déploiement de futurs outils ou nouveaux modules • Fédérer et appuyer l’adoption de ceux-ci, • Construire en lien avec l’équipe Data une vraie gouvernance de la donnée sur les projets et les différents outils, • Assurer sa mise en œuvre et l’acculturation des équipes. La personne retenue pour exercer ces missions sera appuyée d’une directrice de projets de et collaborera avec le service DATA.
Offre d'emploi
Ingénieur d'Affaires Data & IA Secteur Luxe H/F
JEMS
Publiée le
45k-60k €
Levallois-Perret, Île-de-France
En tant qu' Ingénieur d'Affaires Data & IA secteur Luxe H/F vous aurez la charge de : • Créer et développer de nouvelles relations d'affaires avec des clients potentiels et des partenaires stratégiques du Luxe • Identifier et explorer de nouvelles opportunités de marché pour nos produits et services • Travailler en étroite collaboration avec nos équipes internes pour élaborer des solutions sur mesure pour nos clients du secteur du Luxe • Prévoir les tendances du marché du Luxe et anticiper les besoins des clients pour façonner notre stratégie de croissance • Représenter JEMS lors d'événements, de conférences et de réunions pour élargir notre réseau et renforcer notre présence sur le marché • Garder un œil sur la concurrence et élaborer des stratégies pour rester en tête Avantages à travailler chez JEMS : • Un accompagnement personnalisé pour développer votre carrière • L'opportunité de travailler dans un environnement dynamique et stimulant • Une culture d'entreprise qui encourage la créativité, l'innovation et la croissance personnelle • Un package de rémunération compétitif avec des avantages exceptionnels • Un soutien continu pour développer vos compétences et avancer dans votre carrière • Des séminaires d'intégration inoubliables Pour Postuler Si vous êtes prêt(e) à relever le défi et à devenir un acteur clé de notre équipe en tant qu'Ingénieur d'Affaires chez JEMS, envoyez nous votre CV accompagné d'une lettre de motivation convaincante qui montre pourquoi vous êtes la personne idéale pour ce poste. Montrez nous votre passion, votre détermination et votre vision pour l'avenir. Diversité Le Groupe JEMS porte fièrement sa valeur "Diversité" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap. Chez JEMS, nous croyons que les meilleurs candidats sont ceux qui partagent notre passion pour l'innovation et notre engagement envers l'excellence. Rejoignez notre équipe et soyez prêt à changer le jeu ! Référence de l'offre : q6cu2z24va
Mission freelance
Cloud DevOps Engineer orienté Data (GCP)
Gentis Recruitment SAS
Publiée le
DevOps
FinOps
Google Cloud Platform (GCP)
210 jours
400-450 €
Montpellier, Occitanie
Contexte Dans le cadre du renforcement d’une équipe Cloud / DevOps chez un acteur du secteur bancaire basé à Montpellier, nous recherchons un Cloud DevOps Engineer senior orienté plateformes Data. Le consultant interviendra sur la conception, l’implémentation et l’exploitation d’une infrastructure GCP containerisée destinée à supporter différents cas d’usage data (pipelines, traitements et services associés). L’objectif est d’industrialiser et d’opérer une plateforme cloud robuste, sécurisée et scalable, avec une forte culture Infrastructure as Code, GitOps et RUN. Missions principales Implémentation et administration GCP Concevoir et déployer des solutions techniques containerisées sur Google Cloud Platform Administrer et optimiser l’infrastructure GCP : GKE, GCE, GCS, Cloud SQL, VPC, Load Balancer, Private Service Connect, IAM Automatisation et industrialisation Automatiser le provisioning et la gestion des ressources cloud via Terraform et Terragrunt Concevoir et maintenir les pipelines CI/CD (GitLab CI) Standardiser les déploiements et garantir leur reproductibilité Sécurité Implémenter les bonnes pratiques de sécurité sur le cloud et Kubernetes Mettre en place la gestion des secrets et des accès (Vault, SSO) Participer au contrôle des vulnérabilités via des outils de scan (Xray, Trivy) Monitoring et observabilité Mettre en place des solutions de monitoring et d’alerting (Prometheus, Grafana, ELK) Exploiter Google Cloud Observability pour la supervision et le troubleshooting Support et RUN Assurer le maintien en conditions opérationnelles de la plateforme Opérer les déploiements et évolutions via une approche GitOps Garantir la traçabilité, la fiabilité et la conformité des déploiements Compétences indispensables Expérience significative sur Google Cloud Platform : GKE, VPC, IAM, Cloud SQL, GCS, Load Balancer Kubernetes et containerisation (Docker) Terraform et Terragrunt (niveau autonome) Git et GitLab CI Gestion des artefacts et registry : JFrog Artifactory ou GCP Artifact Registry Observabilité : Prometheus, Grafana, ELK, Google Cloud Observability Sécurité : Vault et outils de scan de vulnérabilités (Xray ou Trivy) Bonne culture réseau cloud (VPC, routage, sécurisation des flux) PostgreSQL (déploiement, administration et optimisation) Compétences appréciées Connaissance d’OpenShift Connaissance de l’orchestrateur Kestra Sensibilité aux problématiques FinOps et optimisation des coûts cloud
Offre d'emploi
Tech Lead Data Engineer - Databricks
VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL
1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Business Analyst
R&S TELECOM
Publiée le
Alteryx
Big Data
Microsoft Power BI
1 an
Montpellier, Occitanie
Contexte de la mission : Pour l’un de nos clients : la mission consiste à cartographier les rapports existant en vue de la fin des rapports SAP BI fin 2027 Tâches à réaliser : La mission consiste à réaliser les tâches suivantes, en autonomie : Collaborer avec les équipes métiers (comptabilité, back office bancaire, ..), Cartographie rapport existant suite à l'abandon de SAP4BI fin 2027, Analyser l'utilisation des rapports par les différents métiers, Identifier les doublons, s'ils sont ou non utilisés, Migration des rapports sur PowerBI ou Alteryx.
Offre d'emploi
AMOE / MOE Senior - Coordinateur technique Java/PostgreSQL
Inventiv IT
Publiée le
Développement
Java
JIRA
6 mois
45k-54k €
430-530 €
Paris, France
Contexte de la mission Dans le cadre de la maintenance et de l’évolution de plusieurs applications métiers exploitées au sein de la Digital Factory, nous recherchons un profil AMOE senior capable d’assurer à la fois un rôle de pilotage opérationnel et un rôle technique terrain. La mission porte sur trois applications en production : gestion des effectifs, mutations et congés suivi et contrôle de l’activité de la mesure optimisation des tournées de contrôle Le consultant interviendra comme interlocuteur principal entre la MOA, les équipes de TMA, l’exploitation et les intégrateurs/devops, avec une forte autonomie attendue. Objectif de la mission Assurer l’assistance à maîtrise d’œuvre sur les applications du périmètre, avec pour objectifs : piloter la maintenance corrective et les évolutions garantir le maintien en condition opérationnelle intervenir sur des analyses techniques approfondies réaliser certains actes d’administration technique (requêtes, scripts, investigations) Responsabilités principales Le consultant prendra en charge les activités suivantes : Pilotage / coordination être le référent technique des applications assurer le lien principal avec la MOA piloter les travaux confiés à la TMA suivre les demandes, anomalies et évolutions dans Jira participer aux réunions de suivi et produire le reporting MCO maintenir la documentation applicative à jour Maintenance opérationnelle assurer le MCO des applications suivre la bonne exécution des interfaces gérer les environnements et le déploiement des patchs coordonner la résolution des incidents de production valider le contenu technico-fonctionnel des livraisons TMA Intervention technique analyser et traiter les anomalies fonctionnelles et techniques réaliser des investigations en base exécuter des requêtes SQL produire ou exécuter des scripts Shell contribuer à l’amélioration des pratiques de maintenance et proposer une stratégie agile adaptée au contexte
Offre d'emploi
Senior Consultant / Expert Technico-Fonctionnel Informatica MDM (H/F) – CDI
CAPEST conseils
Publiée le
Informatica
Master Data Management (MDM)
12 mois
Paris, France
A pourvoir de préférence en CDI chez le client final mais je regarderai également les profils des candidats qui souhaitent rester indépendants (je vais avoir d'autres besoins sous peu). Pour ce poste , des déplacements réguliers devront être effectués en Province. Dans le cadre du renforcement de notre plateforme data et de notre stratégie de gouvernance des données , nous recherchons un Consultant Senior Technico-Fonctionnel Informatica MDM . Vous rejoindrez une équipe de 5 experts data dédiée au Master Data Management , responsable de la gestion et de la fiabilisation des données de référence (Customer, Partner, Product, etc.). Vous interviendrez sur l’évolution et l’exploitation de la plateforme Informatica Master Data Management , au cœur des enjeux de data governance, data quality et data integration . Vos missionsExpertise et évolution de la plateforme MDM Apporter votre expertise sur la solution Informatica MDM . Concevoir et faire évoluer les modèles de données de référence (Customer / Party / Product / Organization) . Paramétrer et configurer les composants MDM (data model, match & merge, survivorship rules). Participer à l’architecture et aux évolutions de la plateforme MDM. Conception technico-fonctionnelle Animer des ateliers avec les équipes métiers et les data owners. Traduire les besoins en spécifications fonctionnelles et techniques . Participer aux phases de développement, configuration et intégration. Piloter les phases de tests, recette et déploiement . Gouvernance et qualité des données Contribuer à la mise en œuvre des pratiques de data governance et data quality . Définir et suivre les règles de matching, déduplication et consolidation des données . Participer à l’amélioration des processus de gestion des données de référence. Leadership et collaboration Être référent technique MDM au sein de l’équipe. Accompagner les équipes métiers dans l’usage et la compréhension des données. Participer à la montée en compétence des membres de l’équipe.
Mission freelance
Data Analyst Lead – Gouvernance & Conception Data
Comet
Publiée le
Data Strategy
Databricks
Microsoft Power BI
300 jours
550-580 €
Châtillon, Île-de-France
Data Analyst Lead – Gouvernance & Conception Data Objectif global Renforcer l’expertise en analyse, conception et gouvernance des données au sein d’un DataLab, dans un contexte grande distribution multi-enseignes et multi-métiers. Livrables : - Expertise analytique et conception de solutions data - Contribution à la structuration des KPI métiers - Animation de la communauté Data Analyst - Participation à la Data Authority - Contribution au modèle de données commun Contexte de la mission : - Mission au sein d’un DataLab, rattachée à l’équipe Gouvernance des données. Environnement : - Grande Distribution - Multi-enseignes - Multi-métiers Enjeux forts de performance, qualité des données, modélisation et usages analytiques à grande échelle ⚠️ La connaissance opérationnelle de la Grande Distribution est impérative. Objectifs - Apporter une expertise avancée en data analyse et en conception de solutions data - Contribuer à la montée en compétence des Data Analysts - Accompagner les équipes produits et projets sur des problématiques analytiques complexes - Animer la communauté Data - Coanimer la Data Authority et les ateliers de gouvernance Missions principales : - Expertise en analyse de données et conception de solutions orientées data - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions) - Structuration et alignement des KPI métiers - Animation de la communauté Data Analyst (ateliers, bonnes pratiques, REX) - Contribution et évolution du modèle de données commun - Coanimation des instances de gouvernance Data Compétences techniques attendues : Impératif : Connaissance confirmée de la Grande Distribution Enjeux business KPI clés : ventes, marge, stock, approvisionnement, performance magasin Usages métiers de la donnée Important Modélisation des données (confirmé) Analyse de données (confirmé) Conception de solutions data (confirmé) Stack & Environnement technique Big Data : - SQL - Databricks - Scala - Python Environnement Azure BI / Reporting : - Power BI - MicroStrategy Modélisation : - PowerDesigner Gouvernance & Qualité : - DataGalaxy - SODA (Data Quality / Observability) Méthodologie & outils : - SAFe (Agilité à l’échelle) - Jira Profil recherché - Data Analyst Senior / Lead - Forte capacité à challenger les solutions - Vision transverse et structurante - Capacité à fédérer une communauté - Aisance en animation d’ateliers - Posture d’expert référent
Mission freelance
Data Architecte
Deodis
Publiée le
Kubernetes
Linux
Openshift
1 an
600-630 €
Île-de-France, France
Dans le cadre de l’administration et de l’évolution d’une plateforme IA, le Data Architecte intervient sur le maintien en condition opérationnelle (MCO) et l’optimisation continue des infrastructures Kubernetes supportant les workloads data et IA. La mission couvre la conception, le déploiement et l’exploitation de clusters on-premise, cloud ou hybrides, l’automatisation de l’infrastructure via IaC, ainsi que le renforcement de la supervision et de l’observabilité. L’objectif est de garantir la disponibilité, la performance, la sécurité et la résilience des services tout en accompagnant l’intégration de nouveaux modèles et l’optimisation des pipelines de data science.
Mission freelance
Senior Data Engineer
Signe +
Publiée le
Talend
6 mois
440-550 €
Vélizy Espace, Île-de-France
Contexte Dans le cadre d’un programme de transformation Data, le consultant interviendra sur la conception et l’industrialisation de pipelines de données, la structuration des plateformes Data et la collaboration avec les équipes métiers et techniques. Missions principales Conception et optimisation de pipelines ETL (Talend, SSIS, Azure Data Factory) Ingestion et traitement de données en environnement cloud (BigQuery, Cloud Storage, Dataproc) Conception de Data Warehouses, Data Marts et Data Cubes Intégration de données via API, fichiers et flux batch Participation au cadrage, data discovery et qualification Optimisation SQL, DAX, MDX Mise en place de CI/CD data Contribution à la structuration du Data Lake Compétences techniques Talend / SSIS / Azure Data Factory SQL Server (SSIS, SSAS, Reporting) SQL avancé, DAX, MDX Azure DevOps / GitLab Architectures Data modernes / Data Lake Profil recherché Senior Data Engineer confirmé Forte autonomie et capacité d’analyse Capacité à travailler en environnement international
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2870 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois