L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 482 résultats.
Offre d'emploi
DATA ENGINEER SENIOR TJM MAX 580
Craftman data
Publiée le
FinOps
Git
Nosql
8 mois
40k-45k €
400-580 €
Paris, France
Contexte de la mission Entreprise internationale du secteur de l’énergie, engagée dans la production et la fourniture de solutions énergétiques (énergies renouvelables, gaz, électricité, etc.), recherche un Data Engineer Senior pour intégrer une Digital Factory dynamique. Cette entité regroupe plusieurs équipes agiles pluridisciplinaires (environ 30 squads ) et a pour mission d’accélérer la création et le déploiement de solutions digitales à grande échelle dans un environnement international. Objectif de la mission Au sein d’une équipe produit, vous intervenez sur la conception, le développement et l’industrialisation de pipelines de données complexes , dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilitésIngénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’ architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions data Industrialisation Mettre en place des mécanismes d’ observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents en production et anticiper les risques Collaborer avec les équipes transverses Participer au partage de bonnes pratiques Stack technique & environnementCloud & Data Environnement Cloud (type Azure ou équivalent) Data Lake Outils de streaming et traitement temps réel Bases de données Maîtrise des bases relationnelles Connaissances des bases NoSQL Développement & Data Expert Python Manipulation de données ( pandas ou équivalent ) Scripts de transformation et de traitement de données Outils & Qualité Git (maîtrise avancée) Tests automatisés ( Pytest ) Linting et qualité de code Profil recherché Expérience confirmée en Data Engineering Capacité à évoluer dans un environnement agile mature Esprit collaboratif et orientation produit Sens de la qualité , de la performance et de la fiabilité Une sensibilité à la data science est un plus. Processus de sélection Coding game en live à réaliser sous 72h après réception Soutenance technique à prévoir dans la foulée Conditions obligatoires du test Réalisation seul(e) dans un environnement calme Aucun support externe autorisé (internet, IA, documents, etc.) Un seul écran autorisé Session unique sans interruption Caméra activée si demandée Le non-respect de ces règles entraîne l’ invalidation du test .
Offre d'emploi
LLMOps Engineer / GenAI Engineer H/F
VIVERIS
Publiée le
45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre du développement de ses activités autour de l'intelligence artificielle, un grand groupe industriel renforce son hub dédié à la stratégie et au déploiement de solutions IA, notamment dans le domaine de l'énergie. La mission s'inscrit dans un contexte de forte croissance des usages autour des LLM et de la GenAI, avec des enjeux d'industrialisation, de passage à l'échelle et d'intégration dans des produits et services. L'environnement de la mission repose sur des architectures cloud AWS, avec une forte culture DevOps (CI/CD, IaC) et l'utilisation de frameworks GenAI tels que Langchain et LangGraph. Vous interviendrez au sein d'une équipe en charge du développement et de la mise en production de solutions basées sur des modèles de langages et des agents intelligents. Responsabilités : - Concevoir et procéder au déploiement et à l'industrialisation des pipelines LLMOps dans un environnement cloud ; - Participer activement à la mise en production de solutions GenAI, en garantissant leur performance, leur robustesse et leur scalabilité ; - Collaborer étroitement avec les équipes data et IA afin de répondre aux besoins métiers et d'optimiser les architectures existantes.
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
Apache Airflow
Microsoft Power BI
Python
1 an
Tours, Centre-Val de Loire
Nous recherchons un Ingénieur Data H/F pour une mission à Tours. Missions : Développer et maintenir des pipelines de données avec Airflow Concevoir et optimiser des traitements de données en Python Collecter, nettoyer et transformer des données issues de sources variées Alimenter des entrepôts de données (Data Warehouse / Data Lake) Assurer la qualité, la fiabilité et la traçabilité des données Collaborer avec les équipes métiers pour la mise à disposition de dashboards sous Power BI Participer à l’optimisation des performances et à l’automatisation des flux
Mission freelance
AI Engineer (GenAI, RAG & Multi‑Agents) (F/H)
Bluescale
Publiée le
Apache Airflow
Docker
Google Cloud Platform (GCP)
3 mois
400-560 €
Île-de-France, France
Les attendus de la mission: 1. Développement d’Agents IA Concevoir et améliorer des agents IA end‑to‑end (RAG, multi‑agents, MCP). Développer des assistants intégrés (Google Chat, APIs internes). Implémenter du Tool Use pour orchestrer des actions métier (SAP, BigQuery, Firestore). Intégrer des capacités multimodales (PDF, images). 2. MLOps & Industrialisation Déployer sur GCP : Vertex AI, Cloud Run, BigQuery, Firestore. Intégrer les workflows dans Airflow (DAGs de traitement). Maintenir CI/CD (GitHub Actions) et conteneurisation (Docker). Assurer le monitoring et la qualité (MLflow, Evidently). 3. Sécurité & Gouvernance Mettre en place et maintenir un Human‑in‑the‑loop robuste. Protéger les agents contre prompt injection, jailbreaking et fuite de données. Garantir la conformité et la qualité des données injectées dans SAP/BigQuery. 4. Automatisation & Optimisation Optimiser les performances des agents (précision, autonomie, robustesse). Étendre les capacités du système (nouveaux outils, nouvelles sources). Développer des mécanismes de fallback intelligents pour les cas complexes.
Mission freelance
Data Engineer – Tracking & Analytics
Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio
7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Offre d'emploi
ML Engineer H/F
OBJECTWARE
Publiée le
Agent IA
CI/CD
Large Language Model (LLM)
40k-65k €
Bordeaux, Nouvelle-Aquitaine
🎯 ML Engineer – Industrialisation & Agents IA Nous accompagnons actuellement un de nos clients dans le cadre du renforcement de ses équipes Data / IA, avec un enjeu fort autour de l’industrialisation des modèles et du développement d’agents basés sur les LLM. Dans ce contexte, nous recherchons un ML Engineer , avec un niveau d’expérience ouvert (à partir de 4 ans jusqu’à expert), pour intervenir sur des sujets à forte valeur ajoutée. Missions Concevoir et développer des agents IA basés sur des LLM Participer à l’ industrialisation des modèles de Machine Learning Mettre en place et optimiser des pipelines MLOps Assurer le déploiement, le monitoring et la performance des modèles en production Collaborer avec les équipes Data, IT et métiers pour intégrer les solutions IA dans les outils existants Contribuer aux bonnes pratiques CI/CD, automatisation et GitOps 🛠️ Environnement technique IA / LLM : LangChain, LangGraph, LLM MLOps : MLflow, Kubeflow DevOps / Industrialisation : CI/CD, GitOps Data / ML : Machine Learning (profil ex Data Scientist apprécié)
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 8vpph62lhn
Mission freelance
Senior Site Reliability Engineer - Run
STHREE SAS
Publiée le
12 mois
Lille, Hauts-de-France
Organisation & localisation Localisation : Lille - 2 jours de télétravail par semaine. Démarrage : ASAP Modèle : Freelance ou portage (pas de sous-traitance) Durée : Mission avec une très longue visibilité Contexte de la mission Acteur majeur du paiement et des services digitaux, en forte croissance, nous accompagnons une plateforme stratégique au cœur d'un vaste programme de transformation. Dans le cadre du renforcement de l'équipe Opérations, nous recherchons un·e SRE expérimenté·e pour intervenir sur la run, la production et l'amélioration continue de la qualité de service. La mission s'inscrit dans une dynamique de collaboration forte, de partage de connaissances et de montée en compétences collective. Missions principales En tant que SRE, vous interviendrez sur des sujets clés liés à l'exploitation et à la fiabilité des systèmes : Garantir la disponibilité, la performance et la scalabilité de la plateforme Piloter la gestion des incidents de bout en bout : analyse des causes racines mise en place de correctifs actions de prévention Assurer le SRE Run : suivi de la production, supervision des exploitations, anticipation des incidents Améliorer l'observabilité et la qualité de service Automatiser les opérations et le support (software, usages IA pour l'Ops) Collaborer étroitement avec les équipes dev, devops et sécurité Être moteur dans le partage de bonnes pratiques et la montée en compétences des équipes Stack & environnement technique Cloud : GCP Conteneurisation / Orchestration : Kubernetes Infra & scripting : Linux, Python, Terraform Observabilité : Datadog CI/CD : GitHub, GitHub Actions Sécurité & réseau : WAF, DDoS Environnement critique, orienté service et clients Profil recherché Solide expérience en production et gestion d'incidents À l'aise dans des environnements critiques et à fort enjeu business Capacité à communiquer clairement, y compris en situation de stress Sens aigu du travail en équipe, de la collaboration et du partage Envie de s'inscrire dans une mission longue durée, structurante et structurée Une connaissance du paiement / identité / IAM est un vrai plus Nous cherchons une personne collaborative, pédagogue, fédératrice, capable de travailler avec des équipes pluridisciplinaires et de créer une vraie dynamique collective. Le client est accompagné par des partenaires experts, et porte une attention particulière à la qualité des recrutements : l'objectif est de construire une équipe solide et durable.
Mission freelance
MULTIPLE ROLES: TEST ENGINEERS
Orcan Intelligence
Publiée le
JIRA
JMeter
Playwright
12 mois
Grand Est, France
Orcan Intelligence recherche pour l’un de ses clients plusieurs profils QA et sécurité. Junior Test Engineer Planifier, préparer et exécuter les tests fonctionnels, API et d’intégration. Rédiger les scénarios, cas de test et suivre les anomalies. Contribuer à l’automatisation et à l’amélioration continue de la qualité. Senior Test Engineer Définir l’approche de test et piloter les campagnes de validation. Gérer les anomalies, l’analyse des causes racines et le reporting qualité. Collaborer avec les équipes techniques et métier dans un environnement complexe. Test Automation Engineer Concevoir et maintenir des frameworks et suites de tests automatisés. Intégrer les tests dans les pipelines CI/CD. Accompagner les équipes dans l’adoption des bonnes pratiques d’automatisation. Security / Penetration Test Engineer Identifier les vulnérabilités et conduire des tests d’intrusion. Réaliser des analyses de risques et proposer des plans de remédiation. Rédiger les rapports de test et présenter les résultats aux parties prenantes. Performance / Resilience Test Engineer Définir et exécuter les tests de performance et de résilience. Analyser les résultats, identifier les goulots d’étranglement et recommander des amélioration Analyser les résultats, identifier les goulots d’étranglement et recommander des améliorations.
Offre d'emploi
AI Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Databricks
45k-60k €
Paris, France
En tant qu’AI Engineer, vous intervenez sur la conception, le développement et l’industrialisation de solutions d’Intelligence Artificielle, allant du Machine Learning classique aux cas d’usage de GenAI. Vous travaillez au cœur des plateformes Data et ML afin de garantir la robustesse, la performance, la scalabilité et la maintenabilité des modèles et services IA mis en production, au service des équipes métiers et produits. Expérience attendue : 3+ ans en ingénierie IA / ML / Data, avec une forte orientation production. Vous correspondez au/à la AI Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique , de rigueur et de pragmatisme Vous êtes autonome, proactif et doté d’un solide sens des responsabilités Vous savez communiquer clairement avec des interlocuteurs techniques et non techniques, et vulgariser des sujets complexes Vous savez prioriser vos tâches , gérer les contraintes (qualité, délais, coûts) et respecter vos engagements Vous disposez d’un solide bagage en software engineering , vous permettant de développer des solutions IA robustes, lisibles, maintenables et testables , principalement en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes à l’aise avec les outils de versioning (Git) et les workflows collaboratifs associés Vous avez déjà travaillé sur des plateformes Data / ML Cloud (ex. Databricks ou équivalent) Vous comprenez les enjeux de préparation des données , de feature engineering et de qualité des datasets pour les usages ML / AI Vous avez une experience dans l’ industrialisation des modèles ML , incluant entraînement, validation, versioning et déploiement Vous êtes sensibilisé aux pratiques MLOps (gestion du cycle de vie des modèles, reproductibilité, monitoring) Vous avez une appétence pour les cas d’usage GenAI (LLM, RAG, embeddings, agents) et savez concevoir et mettre en œuvre de frameworks d’évaluation pour les systèmes GenAI incluant : évaluation de la qualité des réponses (relevance, faithfulness, completeness), validation des chaînes de retrieval et d’embeddings, comparaison de prompts, modèles ou configurations
Mission freelance
Data Engineer Azure
STHREE SAS pour COMPUTER FUTURES
Publiée le
Azure
Python
6 mois
320-350 €
Niort, Nouvelle-Aquitaine
Bonjour, Je suis à la recherche d’un Data Engineer Azure : Missions principales : Dans un contexte de développement et d’industrialisation de solutions Data et Machine Learning sur le cloud Azure : Ø Concevoir, développer et industrialiser des pipelines Data et ML robustes et performants Ø Transformer des prototypes Data Science en solutions industrielles exploitables Ø Contribuer aux activités projets et RUN dans un environnement agile Ø Garantir la qualité, la maintenabilité et la performance des solutions développées Ø Conception et développement de pipelines batch sous Azure Databricks Ø Utilisation avancée de : PySpark, Delta Lake, MLflow, Databricks Workflows Ø Optimisation des performances : Partitionnement des données, Gestion mémoire et Exploitation des GPU Ø Mise en œuvre de mécanismes de : Reprise sur erreur, Traçabilité, Monitoring Ø Collaboration étroite avec les Data Scientists pour industrialiser les modèles ML
Offre d'emploi
Ingénieur DevOps IA
VISIAN
Publiée le
AI
Amazon SageMaker
Ansible
1 an
Paris, France
Missions principales Mise en œuvre opérationnelle et technique des produits IA : Apporter une expertise technique et participer à la conception des architectures IA Industrialiser et automatiser le déploiement de plateforme agentique dans un environnement on premise ou cloud Participer à la mise en place de services managés en intégrant les contraintes de sécurité, compliance et gouvernance Documenter les offres et services et assurer leur mise en production Démontrer la valeur des offres d'IA générative auprès des entités/clients internes Réaliser des présentations et démos pour promouvoir les offres et services Participer aux daily meetings animés par le Product Owner Contribuer aux réunions de co-construction de la roadmap Prendre en charge les éléments de la backlog formalisée par le Product Owner Assurer le lead technique sur un produit au sein de la squad Participer à l'ensemble des rituels de la squad, de la plateforme et du pôle Participer aux astreintes techniques du pôle Compétences métiers requises Expérience en déploiement et manipulation du workload data Maîtrise des stacks IA sur AWS, GCP et/ou on-premise, avec expérience en déploiement de processus MLOps et LLMOps Maîtrise des fondamentaux de conteneurisation et des pratiques CI/CD Expérience dans le développement de projets AI/ML, d'exploitation et d'optimisation de produits IA Connaissance approfondie des meilleures pratiques en matière de sécurité des données et de conformité Environnement technique Cloud et Infrastructure : AWS (EKS, Sagemaker, Bedrock), GCP (GKE, Vertex AI), stack on premise, Kubernetes, Openshift, Docker Développement et Automatisation : Terraform, Python, SQL, Ansible, Jenkins, GitLab CI, Kestra Data et IA : Artifactory (Jfrog), orchestration de workload IA (Dataiku ou MLflow), bases de données vectorielles (Opensearch, RDS, Elastic Search, PG Vector, MongoDB Atlas) Observabilité : Dynatrace, CloudWatch, Prometheus, Grafana, X-Ray (appréciées) Compétences comportementales Excellent relationnel Agilité Esprit d'équipe Force de proposition Rigueur et sens de l’organisation
Mission freelance
Data Platform Engineer - Metadata
CAT-AMANIA
Publiée le
Databricks
FastAPI
Github
1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
Mission freelance
Data Engineer H/F
HAYS France
Publiée le
Data Lake
Microsoft Analysis Services (SSAS)
Microsoft Power BI
1 an
Île-de-France, France
Contexte de la mission Dans le cadre du programme de Digital and Data Transformation , a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data , la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Prestation Attendue Data Engineering & Delivery • Conception et mise en œuvre des pipelines ETL / ELT • Développement de jobs ETL réutilisables • Gestion des chargements Delta / Full / Historique • Debugging et résolution d’incidents en production • Mise en œuvre des bonnes pratiques de développement à la mise en production Collaboration & Méthodologie • Travail en étroite collaboration avec le Product Owner, les équipes data et plateforme • Contribution aux phases de Data Scoping / Discovery • Méthodologie Agile • Interaction avec des équipes distribuées (multi‑pays) Livrables • Composants data développés et déployés (code source) • Documentation technique et fonctionnelle • Modèle de données documenté • Rapports d’audit et de sanity check • Rapports de tests d’acceptation • Transfert de compétences et support aux équipes
Offre d'emploi
Software Engineer GCP (H/F)
WINSIDE Technology
Publiée le
Automatisation
Azure
Google Cloud Platform (GCP)
6 mois
45k-48k €
400-450 €
Lille, Hauts-de-France
Informations pratiques Démarrage : 04/05/2026 Fin de mission : 30/10/2026 Présentiel : 2 jours par semaine Astreintes : oui Contexte du projet Dans le cadre d’un programme stratégique de transformation cloud pour un grand groupe international , nous recherchons un(e) DevOps – niveau expert pour intervenir sur une plateforme interne de type Landing Zone . Cette plateforme permet aux équipes internes de provisionner en toute autonomie des environnements cloud sécurisés (principalement GCP , mais aussi Azure ) afin d’y déployer leurs applications rapidement, tout en respectant les standards du groupe. Objectifs de la mission Vous contribuerez au développement et à l’évolution des produits cloud et des outils d’automatisation des infrastructures réseau et sécurité, avec pour objectifs : la mise à disposition de plateformes cloud self-service l’automatisation complète des déploiements d’infrastructures le renforcement de la sécurité et de la fiabilité des environnements cloud Vos missions 🔧 Développement Concevoir et développer des composants logiciels backend et frontend Implémenter des APIs et services backend en Python Développer des interfaces frontend (Vue.js) Concevoir et maintenir des solutions Infrastructure as Code (Terraform) Participer au développement et à l’évolution des Landing Zones cloud Développer des outils d’automatisation réseau (firewall, opérations réseau) 🧱 Architecture & Conception Répondre aux besoins métiers via des solutions cloud natives Concevoir des architectures cloud sécurisées, automatisées et scalables Participer aux revues d’architecture et de code Définir et faire évoluer les standards techniques et bonnes pratiques ✅ Qualité & Tests Développer et maintenir des tests unitaires et automatisés Garantir la qualité, la performance et la maintenabilité du code Identifier et corriger les anomalies et régressions 🔄 Maintenance & Support Assurer la maintenance corrective et évolutive des solutions existantes Accompagner les équipes techniques dans l’utilisation des plateformes Participer aux astreintes liées au projet
Mission freelance
DevOps / ETL Data Engineee - Banque
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site / semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Votre mission Au sein d'une équipe Agile, vous intervenez sur des projets data à forts enjeux. Votre rôle consiste à concevoir, développer et maintenir des chaînes de traitement de données fiables, performantes et sécurisées. Vous participez à l'ensemble du cycle de vie : analyse fonctionnelle et technique, développement ETL, tests et contrôles qualité, livraison et support aux équipes de production. 🛠️ Vos responsabilités Développer et paramétrer des traitements ETL Rédiger des scripts SQL et Shell Produire les livrables : code, documentation, jeux de tests Participer aux cérémonies Agile (backlog, grooming, démos) Collaborer avec les équipes IT et métiers Garantir la qualité, la performance et la conformité des solutions Contribuer à l'amélioration continue de l'équipe ✅ Profil recherché Expérience confirmée en ETL (Datastage ou équivalent) Bonne maîtrise du SQL Connaissances en Shell scripting À l'aise dans un environnement Agile Rigueur, sens des responsabilités, esprit d'équipe Anglais professionnel requis ⭐ Pourquoi rejoindre cette mission ? Environnement international et structuré Projets data critiques à forte valeur Équipe Agile mature Bon équilibre présentiel / télétravail
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
482 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois