L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 137 résultats.
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Consultant Observabilité
Publiée le
Dynatrace
6 mois
Nantes, Pays de la Loire
Télétravail partiel
Dans le cadre d’un projet de transformation à grande échelle, l’un de mes clients recherche un prestataire afin de renforcer son équipe Observabilité basée en région nantaise. L’objectif : accompagner la montée en maturité du monitoring, du reporting de performance et de la supervision des environnements complexes. Une expérience sur Dynatrace serait un vrai plus, tout comme une maîtrise de solutions telles que Prometheus, Grafana, ELK/Elastic Stack, Splunk, ou encore des compétences en APM, SRE, Kubernetes, Cloud (AWS/Azure/GCP) et CI/CD. Si vous êtes freelance, disponible prochainement, et que vous souhaitez intervenir sur un projet à forte valeur ajoutée, je peux vous mettre en relation avec le client.
Offre d'emploi
Développeur Full Stack IA
Publiée le
Angular
CI/CD
Docker
40k-45k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un grand acteur public , un développeur fullstack IA Rôle Conçoit des applications end-to-end intégrant des modèles IA (ML, NLP, LLM). Profil polyvalent : front + back + intégration IA + CI/CD + cloud. Missions clés Développer interfaces front React/Vue/Angular. Concevoir API backend (Node.js, Python, Java, C#). Intégrer des modèles IA via microservices. Déployer en cloud (AWS/GCP/Azure/Outscale). Assurer tests, monitoring, Documentation détaillée Assurer une bonne qualité de code
Offre d'emploi
NV - Expert NSX-T ACI
Publiée le
Cisco ACI
Cloud
Data Center
3 mois
Paris, France
Télétravail partiel
Bonjour Je recherche un expert sur NSX-T et Cisco ACI. L'expert réseau et cloud confirmé (8+ ans) doit etre capable de piloter des projets d’architecture et de transformation à l’international. Le profil doit maîtriser NSX-T, ACI, l’automatisation (Terraform, Ansible, Python) ainsi que connaitre les environnements cloud (AWS, Azure ou GCP). Compétences obligatoires : Vmware NSX-T Cisco ACI Expériences Data Center Connaissances cloud Bon niveau d'anglais PARLE et ECRIT Démarrage : asap Lieu: Paris avec 2 jours de télétravail par semaine Durée : 3 mois renouvelable Pour tout intéret, merci de m'envoyer votre cv à jour. NV
Offre d'emploi
Ingénieur DevOps (H/F)
Publiée le
DevOps
6 mois
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Ingénieur DevOps chargé de concevoir, automatiser et optimiser les plateformes techniques de nos clients. Vous travaillerez au cœur des environnements cloud et conteneurisés, en collaboration avec les équipes de développement, d'exploitation et d'architecture. Vous participerez à l’industrialisation des process, l'amélioration de la performance des systèmes, la fiabilité des chaînes CI/CD et la sécurisation des environnements. Votre rôle est clé dans le maintien d’un écosystème stable, scalable et résilient. Vos missions Construire, maintenir et optimiser les pipelines CI/CD (GitLab CI, GitHub Actions, Jenkins…). Gérer et automatiser l’infrastructure cloud (AWS, GCP ou Azure). Déployer, monitorer et opérer des environnements Kubernetes / Docker. Mettre en place des outils d’observabilité (logs, métriques, traces). Automatiser les tâches récurrentes via scripting (Shell, Python…). Mettre en œuvre des pratiques IaC (Terraform, Ansible, CloudFormation…). Améliorer la performance, la sécurité et la résilience des plateformes. Collaborer avec les équipes Dev, QA et Ops pour fluidifier les livraisons. Participer aux rituels Agile et documenter les process techniques.
Mission freelance
Lead MLOps Python - Spécialiste IA/RAG
Publiée le
IA
MLOps
Python
3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Mission freelance
Architecte d’Entreprise(Industrie/ Energie)
Publiée le
Architecture
Architecture ARM
AWS Cloud
12 mois
700-780 €
Paris, France
Télétravail partiel
L’Architecte d’Entreprise assure la cohérence et l’évolution stratégique du Système d’Information (SI) dans le respect des objectifs métier et des contraintes techniques, réglementaires, budgétaires et sécuritaires. Il/elle agit comme facilitateur entre les directions métiers et IT, garantissant un SI agile, évolutif et innovant, capable de soutenir la transformation digitale de l’entreprise. Le poste place l’humain et la collaboration au cœur des missions : écoute, empathie, partage, pédagogie et leadership sont essentiels pour réussir dans ce rôle. Responsabilités principales Architecture et urbanisation du SI Concevoir et maintenir l’architecture globale du SI (Métier, Fonctionnelle, Données, Applicative, Technique, Infrastructure). Garantir la cohérence, la pérennité et l’alignement avec la stratégie de l’entreprise. Mettre en place des référentiels, standards et modèles de gouvernance. Participer à la définition de feuilles de route, schémas directeurs et trajectoires de transformation. Pilotage et coordination de projets SI Accompagner les projets majeurs de transformation, de migration et d’optimisation. Coordonner les équipes internes et externes pluridisciplinaires. Assurer le suivi budgétaire, le reporting et la planification transverse des projets. Superviser les phases de tests, d’intégration et de mise en production (CI/CD, DevSecOps). Stratégie et innovation technologique Veille technologique et benchmark sur les nouvelles pratiques et solutions (Cloud, IA, IoT, Data). Développement et promotion de standards de qualité, sécurité et résilience du SI. Participation à l’évaluation et à la mise en œuvre de solutions innovantes et éthiques. Sécurité, conformité et gouvernance des données Gestion de la sécurité de l’information et de la conformité réglementaire (RGPD, ISO 27001…). Pilotage de la gouvernance des données, référentiels et dictionnaires de données. Participation aux analyses de risques et mise en œuvre de plans de mitigation. Accompagnement humain et changement Facilitation de la communication entre équipes métiers, IT et directions. Formation et acculturation aux pratiques et standards SI. Encourager la participation, la collaboration et l’adhésion des équipes aux projets de transformation. Profil recherché Compétences techniques et méthodologiques Urbanisation et architecture SI : TOGAF, Zachman, ArchiMate, UML, BPMN. Gouvernance et gestion des données : catalogues, dictionnaires, GDPR, ISO 27001. Projet et management : PMP, PRINCE2, Agile, SAFe, DevSecOps. Analyse de risques : EBIOS, MEHARI, MESARI. Maîtrise des environnements Cloud (Azure, AWS, GCP), outils CI/CD et DevOps. Outils : Enterprise Architect, Visio, MS PowerBI, Jira, Triskell, Sciforma. Compétences humaines et leadership Leadership naturel et fédérateur. Excellente capacité d’écoute, empathie et pédagogie. Diplomatie, négociation et gestion de situations complexes. Capacité à accompagner le changement et à mobiliser les équipes. Expériences souhaitées Minimum 10 ans d’expérience dans des fonctions d’architecture SI et/ou pilotage de projets complexes. Expérience sur des environnements multi-sectoriels (industrie, assurance, administration, services). Expérience en management d’équipes pluridisciplinaires et coordination de prestataires. Formation Bac+5 ou équivalent en informatique, systèmes d’information ou ingénierie. Certifications TOGAF, CISSP, CISM, ITIL, PMP sont un plus.
Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)
Publiée le
Agile Scrum
Angular
Apache Kafka
12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Offre d'emploi
Expert·e Openstack
Publiée le
50k-70k €
Paris, France
Télétravail partiel
Pour le compte de l'un de nos clients du CAC 40, nous recherchons un·e Expert·e Openstack ! Vos missions seront : - Etre force de propositions sur le développement et le maintiens de nouvelles fonctionnalités - Pouvoir représenter le produit Openstack Cloud Service au seins de comités - Pouvoir apporter sa contribution à la roadmap et à la stratégie produit - Contribuer à l'amélioration continue du projet - Participer à la maintenance du produit et au dépannage - Cloud Computing : AWS, Azure, Google Cloud, bonnes pratiques du cloud OpenStack (niveau maîtrise requis) -Outils de gestion : Active Directory, DNS, DHCP, NMS (Network Management System) -Langages de Scripting : Python, PowerShell, Bash -DevOps et Automatisation : Jenkins, Ansible, GitLab, Nexus -Orchestration de conteneurs : Kubernetes
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Offre d'emploi
Lead Full Stack Developer & DevOps
Publiée le
CI/CD
Cloud
DevOps
2 ans
40k-77k €
400-550 €
Nanterre, Île-de-France
Télétravail partiel
Vous intégrerez une équipe dynamique en charge des pratiques de développement , du DevOps , du Cloud et du Numérique Responsable . L’objectif est de renforcer l’équipe avec plusieurs profils DevOps à forte dominante applicative , capables d’intervenir sur l’ensemble du cycle de vie logiciel — du développement à la mise en production — dans un environnement agile et collaboratif. Votre rôle : En tant qu’ Ingénieur DevOps Applicatif , vous participerez à la mise en œuvre et à l’industrialisation des solutions de développement et de déploiement. Vous serez le garant de la qualité, de la performance et de la fiabilité des environnements applicatifs, tout en contribuant à l’évolution des pratiques DevOps au sein de l’équipe. Vous interviendrez sur : Le développement applicatif en Java ; La mise en place et l’automatisation des pipelines CI/CD (GitLab CI, Jenkins, Azure DevOps...) ; Le déploiement et la gestion d’environnements Cloud (Azure, AWS ou GCP) ; L’ automatisation des infrastructures (Docker, Kubernetes, Terraform) ; Le monitoring et l’observabilité (ELK, Prometheus, Grafana) ; La promotion des bonnes pratiques DevOps (Infrastructure as Code, automatisation, tests, qualité de code).
Mission freelance
Consuntant FinOps / Financial performance
Publiée le
FinOps
9 mois
Auvergne-Rhône-Alpes, France
Télétravail partiel
Client : Grand Groupe Industriel – Lyon Durée : 9 à 12 mois Démarrage : début T1 2026 Mode : 3 jours sur site / 2 jours remote Budget : selon séniorité Description du poste Dans le cadre du renforcement de son équipe Cloud & FinOps, notre client — un grand groupe industriel international — recherche un Consultant FinOps / Financial Performance pour accompagner la gestion, l’optimisation et la gouvernance financière de ses environnements cloud (AWS, Azure, GCP). Votre mission consistera à structurer, piloter et améliorer la performance financière des plateformes cloud & SaaS, en collaboration étroite avec le responsable FinOps, les équipes Cloud Engineering, les Achats et les équipes Métiers. Vos responsabilités principales : 1. Pilotage et analyse financière du Cloud Suivi quotidien et mensuel des dépenses Cloud & SaaS. Analyse détaillée des coûts (AWS, Azure, GCP). Identification des dérives, anomalies et axes d’optimisation. 2. Gouvernance & optimisation FinOps Mise en place des modèles de gestion des coûts : allocation, chargeback/showback. Déploiement et suivi des politiques d’optimisation (réservations, Savings Plans, rightsizing, rationalisation, stockage). Définition des règles de tagging et des bonnes pratiques. Animation des comités FinOps. 3. Prévisions et budgétisation Construction des forecasts trimestriels et annuels. Participation aux travaux budgétaires avec les équipes finance. Anticipation des risques financiers liés aux évolutions de charge et aux nouveaux projets. 4. Reporting & communication Création et mise à jour des dashboards financiers et opérationnels (Power BI, Clic, équivalent). Production de rapports destinés aux équipes techniques, aux directions et aux métiers. Vulgarisation des enjeux financiers du cloud. 5. Support aux projets Cloud Accompagnement à la structuration des coûts dans les nouveaux projets. Revue des architectures sous l’angle performance financière. Interaction avec les fournisseurs cloud pour optimiser les engagements et contrats.
Mission freelance
Data Engineer (IA/Géospatial) (H/F)
Publiée le
MLOps
Python
6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Offre d'emploi
Data Architect / Data Engineer (H/F)
Publiée le
Cloud
1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Mission freelance
Data Engineer H/F
Publiée le
Azure
3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
137 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois