L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 859 résultats.
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Mission freelance
ML Engineer Lead Expert
Publiée le
MLOps
6 mois
600-800 €
Hauts-de-Seine, France
Et si c’était vous notre prochain(e) Data Engineer ? Chez CharliGroup, on pense qu’un bon environnement de travail, ce n’est pas juste une stack à jour ou des bureaux sympas. C’est aussi (et surtout) une équipe bienveillante, un accompagnement sincère et des opportunités d’évoluer à votre rythme, avec du sens. Aujourd’hui, on recherche un(e) ML Engineer/ Lead MLOPS pour renforcer notre équipe tech, dans le cadre d'une mission chez un client dans le secteur de l'Assurance Missions : Refactoriser, structurer et documenter la bibliothèque Python existante pour les simulations, l'inférence et l'analyse des modèles. Développer des pipelines robustes pour la simulation, la détection d'événements extrêmes, l'entraînement et l'évaluation des modèles. Optimiser l'utilisation d'un serveur (multi-)GPU pour les simulations et l'entraînement à grande échelle de l'IA. Encadrer l'équipe sur les meilleures pratiques en matière de code scientifique et d'utilisation des GPU. Expertise
Mission freelance
Intermediate Data Engineer
Publiée le
API
AWS Cloud
Big Data
12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Offre d'emploi
DATA ENGINEER SENIOR SCALA / PYSPARK / DATABRICKS / POWER BI
Publiée le
Dataiku
Microsoft Power BI
Python
3 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Offre d'emploi
Lead Technical Architect / Principal Engineer – Finance de Marché (H/F)
Publiée le
Calcul hautes performances (HPC)
Java
Python
3 ans
Île-de-France, France
Pour notre client dans le secteur de la banque d’investissement et des marchés financiers , nous recherchons un Lead Technical Architect / Principal Engineer afin d’accompagner la transformation et l’industrialisation de ses plateformes critiques dédiées aux activités de recherche quantitative , pricing , risk management , et traitement de données financières . L’environnement est international, collaboratif et techniquement exigeant, avec une forte interaction entre équipes Quant , Ingénierie , Data , IT et Production . Mission principale : Concevoir, piloter et optimiser l’architecture des systèmes quantitatifs et des chaînes de calcul haute performance, en garantissant leur robustesse, scalabilité et adéquation avec les besoins métier. Responsabilités : 1. Architecture & Design Concevoir et faire évoluer l’architecture globale des services quantitatifs (pricing, risk, simulations). Définir les standards technologiques et les bonnes pratiques pour des systèmes critiques. Repenser les composants historiques pour améliorer performances, latence, disponibilité et résilience. Sélectionner les langages, frameworks et paradigmes adaptés à des workloads intensifs. 2. Performance & Scalabilité Optimiser les infrastructures de calcul distribuées (compute grids, scheduling, parallélisation). Améliorer les pipelines de données financières (time-series, tick data, surfaces de volatilité). Assurer la haute disponibilité, la tolérance aux pannes, et des performances stables en charge. 3. Données de marché & Services Superviser l’architecture des systèmes de collecte, stockage et diffusion de données financières. Garantir la cohérence, la disponibilité et la performance des pipelines de données critiques. 4. Collaboration Transverse Travailler en étroite collaboration avec : les équipes Quant (modélisation, analytics), les équipes d’ingénierie logiciel et IT, la Data Engineering, les équipes Ops/Production. Transformer des besoins complexes en solutions industrielles fiables et pérennes. 5. Leadership Technique Être force de proposition sur l’évolution de la stack technique. Challenger les décisions technologiques et architecturales existantes. Encadrer techniquement des ingénieurs (sans dimension managériale obligatoire).
Offre d'emploi
DATA ENGINEER MICROSFT BI / POWER BI
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SSIS
3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons un Data engineer Microsoft BI / Power BI. Contexte : La poursuite de la mise en place de la plateforme décisionnelle au sein du SI de Covéa Finance, nous recherchons un développeur MS BI confirmé . Le consultant interviendra sur le développement, la maintenance évolutive et corrective du système décisionnel. Il sera rattaché hiérarchiquement au Responsable MOE E&D et intégré à l’équipe DWH pour répondre aux demandes tactiques de la plateforme décisionnelle du directeur de projet. Missions principales : Formaliser les spécifications fonctionnelles et analyser les besoins. Identifier les impacts sur l’existant et proposer des solutions techniques. Participer à la modélisation des données et aux choix d’architecture technique. Contribuer au plan de charge et à la définition du planning. Rédiger les spécifications techniques et documents d’exploitation. Développer les nouvelles demandes : intégration de données, création de cubes tabulaires , rapports et dashboards. Assurer le déploiement en homologation et production. Accompagner la MOA et les métiers lors des phases de recette. Support et maintenance corrective (niveau 3). Remonter les informations et indicateurs à son responsable hiérarchique. Compétences techniques indispensables : Expertise sur Microsoft Fabric / MS BI . Maîtrise SQL et T-SQL . Développement et maintenance de SSRS et cubes tabulaires . Expérience en Power BI : dashboards, modélisation, DAX. Bonne compréhension des processus décisionnels et reporting métier . Compétences transverses : Esprit d’analyse et rigueur. Capacité à travailler en équipe et à collaborer avec les équipes métier et infrastructure. Autonomie et force de proposition. Bon relationnel et sens du service client interne. Localisation :
Mission freelance
DATA ENGINEER - SNOWFLAKE
Publiée le
Snowflake
6 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation de la plateforme data , notre client recherche un Data Engineer expérimenté (5 à 10 ans d’expérience) pour renforcer son pôle Data & Cloud Engineering. La mission s’inscrit dans un environnement à forte composante technologique, reposant sur une architecture cloud-first hébergée sur AWS , et visant à industrialiser, fiabiliser et automatiser les traitements de données à grande échelle. Le consultant interviendra sur la conception et l’optimisation des pipelines de données (Snowflake, DBT, Pandas), la gestion de l’infrastructure via Terraform , et la mise en place de processus de monitoring, sécurité et SLA . L’objectif principal est de garantir la performance, la qualité et la traçabilité des données tout en accompagnant la transformation digitale de l’entreprise dans un cadre agile et collaboratif .
Mission freelance
Software engineer C# .net / Bordeaux
Publiée le
.NET
1 an
400-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
🎯 Contexte Nous recherchons un développeur backend freelance pour renforcer une équipe tech produit basée à Bordeaux . L’objectif : concevoir et faire évoluer des microservices cloud AWS au sein d’une architecture event-driven moderne, avec une forte attention portée à la scalabilité , à la fiabilité et à l’ observabilité . ⚙️ Stack technique Langage : TypeScript (Node.js) Cloud : AWS (ECS Fargate, Lambda, S3, CloudWatch) Bases de données : MongoDB, Amazon Neptune Event-driven : SQS / SNS AI / Python : intégration de modules IA (LLM, services internes, etc.) Observabilité : Dynatrace, Elastic, Grafana, Datadog CI/CD & Infra : GitLab CI, Terraform, Docker 🧩 Missions Développer et maintenir des microservices backend scalables sur AWS Implémenter et optimiser des workflows asynchrones (SQS / SNS) Travailler en collaboration avec les équipes Data & AI sur des intégrations Python Mettre en place et suivre la supervision / observabilité (Dynatrace, Datadog, etc.) Participer à la conception technique , au code review et à la qualité globale du delivery
Offre d'emploi
Site Reliability Engineer Linux / AWS
Publiée le
Administration linux
AWS Cloud
Docker
40k-45k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Rattaché·e au Responsable infrastructure, au sein de l’équipe SRE, vous jouerez un rôle clé dans la gestion et l’évolution de notre infrastructure, composée de serveurs bare metal et de ressources cloud. Votre mission sera d’assurer la fiabilité, la performance et la sécurité de nos environnements de production, tout en veillant à leur amélioration continue. Concrètement, vous prendrez en charge l’exploitation quotidienne des serveurs, en garantissant leur disponibilité et leur bon fonctionnement. Vous assurerez une surveillance constante de l’infrastructure afin de détecter tout incident, d’en analyser les causes et d’y apporter des solutions durables. Vous serez également responsable des mises à jour systèmes et applicatives, en veillant à respecter les meilleures pratiques ainsi que les exigences de conformité liées à notre certification. Une part essentielle de votre rôle consistera à automatiser les opérations récurrentes afin de fluidifier les processus internes et d’augmenter l’efficacité globale de l’équipe. Vous collaborerez étroitement avec les équipes de développement et de QA, en leur fournissant les environnements nécessaires ( serveurs, clusters Kubernetes, bases de données) pour garantir un cycle de vie logiciel fiable et performant. Enfin, vous participerez activement à la conception et à la mise en place de nouvelles solutions techniques visant à optimiser l’évolutivité et la sécurité de notre plateforme. Environnement technique : Linux (requis), AWS (requis), Docker (requis), Kubernetes (requis), Ansible (souhaité), Terraform (souhaité), Python, Bash (requis), MySQL (souhaité), PostgreSQL (souhaité),
Mission freelance
Data Engineer Azure / Snowflake
Publiée le
Azure
Databricks
Snowflake
12 mois
Paris, France
Télétravail partiel
Contexte Un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data & Analytics dans le cadre d’un programme stratégique d’industrialisation de la donnée. Missions • Concevoir, développer et maintenir les pipelines de données sur Azure. • Garantir la qualité, la fiabilité et la performance des traitements. • Participer à la modélisation et à l’optimisation des entrepôts de données. • Intégrer et exploiter Snowflake pour la gestion et la transformation des datasets. • Collaborer avec les équipes Data Science, Architecture et Produit. • Contribuer à la mise en place de bonnes pratiques CI/CD, sécurité et monitoring. Compétences techniques attendues • Maîtrise d’Azure Data Platform (ADF, Databricks, Data Lake, Synapse). • Solide expérience en Databricks (PySpark impératif). • Très bonne compréhension de Snowflake : ingestion, transformations, optimisation. • Compétences avancées en Python. • Connaissance des architectures data orientées cloud. • Bonne pratique CI/CD (Azure DevOps). • Compréhension des enjeux de qualité, performance et gouvernance data. Profil recherché • 5 à 6 ans d’expérience en Data Engineering. • Expérience en environnement cloud Azure indispensable. • Expérience confirmée sur Snowflake appréciée et attendue. • Capacité à travailler dans des environnements complexes. • Aisance en communication et travail en équipe. Environnement de travail • Projet data stratégique à très forte visibilité. • Équipe internationale et pluridisciplinaire. • Environnement cloud moderne et structuré. • Mission long terme.
Offre d'emploi
Staff Engineer IA / IA Générative
Publiée le
AWS Cloud
Docker
Git
6 mois
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de l’accélération de sa stratégie autour de l’Intelligence Artificielle et de l’IA Générative, un groupe industriel international de premier plan recherche un(e) Staff Engineer pour renforcer son équipe AI Activation . Vous interviendrez en tant que référent technique transverse sur plusieurs projets IA stratégiques (Data, Machine Learning, LLM, RAG…), avec un double enjeu : accompagner les projets de bout en bout (de la conception à la mise en production), et contribuer à la définition d’un cadre technique commun garantissant cohérence, sécurité, performance et scalabilité des solutions IA du groupe. Vous serez le garant des bonnes pratiques d’ingénierie et de la qualité globale de l’écosystème technique IA. Objectifs et Livrables : Accompagner et encadrer techniquement plusieurs projets IA / GenAI (design, implémentation, mise en production). Définir, formaliser et promouvoir les bonnes pratiques techniques : MLOps, LLMOps, DevSecOps, architectures cloud. Concevoir des architectures de référence pour les solutions IA, robustes, sécurisées, scalables et maintenables. Industrialiser les usages IA : mise en place de pipelines, intégration dans les chaînes CI/CD, automatisation et monitoring des workloads. Assurer la cohérence technique entre les différents projets IA / GenAI portés par le groupe. Contribuer à la construction et à l’évolution du socle commun “AI Platform” sur lequel s’appuient les équipes projet. Encadrer, coacher et faire monter en compétence les ingénieurs data, ML et software (revues de code, pair design, partage de bonnes pratiques). Assurer une veille technologique active sur les briques IA / GenAI (LLM, RAG, orchestrateurs, vector DB, frameworks, etc.) et proposer leur intégration quand pertinent.
Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)
Publiée le
AWS Cloud
Azure
CI/CD
1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Mission freelance
Ingénieur Électronique & Firmware Embarqué
Publiée le
Hardware
12 mois
Haute-Vienne, France
Télétravail partiel
Pour l’un de nos clients, nous recherchons un Ingénieur Électronique & Firmware Embarqué. Missions principales : Profil recherché : Formation : Bac+5 (école d’ingénieur ou équivalent) en électronique, systèmes embarqués ou domaine similaire. Expérience : Débutant accepté. Compétences techniques : Connaissances en électronique analogique ou numérique. Maîtrise des outils de conception électronique (KiCad, Altium ou équivalent). Programmation embarquée (C/C++, microcontrôleurs ARM, STM32…). Connaissance du protocole Zigbee (un plus). Bonne compréhension des normes CEM et sécurité électrique. Qualités personnelles : Rigueur, autonomie et esprit d’équipe. Capacité à gérer plusieurs projets en parallèle. Lieu : Haute-Vienne Pas de sous-traitance Mission : 1 an, renouvelable
Mission freelance
AI Engineer
Publiée le
AI
AWS Cloud
Azure
12 mois
500-800 €
75017, Paris, Île-de-France
Télétravail partiel
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
Mission freelance
Data Engineer Expert DataVault - Snowflake / dbt– Azure
Publiée le
Azure
Azure DevOps
DBT
3 mois
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Engineer avec une expertise confirmée en modélisation DataVault (compétence indispensable) ainsi qu’une maîtrise de dbt et Snowflake , dans un environnement Azure . La mission s’inscrit dans une transformation Data stratégique visant à industrialiser et standardiser les flux de données. Missions : Concevoir, développer et faire évoluer la plateforme Data basée sur Snowflake et dbt. Modéliser, structurer et optimiser les modèles DataVault (Hubs, Links, Satellites) . Industrialiser, automatiser et fiabiliser les pipelines ETL/ELT . Contribuer à la mise en place et au respect de l’approche ATDD . Assurer la qualité, la traçabilité et la cohérence des produits data. Collaborer avec les équipes Data, Engineering et Projets pour garantir la valeur des solutions livrées.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
859 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois