Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Data Engineer confirmé GCP / dbt / Looker | Full remote (Maghreb)
Nous recherchons un Data Engineer pour intervenir en prestation (nearshore) dans le cadre d’un projet de transformation data ambitieux chez un acteur majeur du retail . L’objectif ? Concevoir, piloter et opérer des systèmes analytiques robustes, scalables et sécurisés, tout en encadrant techniquement une équipe de data engineers. 📍 Localisation : Nearshore (Full remote) 📅 Démarrage souhaité : 3 juin 2025 ✨ Ce que tu feras au quotidien Concevoir et opérer des pipelines data de bout en bout (ingestion, traitement, modélisation, valorisation, restitution) Développer et maintenir les applications back-end d’une plateforme data & analytics Garantir la qualité, la sécurité, l’observabilité et la scalabilité des solutions déployées Implémenter des couches sémantiques et des modèles de données pour la visualisation Participer activement à toutes les étapes du cycle de développement logiciel (conception, code, tests, CI/CD, déploiement) Collaborer avec les équipes business, produit et design dans une méthodologie Scrum 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, Cloud Functions, Pub/Sub, Cloud Composer) Transformation : DBT (data build tool) Visualisation : Looker (LookML) Langages : SQL, Python CI/CD & Qualité : Git, GitLab, tests automatisés, linting, Sonar Observabilité : monitoring, alerting, logging
Mission freelance
Data Engineer (GCP/Talend)
• Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Mission freelance
Tech Lead Data Engineer - Secteur Retail - IDF (H/F)
Contexte du poste Rejoignez notre Centre d'Excellence Digital au sein d'une entreprise leader dans le secteur de la distribution. Basée à Chatillon, notre équipe est à la pointe de la transformation numérique, en particulier sur les projets de données et d'analytics visant à optimiser les performances commerciales de nos points de vente. Dans un contexte d'industrialisation accélérée et d'organisation agile, nous recherchons un Tech Lead Data Engineer pour renforcer notre équipe Data Lab. Votre rôle est crucial dans des projets ambitieux destinés à concevoir et déployer des produits analytiques innovants pour l'ensemble des fonctions métiers. Ce poste est à pourvoir dans une optique de prolonger notre croissance et d'accompagner notre transformation digitale. Missions Principales Missions : Assurer un leadership technique auprès des équipes de développement et coordonner les activités autour de Databricks, Spark et Azure. Conseiller et accompagner les parties prenantes dans la traduction des exigences stratégiques en solutions techniques sécurisées, scalables et fiables. Réaliser la conception technique des applications, des échanges et garantir la qualité des livrables tout en veillant à réduire la dette technique. Faire de la veille technologique et participer activement aux proof-of-concepts (POCs). Missions Annexes : Enrichir la communauté Data Engineers via le partage de connaissances. Participer aux phases de développement et aux tests des solutions.

Mission freelance
Data Scientist GenAI - GCP (h/f)
Emagine recherche pour l’un de ses clients grand compte un data scientist GenAI - GCP. Durée : >12 mois Lieu : 95 Télétravail : 3 jours par semaine. Démarrage : ASAP Résumé Rôle de Data Scientist pour soutenir l’activité et l'adoption de l'IA générative (GenAI). Responsabilités : Concevoir et implémenter des agents d'IA sur GCP/Vertex AI. Industrialiser les composants via des pipelines MLOps robustes. Assurer l'interprétabilité et la fiabilité des prévisions. Communiquer avec les équipes métier par le biais de présentations et de rapports. Must Haves : Formation Bac+5 en Data Science, Statistiques, Mathématiques ou équivalent. Expertise en GenAI. Expérience solide en Python et bibliothèques ML (scikit-learn, TensorFlow, etc.). Expertise en GCP (BigQuery, Cloud Functions) et Vertex AI. Très bonnes compétences en MLOps (CI/CD, versioning, monitoring). Connaissance de fastapi, Langchain, streamlit. Anglais courant impératif. Nice to Haves : Connaissance approfondie des méthodologies d'apprentissage automatique. Expérience dans la mise en œuvre de solutions d'IA dans des environnements de production. Certifications en Data Science ou en IA. Other Details : Contexte : Adoption de l'IA générative au sein de l'entreprise. Lieu : Remote ou sur site selon les besoins. Équipe : Collaborer avec les équipes interfonctionnelles dans un environnement agile.

Offre d'emploi
ARCHITECTE GCP et AZURE (600€ max)
Expertise avérée en conception et mise en œuvre d'architectures sur Google Cloud Platform (GCP) (Cloud Run, GKE, Cloud Storage, BigQuery, Pub/Sub, Cloud Functions, VPC, IAM, etc.) et AZURE Solide expérience dans la définition de stratégies Cloud et la création de roadmaps techniques. Excellentes capacités rédactionnelles pour la production de documents techniques clairs et précis (DAT, best practices, schémas d'architecture). Expérience confirmée dans la réalisation de PoC et l'évaluation critique de nouvelles technologies Cloud. Maîtrise des concepts et outils de gouvernance Cloud (Policies, Security Command Center, outils FinOps..). Capacité avérée à animer des ateliers, à former et à vulgariser des concepts techniques complexes auprès de publics variés. Autonomie, proactivité, rigueur et excellentes compétences en communication et en Forte sensibilité aux aspects de sécurité Cloud (Security by Design) et de résilience des architectures. Excellentes compétences en résolution de problèmes et capacité d'adaptation face aux évolutions rapides des technologies Cloud.

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Mission freelance
Data engineer
Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables • Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques.

Offre d'emploi
Tech Lead Data Engineer H/F
Principales missions : -Assurer un leadership technique auprès des équipes de développement. -Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. -Participer activement aux phases de conception, développement et tests. -Porter la vision technique au sein des équipes Agile. -Garantir la qualité des livrables et veiller à la réduction de la dette technique. -Réaliser la modélisation des données. -Assurer une veille technologique et participer aux POCs. -Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des CONCEPTION S'assure de l'exhaustivité et de la pertinence des spécifications confiées aux développeurs Coordonne les plans de développements et activités des développeurs sur l'ensemble des composants logiciels impactés Réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants existants DÉVELOPPEMENT Elabore, maintient et renforce les directives d'intégration logicielle et réalise la conception technique des applications et des échanges dans le cadre de projets et évolutions en privilégiant la réutilisation des composants Aligne son travail avec les principes d'urbanisation et les directives générales d'intégration logicielle préconisée par l'Architecture Transverse Supervise les aspects techniques d'un projet (à la demande du responsable de pôle) Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Valide le design du logiciel et propose les frameworks utilisés dans le cadre du projet NORMALISATION ET QUALITÉ Assure la qualité du code des programmes informatiques Elabore et maintient les normes et patterns spécifiques d'intégration ainsi que leur diffusion auprès des développeurs et assure que ces normes / patterns sont bien suivies par l'équipe Est responsable également de l'élaboration et du maintien des abaques de coûts / délais nécessaires en regard des services fournis Assure la qualité des environnements de développement, des développements, du packaging et le bon usage des technologies à travers des audits de code Fait une veille permanente sur les évolutions technologiques ASSEMBLE LES COMPOSANTS ET PRÉPARE LA LIVRAISON DE SOLUTIONS Dans le cadre de projets, assemble les composants unitaires dans un package cohérent destiné au déploiement de la solution et le met sous gestion de configuration Assure la mise à disposition des environnements de développement Définit et administre une bibliothèque de composants logiciels, normes et patterns et assure la documentation de ces composants réutilisables dans la documentation ASSURE LE SUPPORT DE NIVEAU 3 Assure le support N3 pour la résolution de problèmes avec des composants développés par l'équipe et déployés dans les environnements Contribue à la rédaction des contrats de TMA en y intégrant les normes techniques COMMUNICATION ET VEILLE TECHNOLOGIQUE Assure une veille permanente sur les évolutions technologiques Assiste le responsable de pôle à identifier les axes d'amélioration technique et des compétences à développer
Offre d'emploi
Ingénieur Cloud (GCP / AWS)
En tant qu’Ingénieur d’étude et développeur, vos missions principales seront de : - Concevoir la solution ; - Paramétrer, développer et qualifier des solutions applicatives ; - Établir l’analyse et le diagnostic sur les incidents et les éradiquer ; - Mettre en place, mener ou piloter le déploiement des applications développées ; - Rédiger ou participer à la rédaction des dossiers de conception générale et/ou détaillée ; - Analyser les traitements pour réaliser les études détaillées ou les études d’impact. L'expertise attendue : • Expertise et expérience significative sur Terraform. • Définition de module Terraform • Expertise sur le Cloud GCP et AWS si possible . • Maitrise des outils de déploiement automatisés • Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python • Connaissance sur les technologies kubernetes

Mission freelance
Data Engineer (GCP / Python / DBT)
Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Offre d'emploi
DevOps GCP
Missions principales Concevoir, déployer et maintenir des infrastructures GCP (Compute Engine, GKE, Cloud Storage, BigQuery, Pub/Sub, VPC, IAM, etc.). Mettre en place et gérer des pipelines CI/CD pour les projets cloud (Cloud Build, GitHub Actions, Jenkins, GitLab CI). Automatiser le déploiement et la gestion des ressources via Infrastructure as Code (Terraform, Deployment Manager, Ansible). Assurer la supervision, le monitoring et l’alerting (Stackdriver, Cloud Monitoring, Prometheus, Grafana). Implémenter les bonnes pratiques de sécurité GCP et assurer la conformité (IAM, gestion des secrets, audit). Collaborer avec les équipes Développement et Data pour optimiser l’architecture cloud et les processus de déploiement. Participer à la résolution d’incidents et à l’amélioration continue des environnements cloud.

Mission freelance
Administrateur Google Workspace (Niort - 3 jours par semaine sur site)
Dans le cadre de la gestion de sa Digital Workplace, un grand groupe mutualiste ayant fait le choix de la solution Google Workspace (déployée auprès de plus de 13 000 collaborateurs), recherche un Ingénieur de production pour intervenir au sein de l’équipe Service Delivery du département IT interne. Le consultant interviendra en renfort de l’équipe en charge de l’administration, du maintien en condition opérationnelle et de l’évolution de la plateforme Google Workspace , en lien étroit avec les experts de la solution. 🛠️ Missions principales Le consultant intégré à l’équipe aura en charge : La supervision de l’ensemble des outils de la plateforme Google Workspace. Le diagnostic, traitement et résolution des incidents techniques et utilisateurs (niveaux 2 et 3). La mise en œuvre des évolutions (demande de services, changements, optimisations). La rédaction des documents d’exploitation et de support technique/fonctionnel. L’ accompagnement des phases de tests et le déploiement en production . La production des PV de validation des exigences non fonctionnelles. La rédaction de la documentation d’installation, de configuration et des guides d’usage à destination des équipes de support N1/N3. Le respect des SLA et des processus ITSM en matière de gestion des incidents et des demandes. ✅ Livrables attendus Documentation technique (installation, configuration, exploitation) PV de validation des exigences non fonctionnelles Guides utilisateurs et supports pour le support N1/N3 Reporting des incidents et suivi des demandes (dans le respect des SLA) Participation aux comités techniques ou d’évolution (si nécessaire)

Offre d'emploi
Data Architecte - Lyon
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre d'emploi
Junior Développeur Full Stack Java Angular (H/F) – Portage
Type de contrat : Portage Disponibilité : ASAP TT – 3 jours Description du poste : Nous recherchons un Junior Développeur Full Stack Java Angular (3 ans d’expérience en alternance ou CDI). Développement d’un projet Java Angular déployé sur Google Cloud Platform (GCP), notamment sur Google Kubernetes Engine (GKE). Vous participerez également aux migrations de composants existants vers Java 17 et Angular 17, et contribuerez à l’amélioration des indicateurs Sonar et CheckMarks afin d’assurer une couverture de tests optimale pour les projets Asset et Data. Missions : -Développement backend en Java avec frameworks Spring et Hibernate. -Développement frontend en Angular (version 17+). -Conception et développement d’API RESTful. -Migration et modernisation de composants existants. -Optimisation des indicateurs qualité (Sonar, CheckMarks). -Participation aux phases de tests unitaires et d’intégration.

Offre d'emploi
Développeur Fullstack Java / Angular – GCP
Description du poste : Nous recherchons un Développeur Fullstack Java / Angular pour rejoindre une équipe dynamique et contribuer à la mise en œuvre et au développement d’un projet stratégique déployé sur Google Cloud Platform (GCP) , principalement sur Google Kubernetes Engine (GKE) . Vous participerez également aux migrations de composants existants vers Java 17 et Angular 17 , et serez impliqué dans l’amélioration continue de la qualité logicielle à travers les indicateurs Sonar et CheckMarks , afin de garantir une couverture de tests optimale sur des projets applicatifs et data. Missions principales : Développement et évolution d’applications Java/Angular. Migration de composants vers Java 17 et Angular 17. Mise en place et optimisation de déploiements sur GCP (GKE). Conception et développement d’API RESTful. Contribution à l’amélioration des indicateurs qualité (Sonar, CheckMarks). Participation aux phases de tests unitaires, d’intégration et à la CI/CD. Collaboration avec les équipes projets (développeurs, architectes, chefs de projet).
Mission freelance
Architecte AWS/GCP
Bonjour, Je suis à la recherche Architecte AWS/GCP: Missions principales : Ø Accompagner le plan d’urbanisation du SI vers la cible SoCloud Ø Identifier les applications candidates à la migration, analyser leur architecture et proposer des trajectoires de transformation Ø Réaliser des études d’impacts techniques et fonctionnelles Ø Définir les patterns d’architecture cible pour les applications migrées Ø Rédiger et maintenir les schémas d’architecture (applicative, technique, fonctionnelle) Ø Produire les matrices de flux inter-applicatives Ø Garantir la cohérence des architectures avec les principes d’urbanisation du SI Ø Participer à la modélisation des composants techniques et applicatifs Ø Assurer la résilience, la scalabilité et la sécurité des architectures proposées
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- De AI-Revolutie: De Impact en Toekomst van ChatGPT
- Redressement massif pour les SASU à l’IR
- Je me présente, je suis consultante SEO
- L'IA ou les "IA" et le SEO (Référencement Naturel)
- Je suis développeur Web et Consultant SEO.
- Freelances : que pensez-vous d’un agent IA qui décroche des missions et gère votre quotidien ?