Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 299 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Dataiku
Microsoft Power BI
PySpark

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
CDI

Offre d'emploi
CAD Designer & Stress Engineer – Aéronautique / Spatial (H/F) - Toulouse (31)

Publiée le

42k-47k €
Toulouse, Occitanie
Vous souhaitez concevoir des structures aéronautiques ambitieuses et en garantir la tenue mécanique, du concept à la certification ? Nous vous proposons d’intervenir sur des structures composites et métalliques à forte exigence. En tant que CAD Designer & Stress Engineer , vous évoluerez au sein d’équipes pluridisciplinaires (design, stress, manufacturing, qualité, certification) et interviendrez sur l’ensemble du cycle de vie : conception CAO , analyses de dimensionnement, revues de conception , préparation des essais et constitution des dossiers de certification . Un peu plus de détails -Concevoir des pièces et sous-ensembles conformément aux exigences produit/process. -Produire les plans et mettre à jour les nomenclatures. -Assurer la traçabilité dans le système de gestion de configuration (PLM) . -Collaborer étroitement avec les équipes stress, industrialisation et qualité. -Réaliser le dimensionnement détaillé via calculs classiques et simulation éléments finis (FEA) . -Valider les rapports de calcul et contribuer aux dossiers de certification . -Participer à la campagne d’essais structuraux . Environnement technique - CAO/PLM : CATIA V5/V6, Windchill (ou équivalents), outils de gestion de configuration & change control. - FEA : Abaqus, Nastran, ANSYS, HyperMesh. - Composites : prepreg/autoclave, RTM , AFP/ATL , post-traitements, NDT. - Outillage & scripting : Python / MATLAB pour post-traitements/calculs. - Qualité/Certif : exigences EASA/FAA , documentation et traçabilité.
Freelance

Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform

Publiée le
AWS Cloud
DevOps
Linux

12 mois
600-650 €
Paris, France
Télétravail partiel
Mission L’équipe Platform Engineering du client est au cœur de la livraison de nos produits en fournissant une plateforme cloud fiable, sécurisée et scalable. En tant qu’Ingénieur DevOps (AWS/Terraform), votre mission est de concevoir, industrialiser et opérer la plateforme et les outils qui permettent aux équipes de construire, déployer et faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Tâches principales Dans cette mission d’Ingénieur Plateforme Cloud Data, vous aurez les responsabilités suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, data, edge) alignés avec des standards d’architecture robustes et les bonnes pratiques AWS. Faire évoluer une architecture multi-comptes (AWS Organizations, Control Tower/SCPs, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et scalable. Définir des blueprints d’infrastructure et d’applications (« golden paths ») pour des workloads conteneurisés (EKS/ECS/Fargate), serverless (Lambda) et traditionnels (EC2/ASG), incluant le réseau, l’observabilité et la sécurité. Construire et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), incluant les tests, le policy-as-code (OPA/Conftest), la sécurité (tfsec/Checkov) et l’automatisation des plans/apply (Atlantis/Spacelift/Terraform Cloud). Exploiter et renforcer la plateforme : supervision/alerting/logging/tracing (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog), définition des SLI/SLO, gestion de la capacité, sauvegardes et reprise après sinistre. Sécuriser l’environnement : IAM à privilèges minimaux, KMS, Secrets Manager, patching, gestion des secrets (SOPS), scan des IaC et des images. Gérer Terraform à grande échelle : state distant (S3 + verrouillage DynamoDB), stratégie de versioning, cycle de vie des modules, patterns multi-environnements, détection et remédiation du drift. Accompagner les équipes du client dans la migration des workloads on-premise vers AWS : évaluations, sélection des patterns, adoption de templates, outillage et coaching pour l’auto-service. Identifier et automatiser les tâches répétitives (outillage Bash/Python, automatisation Terraform ou copilotes IA) afin d’accélérer les déploiements et les migrations. Contribuer au support N2/N3, à la gestion des incidents et aux post-mortems ; produire une documentation claire et assurer le transfert de connaissances. Qualifications / Compétences requises Minimum 3 ans d’expérience en DevOps/SRE/Platform Engineering et au moins 2 ans d’expérience en production sur AWS. Diplôme Bachelor ou Master en Informatique/Ingénierie (ou équivalent). Excellente maîtrise de Terraform : conception de modules, providers, gestion du state, structuration et bonnes pratiques, tests et releases. Expertise approfondie AWS : VPC/Transit Gateway, IAM, EC2/ASG, EKS/ECS/Fargate, RDS, DynamoDB, S3, ALB/NLB, Route 53, Lambda, CloudWatch, Systems Manager, KMS, Organizations/Control Tower. Solides compétences Linux, réseaux (TCP/IP, DNS, TLS) et scripting (Bash) ; Python pour l’outillage et les intégrations. Fortes pratiques DevOps et expérience CI/CD ; Git, MR/revue de code. Conteneurs et orchestration (Docker, Kubernetes/EKS), packaging (Helm), registry et sécurité de la supply chain. Excellentes capacités de collaboration ; aptitude à traduire les besoins produit en solutions techniques simples, robustes et sécurisées. Bonus Expérience des méthodes agiles (Scrum/Kanban) et culture produit (roadmaps, discovery, boucles de feedback). Certifications appréciées : AWS Solutions Architect/DevOps Professional, HashiCorp Terraform Associate, CKA/CKAD. Familiarité avec des outils tels que Terragrunt, Atlantis/Spacelift/Terraform Cloud, Argo CD/Flux (GitOps), Packer. Forte sensibilité sécurité et conformité en environnement cloud.
Freelance

Mission freelance
Founding Engineer TypeScript / Node.js / IA / LLM

Publiée le
AWS Cloud
Large Language Model (LLM)
Node.js

12 mois
Paris, France
Contexte de la mission Un client confidentiel du secteur transport/logistique, financé par des fonds d’investissement de premier plan, lance un projet stratégique visant à révolutionner la gestion du transport routier à l’aide d’agents d’intelligence artificielle. Dans ce cadre, l’entreprise recherche un Founding Engineer spécialisé en TypeScript / Node.js et IA pour rejoindre une équipe technique restreinte composée du CTO et de trois développeurs confirmés. La mission se déroule entièrement en présentiel afin de favoriser la co-construction rapide du produit et des itérations techniques rapprochées. Objectifs et responsabilités Le consultant interviendra sur la conception et la mise en place du socle technique du produit, incluant : • Concevoir, développer et déployer des APIs robustes et scalables • Structurer les flux de données provenant de systèmes TMS, appels, messages et autres sources • Collaborer étroitement avec le CTO et les utilisateurs opérationnels pour la construction du MVP • Participer au lancement d’un projet innovant d’IA temps réel (audio) • Assurer un rôle majeur sur le backend, la data et l’ingénierie IA • Mettre en place l’observabilité : monitoring, logs, métriques et alerting • Contribuer aux choix d’architecture, arbitrages techniques et discussions produits • Participer au déploiement, aux tests et aux itérations rapides en environnement startup Profil recherché Compétences indispensables • Ingénieur fullstack avec forte orientation backend et data • Minimum 4 ans d’expérience significative sur Node.js et TypeScript • Forte expertise Backend et Data Engineering • Expérience avérée dans un environnement startup, scale-up, licorne ou rôle de Founding Engineer • Avoir déjà lancé un produit from scratch • Niveau attendu : Staff Engineer ou Principal Engineer • Capacité à raisonner en approche “problème → solution” • Grande rapidité d’itération : tester, ajuster, apprendre, recommencer • Capacité à échanger directement avec les utilisateurs métier (transporteurs, brokers) • Connaissance pratique des LLM et de l’IA appliquée • Flexibilité sur les horaires lors des phases de mise en production (soir, week-end si nécessaire) Compétences appréciées (bonus) • Expérience en IA agentique (agents autonomes) • Connaissances poussées en prompting, grounding, fallback, monitoring IA • Amélioration des performances d’agents en production • Contribution à l’architecture produit à grande échelle Stack technique actuelle • Node.js / TypeScript (backend principal) • Python (agents IA) • PostgreSQL • API REST, WebSocket • AWS (architecture scalable), Kubernetes
CDI
Freelance

Offre d'emploi
Plateform Engineer confirmé (H/F) – Domaine Spatial – Toulouse

Publiée le
DevOps

12 mois
48k €
400-550 €
Toulouse, Occitanie
Télétravail partiel
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Plateform Engineer confirmé pour intervenir chez un de nos clients dans le domaine spatial 💻💼 à Toulouse. Nous cherchons un·e Platform Engineer confirmé·e qui a déjà les mains dans Kubernetes au quotidien, qui maîtrise Terraform et ArgoCD, et qui a contribué à la mise en place d’une Developer Platform ou d’un portail Backstage. En bref : quelqu’un qui aime créer des environnements où les développeurs peuvent aller vite, en sécurité, et sans friction. Voici un aperçu détaillé de vos missions 🎯 : * Concevoir et opérer une plateforme de delivery : CI/CD, provisioning, observabilité, sécurité… * Automatiser le déploiement et la gestion d’environnements cloud (souvent Kubernetes + IaaS/PaaS). * Intégrer, optimiser et maintenir des outils comme Backstage , Crossplane , ArgoCD (GitOps). * Mettre en œuvre et promouvoir l’ Infrastructure as Code (Terraform, Helm, Ansible…). * Travailler main dans la main avec les équipes de dev pour améliorer l’UX développeur, la productivité et la fiabilité. * Déployer des standards d’observabilité : logs, métriques, traces. * Garantir des pipelines sécurisés et une plateforme robuste.
Alternance

Offre d'alternance
Alternant Cloud Engineer - AIgmented

Publiée le
Cloud
DevOps

12 mois
Mulhouse, Grand Est
🎯 Mission principale Concevoir, développer et maintenir une infrastructure cloud sécurisée, scalable et industrialisée (CI/CD), basée sur des conteneurs (Docker) et de l’orchestration (Kubernetes), en garantissant la bonne gestion des ressources informatiques et des accès utilisateurs. 🧩 Responsabilités 1. Architecture & développement Cloud Concevoir et mettre en œuvre des architectures cloud (on-premise, cloud public ou hybride). Conteneuriser les applications existantes et nouvelles (Docker). Déployer et maintenir des clusters Kubernetes (K8s) pour les environnements de dev, test et prod. Mettre en place des workflows CI/CD (GitLab CI, GitHub Actions, Jenkins, etc.). 2. Orchestration & gestion des ressources Dimensionner et optimiser l’usage des ressources (CPU, RAM, stockage, GPU si besoin). Gérer les namespaces, quotas, autoscaling (HPA/VPA), nodes pools, etc. Suivre les performances et coûts (monitoring, alerting, dashboards). 3. Cybersécurité & gestion des accès Définir et appliquer les politiques de sécurité (RBAC, gestion des rôles, secrets, certificats). Mettre en œuvre la sécurité des conteneurs (scans d’images, durcissement, politiques réseau). Gérer les identités et accès (IAM, SSO, OAuth2, Keycloak/AD, etc.). Participer aux revues de sécurité et à la gestion des incidents (logs, traces, audits). 4. Supervision, fiabilité & exploitation Mettre en place le monitoring (Prometheus, Grafana, ELK/EFK, OpenTelemetry…). Assurer la haute disponibilité et la résilience (backups, DRP, redondance). Documenter les procédures d’exploitation, de déploiement et de reprise. 5. Collaboration & support Travailler en étroite collaboration avec les équipes de dev, data/IA et produit. Accompagner les développeurs pour adapter leurs applis au modèle cloud natif. Participer à l’amélioration continue des pratiques DevSecOps.
Freelance

Mission freelance
Data engineer (H/F)

Publiée le
Dataiku
ELK

1 an
400-460 €
Châtillon, Île-de-France
Télétravail partiel
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
CDI

Offre d'emploi
Senior Frontend Engineer

Publiée le
Datadog
Github
Kanban

60k-70k €
Paris, France
Télétravail partiel
Nous recherchons un développeur frontend capable de prendre en main plusieurs applications web (back-office, interfaces utilisateurs, espaces dédiés) et d’assurer la qualité, les performances et la responsivité des interfaces. La mission consiste à implémenter des fonctionnalités de bout en bout, en collaboration avec l’équipe backend, et à contribuer à l’évolution continue de la stack frontend. Le rôle inclut également l’identification proactive de problèmes (UI, bugs graphiques, performance) ainsi que leur résolution. L’environnement de travail comprend un MacBook Pro, l’IDE de votre choix, l’usage d’outils d’IA pour améliorer la productivité, ainsi qu’un workflow basé sur GitHub, GitHub Actions, Datadog, Notion et Codecov. L’organisation interne suit une méthodologie Kanban.
Freelance

Mission freelance
Tech Lead / Senior DevOps SRE (Site Reliability Engineer)

Publiée le
CI/CD
DevOps
Incident Management

2 ans
600-700 €
Évry, Île-de-France
Télétravail partiel
Dans le cadre de l’amélioration continue de sa plateforme de paiement, notre client – acteur majeur du secteur de l’hôtellerie – renforce son équipe SRE au sein de la Digital Factory. Nous recherchons un Tech Lead/ Senior SRE capable de porter la vision technique de la Platform Team et d’assurer la disponibilité, la résilience et la performance d’environnements cloud essentiels pour le fonctionnement des services de paiement. En tant que Tech Lead / Senior SRE, votre mission : Participer à l’ensemble des activités SRE tout en soutenant et en portant la vision technique de l’équipe. Concevoir et mettre en œuvre des architectures résilientes, sécurisées et évolutives (cloud, containers, automatisation). Définir les standards SRE , les bonnes pratiques DevOps et la stratégie technique : CI/CD, observabilité, sécurité, gestion des incidents. Assurer la coordination technique avec les autres équipes Platform ainsi qu’avec le fournisseur cloud. Garantir la qualité et la stabilité des environnements internes et hors production (MCO) pour l’ensemble des applications de la tribe Paiement . Collaborer avec les équipes internes pour résoudre les problématiques de configuration, de déploiement et de débogage des applications. Surveiller l’observabilité des applications, traiter les alertes et réaliser les premières analyses en cas d’incident. Optimiser les performances et la scalabilité des applications déployées dans le cloud. Veiller à la maîtrise et à l’optimisation des coûts d’infrastructure. Assurer l’évolution et la maintenance des processus de monitoring et d’observabilité des infrastructures et applications cloud.
Freelance
CDI
CDD

Offre d'emploi
AI Engineer / Ingénieur·e IA - Intégration & Déploiement

Publiée le
AI
API
CI/CD

12 mois
Paris, France
Ingénieur IA | Python-RAG • Développement d’algorithmes : concevoir et développer des algorithmes d’apprentissage automatique (machine learning), d’apprentissage profond (deep learning) et d’autres techniques d’IA. • Analyse de données : collecter, nettoyer et analyser les données pour entraîner les modèles d’IA. • Optimisation des modèles : améliorer la précision et l’efficacité des modèles d’IA existants. • Intégration de solutions IA : intégrer les solutions d’IA dans les systèmes existants ou développer de nouvelles applications basées sur l’IA. • Recherche et innovation : mener des recherches pour explorer de nouvelles techniques et technologies en IA. • Collaboration interdisciplinaire : travailler avec des équipes multidisciplinaires, y compris des experts en données, des développeurs de logiciels et des chercheurs. • Veille technologique : suivre les avancées et les tendances dans le domaine de l’IA pour anticiper les évolutions et proposer des améliorations. • Documentation et reporting : rédiger des documents techniques, des rapports d’avancement et des publications scientifiques pour partager les résultats et les connaissances acquises. Profil Recherché BAC+4/+5 3 – 5 ans d’expérience en IA, Machine Learning ou Data Science Très bon niveau en Python & RAG, SQL, NoSQL
Freelance

Mission freelance
Golang Backend Engineer

Publiée le
DevSecOps
Go (langage)
Kubernetes

1 an
100-500 €
Île-de-France, France
Télétravail partiel
Je recherche un Golang Backend Engineer pour l'un de mes clients en Ile de France. - Longue mission. - Démarrage début décembre ou début janvier. - 2/3 jours de TT par semaine. - Profil sénior. Contexte : Mise en place de Kubernetes. Stack technique demandée : - Concevoir, développer et maintenir un opérateur Kubernetes (CRDs, Controllers, etc.) - Automatiser la gestion de services dans un cluster Kubernetes - Maitrise du langage Golang - Contribuer à la mise en place de bonnes pratiques d’observabilité (logs,metrics, traces) - Assurer la maintenance, les tests, la documentation et la revue de code - Collaborer avec l’équipe (infrastructure, DevOps) pour respecter les bonnes pratiques cloud-native et DevSecOps - Surveiller et optimiser les performances et la fiabilité de l’opérateur K8S pour la production - Gestion des secrets (Vault)
Freelance

Mission freelance
Data Engineer

Publiée le
Apache Spark
Java
ODI Oracle Data Integrator

3 ans
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data
Freelance
CDI

Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F

Publiée le
Ansible
Apache Airflow
Apache Kafka

6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
Freelance
CDI

Offre d'emploi
Staff Engineer Python - Telecom - Paris H/F

Publiée le
FastAPI
Python
SQL

12 mois
70k-90k €
550-650 €
Paris, France
Télétravail partiel
Missions Principales Prendre le leadership technique du backend de notre système d'information. Comprendre et optimiser les processus métiers complexes comme la facturation tierce et le raccordement à la fibre. Définir et piloter avec l'équipe l'architecture de notre système distribué. S'engager dans du développement "hands on" avec Python et assurer la qualité et résilience du code. Annexes Initier et renforcer les bonnes pratiques de développement et de mise en production. Proposer et implémenter des méthodes d’exploitation qui permettront aux équipes de développement d’opérer efficacement en production.
CDI
Freelance

Offre d'emploi
DevSecOps Engineer – secteur Telecom – Paris (H/F)

Publiée le
Administration système
Kubernetes
Linux

12 mois
50k-70k €
500-550 €
Paris, France
Télétravail partiel
Principales : - Concevoir, développer et intégrer des solutions de sécurité open source abordant des problématiques telles que l'authentification, le chiffrement et la protection DDoS. - Construire et déployer des briques sécurité en interaction directe avec les équipes Systèmes et Développement. - Participer aux audits de sécurité et à la revue de code pour assurer les meilleures pratiques. Annexes : - Réaliser des revues de design focalisées sur la sécurité. - Collaborer pour détecter et corriger les vulnérabilités. - Maintenir une documentation sécurité conforme aux normes (CNIL, CAC, ANSSI). - Sensibiliser et animer les équipes tech autour des enjeux de sécurité dès la conception.
Freelance

Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance

Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
299 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous