L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 814 résultats.
Offre d'emploi
Administrateur Bases de Données SQL Server – Confirmé (H/F)
Publiée le
Microsoft SQL Server
Microsoft Windows
Powershell
1 an
Paris, France
Contexte Le département Bases de Données Distribuées de la Direction Infrastructure renforce ses équipes et recherche un Ingénieur DevOps / Administrateur de bases de données SQL Server confirmé pour intervenir sur des environnements critiques de production. La mission s’inscrit dans un contexte infrastructure, haute disponibilité et automatisation , avec des exigences élevées en matière de performance, sécurité et continuité de service . Objectif de la mission Administrer, exploiter et faire évoluer les environnements SQL Server , tout en contribuant à l’automatisation et à l’industrialisation des pratiques via des outils DevOps. Missions principalesAdministration & exploitation SQL Server Installer, configurer et maintenir les moteurs SQL Server et les clusters Windows . Administrer les environnements Always On (haute disponibilité). Gérer l’exploitation quotidienne : Support utilisateurs Gestion des incidents Suivi du PCA / PRA Optimiser les performances SQL Server . Gérer la sécurité , les accès et les licences . Automatisation & DevOps Développer et maintenir des scripts d’automatisation en PowerShell , DSC et .NET . Contribuer au développement et à l’utilisation d’ API . Utiliser et intégrer les outils DevOps : Git, Artifactory, Jenkins, Ansible . Exploitation & supervision Mettre en œuvre et exploiter les sauvegardes et restaurations . Participer à la supervision des plateformes (outils type Zabbix ). Assurer une astreinte régulière (environ 1 semaine toutes les 7 semaines). Qualité & amélioration continue Participer aux études d’évolution des infrastructures. Proposer des axes d’amélioration des performances et de la fiabilité . Assurer une veille technologique continue. Environnement technique SGBD : SQL Server Haute disponibilité : Always On Systèmes : Windows, clusters Windows Automatisation / DevOps : PowerShell, DSC, .NET, Git, Jenkins, Artifactory, Ansible Virtualisation : VMware Supervision : Zabbix (ou équivalent) Composants complémentaires : SSAS Compétences techniques Impératives : SQL Server – Expert Always On – Expert Systèmes Windows – Confirmé PowerShell – Expert Appréciées : DSC / .NET Développement d’API Outils DevOps SSAS VMware Supervision (Zabbix ou équivalent) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Offre d'emploi
Data Analyst (H/F)
Publiée le
Data analysis
Data science
30k-65k €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Votre mission En tant que Data Analyst (H/F) , vous jouerez un rôle clé dans la valorisation des données au service du métier. Vous serez responsable de l’analyse de grands volumes de données, de la production d’analyses et de reportings à forte valeur ajoutée, et de l’accompagnement des équipes métier dans l’optimisation de l’utilisation de leurs données, en lien avec les objectifs stratégiques de l’organisation. Vos responsabilités seront : Analyser de grands volumes de données afin de comprendre les enjeux métier et les besoins exprimés par les parties prenantes Traduire les besoins business en analyses de données pertinentes et exploitables Contribuer à la sélection, à l’implémentation et à l’amélioration des outils d’analyse et de reporting Produire des analyses stratégiques, des tableaux de bord et des reportings à destination du business Identifier des tendances, des anomalies et des opportunités à partir des données Présenter et vulgariser les résultats d’analyse auprès des parties prenantes métier Collaborer avec les équipes IT, data et métier afin d’assurer la qualité, la cohérence et la fiabilité des données Aider les équipes métier à mieux exploiter et optimiser l’usage de leurs données S’adapter à l’environnement spécifique et aux enjeux de nos clients
Mission freelance
2 BA Data - Paris - SQL & Modélisation + Migration
Publiée le
12 mois
500 €
France
2 missions - Business Analyst Data (Niv. 4) - Paris - Janv-Déc 2026 Lieu : Paris * Démarrage : 20/01/2026 * Fin : 31/12/2026 * Format : Assistance technique * Langues : FR courant & EN professionnel * Domaines data : paiements, clients, transactions, finance Nous ouvrons deux missions proches côté BA Data, avec un périmètre fonctionnel quasi identique. L'une requiert en plus une expertise en migration et validation des données. 🎯 Contexte & objectifs (communs aux 2 missions) En tant que Business Analyst Data (niveau 4 - Proficient) , vous : Recueillez et analysez les besoins métiers, proposez des simplifications/process cible. Contribuez aux recommandations de réalisation et à l'orientation de l'implémentation. Rédigez les spécifications fonctionnelles (US, critères d'acceptation, règles de gestion). Soutenez les équipes d'implémentation (PO, squads dev/ops) et validez les développements . Contribuez aux phases de tests, déploiement et post‑prod . Assurez le support BAU : incidents sur l'existant et petites demandes. Compétences techniques requises (communes) : SQL confirmé (impératif) Modélisation de données confirmée (impératif) 🔶 Mission 1 - BA Data (périmètre transverse) Focus : BA Data sur les domaines paiements, clients, transactions, finance, avec une dominante spécifications & accompagnement build/BAU . Livrables principaux : Spécifications fonctionnelles & règles de gestion Backlog items (US/AC), data dictionary, schémas de modélisation Plans de tests fonctionnels & UAT, support BAU 🔷 Mission 2 - BA Data avec migration & validation des données Focus : Même périmètre fonctionnel que la Mission 1 + expérience avérée en migration de données et validation (qualité, complétude, réconciliation). Livrables supplémentaires : Stratégie de migration , mapping et règles de transformation Plans de validation des données (comptages, réconciliations, seuils de tolérance) Rapports de qualité des données & readiness cutover 🔍 Différences clés (en un coup d'œil) ✅ Profil recherché (pour les 2 missions) BA Data niveau 4 - Proficient , autonome, transverse, orienté valeur métier. Maîtrise de la modélisation , de la rédaction de spécifications et des tests . Aisance en SQL pour investigations et validations fonctionnelles. Exposition bancaire appréciée (paiements/clients/transactions/finance). Pour la Mission 2 : cas concrets de migration (mapping, transformation, contrôles de qualité, réconciliations, gestion des écarts). .
Offre d'emploi
PIXIE - Architecte Data Sénior Lyon/Paris +7 ans - Data IA
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
3 ans
France
Bonjour Pour un de mes clients, je recherche un(e) Architecte Data Sénior Site : Lyon (2 jours par semaine sur site) ou Paris Expérience : +7 ans Contexte : Mission pour la cellule Marché Data IA Profil recherché : Architecte Data Sénior Missions principales : Définir la stratégie et la feuille de route Data Structurer et cadrer les chantiers Data Animer la communauté Data Mettre en place la gouvernance des données Contribuer aux choix d’architecture et d’outils Produire des livrables Data Piloter l’avancement en mode Agile avec reporting Compétences clés : Stratégie Data expert Gouvernance Data expert Architecture Data expert Animation transverse maîtrise Agile et Planisware connaissance Environnement : Planisware Outils Data GitLab, Jira, Confluence, ITSM Teams, SharePoint AWS, GCP Résumé : Architecte Data Sénior avec forte expertise en stratégie, gouvernance et architecture Data, environnement cloud et Agile Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Offre d'emploi
Senior Data Engineer
Publiée le
180k-195k $US
États-Unis d'Amérique
We are looking a Senior Data Engineer Work with a leading generative AI company in healthcare. Why Join Our Team Why Join Our Team Reinvent healthcare with AI that puts safety first. Work with the people shaping the future. Backed by the world’s leading healthcare and AI investors. Build alongside the best in healthcare and AI. Location- Palo Alto, CA office. We believe the best ideas happen together. To support fast collaboration and a strong team culture, this role is expected to be in our Palo Alto office five days a week, unless otherwise specified. Benefits: 401 k, Equity, Lunch provided (On site job) Data is the backbone of everything we build — from our voice-based generative healthcare agents to the systems that ensure their clinical safety and reliability. We’re looking for data engineers who thrive at the intersection of data systems, security, and scalability to design the infrastructure that powers safe AI deployment across healthcare environments. As part of the Data Infrastructure team, you’ll design, operate, and scale systems that collect, transform, and serve data for model training, evaluation, and operational analytics . You’ll work closely with ML, AI, and product teams to ensure our data is trustworthy, compliant, and high-quality — forming the foundation for real-world, patient-facing AI systems. This is an opportunity to build data systems for a new class of AI products — where correctness, traceability, and privacy aren’t optional, they’re mission-critical. What You'll Do Build & operate data platforms and pipelines (batch/stream) that feed training, RAG, evaluation, and analytics using tools like Prefect, dbt, Airflow, Spark , and cloud data warehouses ( Snowflake/BigQuery/Redshift ). Own data governance and access control : implement HIPAA-grade permissioning, lineage, audit logging, and DLP; manage IAM, roles, and policy-as-code. Ensure reliability, observability, and cost efficiency across storage ( S3/GCS ), warehouses, and ETL/ELT—SLAs/SLOs, data quality checks, monitoring, and disaster recovery. Enable self-service analytics via curated models and semantic layers; mentor engineers on best practices in schema design, SQL performance, and data lifecycle. Partner with ML/Research to provision high-quality datasets, feature stores, and labeling/eval corpora with reproducibility (versioning, metadata, data contracts). What You Bring Must-Have: 5+ years of software or data engineering experience, with 3+ years building data infrastructure, ETL/ELT pipelines, or distributed data systems. Deep experience with Python and at least one cloud data platform (Snowflake, DataBricks, BigQuery, Redshift, or equivalent). Familiarity with orchestration tools (Airflow, prefect, dbt) and infrastructure-as-code (Terraform, CloudFormation). Strong understanding of data security, access control, and compliance frameworks (HIPAA, SOC 2, GDPR, or similar). Proficiency with SQL and experience optimizing query performance and storage design. Excellent problem-solving and collaboration skills — able to work across engineering, ML, and clinical teams. Comfortable navigating trade-offs between performance, cost, and maintainability in complex systems. Nice-to-Have: Experience supporting ML pipelines, feature stores, or model training datasets. Familiarity with real-time streaming systems (Kafka, Kinesis) or large-scale unstructured data storage (S3, GCS). Background in data reliability engineering, data quality monitoring, or governance automation. Experience in healthcare, safety-critical systems, or regulated environments. If you’re passionate about building data systems that power safe, real-world AI , we’d love to hear from you. We have an exciting opportunity waiting for you—apply today and take the next step in your career! The IN group is here to support you specifically with the recruitment and hiring process for job opportunities. Our role is focused on guiding you through these steps. If you have any questions related to your application or next steps in the hiring process, Apply, and please feel free to reach out. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Mission freelance
Un profil de rédacteur / Concepteur
Publiée le
Rédaction
12 mois
520-550 €
Paris, France
Télétravail partiel
DETAILS DE LA MISSION Le prestataire aura pour rôle principal de soutenir la Responsable de communication dans les actions suivantes Activités principales : Recueil des besoins internes : Participer et animer des comités éditoriaux pour identifier les besoins et priorités internes. Collaborer avec différents interlocuteurs internes pour recueillir des informations clés. Conception et rédaction des contenus : Identifier les thématiques pertinentes liées à la Data et à l’IA. Proposer des idées innovantes pour des contenus engageants. Rédiger des articles, posts pour réseaux internes, et autres supports de communication. Gestion et création de contenus multimédias Produire des supports variés : articles, podcasts, vidéos, newsletters, Datalks, événements, etc. Traiter des demandes spécifiques en lien avec la stratégie de communication du Pôle. Concevoir et organiser des contenus adaptés à chaque canal pour maximiser leur impact. Organisation d'événements : Coordonner la planification et la logistique des événements internes (Forum Data C IA, Datalks, etc.). Veiller à la qualité des interventions et des thématiques abordées, en collaboration avec les parties prenantes. Assurer la promotion des événements via les différents canaux de communication. Suivi de production : Assurer la gestion des prestataires externes (briefs, suivi, corrections, etc.). Garantir le respect des plannings et la qualité des livrables. Veille sectorielle : Rester informé des tendances liées à la Data et l’IA pour enrichir les contenus et ajuster la stratégie. Refonte de la newsletter interne : Imaginer et piloter une refonte complète de la newsletter trimestrielle. Cadre Organisationnel Le concepteur/rédacteur travaillera en étroite collaboration avec la Responsable communication du Pôle Data C IA et son équipe. Une interaction régulière avec divers interlocuteurs internes sera nécessaire afin de recueillir les informations indispensables à la production des contenus. Profil Recherché : Expérience confirmée de 7 ans minimum en rédaction/conception dans des contextes internes ou externes. Connaissances approfondies ou fortes appétences pour les thématiques Data et IA. Compétences en création et gestion de contenus multimédias. Savoir-faire éditorial et capacité à vulgariser des concepts complexes pour les rendre accessibles. Maîtrise des outils de communication digitale et éditoriale. Durée et Modalités : Durée du contrat : 1 an à mi-temps (renouvelable).
Offre d'emploi
Tech Lead Big Data (H/F)
Publiée le
Apache Hive
Apache Spark
Cloudera
3 ans
50k-60k €
500-550 €
Île-de-France, France
Télétravail partiel
Mission : Le Tech Lead Big Data est le référent technique sur les plateformes Big Data on-premise . Il conçoit, développe et optimise des solutions data basées sur Spark / Scala au sein d’environnements Hadoop / Cloudera , tout en accompagnant les équipes de développement. Responsabilités : Être le lead technique Big Data de l’équipe Concevoir et faire évoluer des pipelines de données distribués Développer des traitements Big Data en Scala / Spark Garantir la performance, la fiabilité et la qualité des données Réaliser des revues de code et accompagner les développeurs Collaborer avec les équipes infra et production Environnement technique : Langages : Scala, SQL Framework : Apache Spark Écosystème : Hadoop (HDFS, YARN, Hive, HBase, Impala) Distribution : Cloudera Architecture : On-premise Outils : Git, CI/CD, ordonnanceur (Airflow / Oozie ou équivalent)
Mission freelance
Architecte Domaine Data - Azure (h/f)
Publiée le
1 mois
550-680 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Résumé : Vous rejoignez notre client pour prendre le Lead Technique sur votre domaine. Vous interviendrez pour mettre en place différents environnements et services en cohérence avec l’architecture globale. Responsabilités : A ce titre, vous serez en charge de : Définir des architectures avec un haut niveau de qualité, une valeur métier pertinente et une maintenabilité à long terme, en collaboration avec les équipes Data (DPO, Data Analysts, Data Engineers, Data Scientists, Architectes Data) Fournir un leadership technique, participer aux efforts de développement et représenter l’ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes, en charge de superviser les processus de gestion des données et d’apporter conseils et orientations aux équipes de développement. Assurer la conception et rédiger la documentation des solutions de votre domaine. Soutenir le DPAO dans le traitement des demandes de l’Area Manager Définir la roadmap et accompagner les équipes dans la priorisation de leur backlog Veiller en permanence à l’alignement des produits avec l’architecture globale Vous avez de l’expérience dans la définition et la prise en charge d’architectures data scalables de bout en bout, en tenant compte de l’architecture d’entreprise et des standards de l’industrie. Vous êtes habitué à concevoir, documenter et maintenir des modèles de données logiques et physiques. Must Haves : Une formation supérieure (Bac+5 ou Ecole d’Ingénieur) spécialisée en Data Votre expérience de 8 ans minimum sur un poste similaire en tant que Data Architecte Votre expérience dans la définition et la prise en charge d’architectures data scalables de bout en bout Votre expertise des services Azure Analytics (ADLS, SQL DB, ADF, Power BI) Votre fort leadership technique et votre capacité à définir et piloter des roadmaps Vos excellentes capacités de communication en français et en anglais (Niveau Courant C1) Compétences en leadership technique. Nice to Haves : Votre connaissance du secteur industriel Vos certifications Azure Autres détails : Date de démarrage : ASAP Localisation : Lyon (69). Dans le cadre de vos fonctions, vous pourrez bénéficiez de 2 jours de télétravail par semaine
Offre d'emploi
Developpeur Python Data - Actuaurie
Publiée le
CoreData
Python
Recette
36 ans
Paris, France
Télétravail partiel
MISSION Dans le cadre de projets de transformation et d’évolution de systèmes d’information en assurance vie, nous recherchons des consultants spécialisés en développement Python et data. Le consultant interviendra sur des problématiques de traitement de données, de modélisation actuarielle et d’automatisation de calculs métiers, au sein d’équipes projets pluridisciplinaires. Les principales activités incluent : - Analyse des besoins exprimés par les équipes métiers - Rédaction de spécifications fonctionnelles et techniques - Développement de traitements Python orientés data (batch, pipelines, reporting, calculs statistiques et financiers) - Contribution aux modèles actuariels et aux projections financières - Mise en place des contrôles qualité et optimisation des performances - Réalisation des tests et support aux phases de recette - Déploiement et mise en production - Documentation technique La mission s’inscrit dans un contexte long terme, avec des phases de montée en charge au démarrage, puis des cycles réguliers liés aux évolutions métiers et réglementaires.
Offre d'emploi
Responsable Solutions IA (Chef de projet IA )
Publiée le
IA
Machine Learning
Natural Language Processing (NLP)
40k-59k €
Paris, France
Pour accompagner un client secteur public sur son usine IA , Redlab cherche un consultant chef projet IA (PO IA) uniquement en CDI ROLE : Chef de projet IA transverse, pilote les cas d’usage, coordonne métier/tech, structure les projets, assure adoption et gouvernance. Missions clés Cadrer, prioriser et piloter les projets IA. Traduire besoins métier → spécifications IA. Suivre KPIs, ROI, risques, conformité (RGPD, biais). Coordonner Data Scientists, Devs, Data Engineers, DSI. Gérer la mise en production et la MCO.
Mission freelance
Lead Full Stack Engineer (AI &Agentic UI)
Publiée le
Analyse
API
Azure
10 mois
700-800 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme d’innovation avancée au sein d’un Tech Accelerator, nous recherchons un Data Analyst Senior pour intervenir sur la conception et le déploiement de produits data & AI de nouvelle génération , intégrant des modèles de langage (LLM) et des interfaces conversationnelles intelligentes. Vous interviendrez au cœur d’une équipe produit agile et transverse, en lien étroit avec des ingénieurs full stack, des product managers et des designers, afin de transformer des données complexes en insights exploitables et en expériences utilisateurs intelligentes . Votre rôle consistera à structurer, analyser et exploiter des données issues de multiples sources (produits, ingrédients, usages, graphes de connaissance), à contribuer aux stratégies de context enrichment (RAG) , et à garantir la qualité, la pertinence et la performance des données utilisées par les applications AI. Vous participerez activement à la mise en valeur des données via des visualisations claires , à la définition des modèles analytiques, ainsi qu’à l’optimisation des flux de données alimentant les applications conversationnelles. La mission s’inscrit dans un environnement exigeant, orienté produit, innovation rapide et impact business direct.
Mission freelance
Data Scientist audio
Publiée le
Machine Learning
6 mois
Île-de-France, France
Télétravail partiel
L'équipe R&D de la Direction du Numérique et de la Stratégie de l'Innovation de notre client cherche un.e data scientist senior audio pour une mission de Rercherche et de Développement. Contexte : Au sein de l’équipe R&D, le/la Data Scientist interviendra sur des projets autour de l’analyse automatique de contenus audio (en axe majeur) et textuels (en axe secondaire), en lien étroit avec les équipes produit, éditoriales et techniques. Missions principales : • Concevoir et développer des modèles de Machine Learning / Deep Learning pour l’analyse de contenus audio et textuels. • Travailler sur des projets tels que : o Extraction automatique de métadonnées musicales pour les besoins de la Discothèque du client. o Détection de fakes audio et contenus synthétiques pour aider les journalistes, et au delà contribuer à la fiabilité de l'information d'un média public o Extraction de métadonnées à partir des podcasts ou contenus vidéo, comme les émotions, les jingles, le repérage des parties musicales, etc. • Réaliser l’exploration, l’annotation et la structuration de jeux de données audio et texte. • Prototyper, entraîner et évaluer des modèles (POC, benchmarks, analyses comparatives). • Assurer une veille scientifique et technologique (audio ML, speech, NLP). • Documenter et présenter nos travaux en interne et à l’extérieur du client.
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
Architect Expert GenAI ( Java & IA ) / Secteur Assurance / Anglais Courant
Publiée le
AWS Cloud
Azure
Java
3 ans
400-650 €
Paris, France
Télétravail partiel
Mission : Fournir un soutien à toutes les activités d'architecture d'entreprise du Groupe, notamment en matière de conception d'architectures et d'intelligence artificielle générale. Expertise technique : Vue d'ensemble du secteur de l'assurance, des technologies cloud et d'IA. Expertise en architecture d'entreprise au sein de multinationales. Autres compétences : Capacité de synthèse : - 5 ans d'expérience en architecture, y compris la création de diagrammes d'architecture - Expertise en transformation cloud (AWS, Azure, etc.) - Expertise en Java et en IA/IA générale - Une expérience dans le secteur de l'assurance est un atout - Maîtrise de l'anglais (environnement professionnel et contexte) – indispensable
Mission freelance
Consultant fonctionnel SAP COPC (H/F)
Publiée le
SAP
6 mois
Île-de-France, France
Télétravail partiel
Vous aimez analyser la performance des coûts, optimiser les processus de contrôle de gestion et contribuer à des projets stratégiques à fort impact ? Et si votre prochain challenge vous permettait de rejoindre une équipe experte au cœur des enjeux de pilotage et de rentabilité d’un leader de son secteur ? Chez Scalesys, nous recherchons un Consultant fonctionnel SAP COPC passionné H/F, prêt à relever des défis ambitieux et à apporter son savoir-faire dans l’optimisation du contrôle de gestion et du calcul des coûts. Votre expertise sera déterminante pour accompagner notre client dans la maîtrise de ses marges et la transformation de ses processus de gestion.
Offre d'emploi
Data Engineer (4+ ans d'exp)
Publiée le
Google Cloud Platform (GCP)
40k-54k €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer confirmé.e ! 🚀 Ce poste est fait pour toi si : Tu as 5 ans d'expérience professionnelle en tant que Data Engineer . Tu as de l'expérience professionnelle avec AWS ou GCP . Tu parles anglais à un niveau professionnel. Tu as déjà travaillé avec Airflow et Spark . Missions: Concevoir, développer et maintenir des pipelines de données robustes, scalables et sécurisés Collecter, transformer et intégrer des données issues de sources hétérogènes (APIs, bases SQL/NoSQL, fichiers, etc.) Mettre en place des architectures data (data lake, data warehouse, data mesh) adaptées aux besoins métiers Optimiser les performances des traitements et garantir la qualité, la traçabilité et la gouvernance des données Collaborer avec les Data Scientists, Analysts et Product Managers pour répondre aux cas d’usage data Industrialiser les modèles et les flux de données dans des environnements cloud ou on-premise Assurer la surveillance, le monitoring et le support des plateformes data Participer à la veille technologique et à l’amélioration continue des outils et pratiques data engineering Contrat: CDI, statut cadre. Démarrage: fin avril 2026. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- deduction loyer et contrat de mise à disposition
- Mes données de la CIPAV (trimestre, droit) ont disparues sur lassuranceretriate
- Micro-entreprise après EURL ?
- Ajout d'une deuxième activité en tant que micro-entrepreneur
- domiciliation et etablissement principal
- Compte Autoentrepreneur - Création ou modification
5814 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois