L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 62 résultats.
Offre d'emploi
Senior Data Engineer
Publiée le
180k-195k $US
États-Unis d'Amérique
We are looking a Senior Data Engineer Work with a leading generative AI company in healthcare. Why Join Our Team Why Join Our Team Reinvent healthcare with AI that puts safety first. Work with the people shaping the future. Backed by the world’s leading healthcare and AI investors. Build alongside the best in healthcare and AI. Location- Palo Alto, CA office. We believe the best ideas happen together. To support fast collaboration and a strong team culture, this role is expected to be in our Palo Alto office five days a week, unless otherwise specified. Benefits: 401 k, Equity, Lunch provided (On site job) Data is the backbone of everything we build — from our voice-based generative healthcare agents to the systems that ensure their clinical safety and reliability. We’re looking for data engineers who thrive at the intersection of data systems, security, and scalability to design the infrastructure that powers safe AI deployment across healthcare environments. As part of the Data Infrastructure team, you’ll design, operate, and scale systems that collect, transform, and serve data for model training, evaluation, and operational analytics . You’ll work closely with ML, AI, and product teams to ensure our data is trustworthy, compliant, and high-quality — forming the foundation for real-world, patient-facing AI systems. This is an opportunity to build data systems for a new class of AI products — where correctness, traceability, and privacy aren’t optional, they’re mission-critical. What You'll Do Build & operate data platforms and pipelines (batch/stream) that feed training, RAG, evaluation, and analytics using tools like Prefect, dbt, Airflow, Spark , and cloud data warehouses ( Snowflake/BigQuery/Redshift ). Own data governance and access control : implement HIPAA-grade permissioning, lineage, audit logging, and DLP; manage IAM, roles, and policy-as-code. Ensure reliability, observability, and cost efficiency across storage ( S3/GCS ), warehouses, and ETL/ELT—SLAs/SLOs, data quality checks, monitoring, and disaster recovery. Enable self-service analytics via curated models and semantic layers; mentor engineers on best practices in schema design, SQL performance, and data lifecycle. Partner with ML/Research to provision high-quality datasets, feature stores, and labeling/eval corpora with reproducibility (versioning, metadata, data contracts). What You Bring Must-Have: 5+ years of software or data engineering experience, with 3+ years building data infrastructure, ETL/ELT pipelines, or distributed data systems. Deep experience with Python and at least one cloud data platform (Snowflake, DataBricks, BigQuery, Redshift, or equivalent). Familiarity with orchestration tools (Airflow, prefect, dbt) and infrastructure-as-code (Terraform, CloudFormation). Strong understanding of data security, access control, and compliance frameworks (HIPAA, SOC 2, GDPR, or similar). Proficiency with SQL and experience optimizing query performance and storage design. Excellent problem-solving and collaboration skills — able to work across engineering, ML, and clinical teams. Comfortable navigating trade-offs between performance, cost, and maintainability in complex systems. Nice-to-Have: Experience supporting ML pipelines, feature stores, or model training datasets. Familiarity with real-time streaming systems (Kafka, Kinesis) or large-scale unstructured data storage (S3, GCS). Background in data reliability engineering, data quality monitoring, or governance automation. Experience in healthcare, safety-critical systems, or regulated environments. If you’re passionate about building data systems that power safe, real-world AI , we’d love to hear from you. We have an exciting opportunity waiting for you—apply today and take the next step in your career! The IN group is here to support you specifically with the recruitment and hiring process for job opportunities. Our role is focused on guiding you through these steps. If you have any questions related to your application or next steps in the hiring process, Apply, and please feel free to reach out. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Mission freelance
Data Platform Engineer
Publiée le
AWS Cloud
Python
12 mois
600-650 €
Paris, France
Télétravail partiel
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Offre d'emploi
DATA ENGINEER Python
Publiée le
Python
Terraform
6 mois
40k-45k €
380-470 €
Boulogne-Billancourt, Île-de-France
Nous sommes à la recherche deux consultants de haut niveau spécialisés en Data Engineering, disposant d’une expertise approfondie dans les technologies Python, Data, GenAI, AWS (Kinesis, S3, EMR, etc.), Airflow, Terraform, GitLab CI/CD, Python ainsi qu’une solide maîtrise de SQL, Snowflake et les architectures Data Streaming. Une expertise en Scala et Spark serait fortement appréciée. Il sera chargé de concevoir et développer des pipelines de données, développer sur des chatbots AI dans un environnement cloud tout en contribuant activement à la fiabilité, l’automatisation et la scalabilité de notre plateforme data.
Mission freelance
Lead Data Engineer Azure Databricks
Publiée le
Apache NiFi
Databricks
PySpark
3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Offre d'emploi
Data Engineer - CDI
Publiée le
Azure
Databricks
DBT
Paris, France
Télétravail partiel
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Offre d'emploi
Data Engineer / Data Analyst (H/F)
Publiée le
Databricks
6 mois
55k-65k €
450-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👌 Dans le cadre du renforcement de son pôle dédié à l’architecture, la valorisation et l’exploitation de la donnée, une grande entreprise nationale du secteur de l’énergie recherche un Data Engineer / Data Analyst (H/F) .🚀 L’objectif : contribuer à la fiabilité, la qualité et l’analyse des données nécessaires à la gestion des réseaux, ainsi qu’au développement de plateformes Data avancées. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Data Engineering 🔸Concevoir, développer et maintenir des pipelines de données robustes et scalables. 🔸Industrialiser les traitements dans un environnement Databricks (Spark, Delta Lake). 🔸Optimiser la qualité, la performance et la disponibilité des données. 🔸Participer à l’architecture des solutions Data, notamment dans un contexte cloud. Data Analysis 🔸Structurer, analyser et valoriser les données issues des réseaux et services. 🔸Construire des Dashboard et indicateurs fiables pour les équipes métiers et techniques. 🔸Contribuer à la mise en place d’une gouvernance efficace des données. Collaboration & Support 🔸Travailler étroitement avec les équipes Architecture, Exploitation et SI. 🔸Participer à la documentation, la standardisation et l’amélioration continue des pratiques Data. 🔸Accompagner les utilisateurs internes dans la compréhension et l’exploitation des datasets.
Mission freelance
Tech Lead DATAIKU
Publiée le
Dataiku
ETL (Extract-transform-load)
Python
12 mois
520-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de nouveaux projets stratégiques chez nos clients grands comptes, nous recherchons actuellement deux types de profils spécialisés : 🔹 1. Tech Lead DATAIKU Votre rôle : Piloter et encadrer les développements autour de la plateforme Dataiku (DSS), accompagner les équipes Data, garantir la qualité des pipelines et assurer la bonne intégration des solutions dans l’écosystème IT. Compétences clés recherchées : • Expertise confirmée sur DATAIKU DSS • Solide background en data engineering (Python, SQL, orchestrations…) • Bonne compréhension des architectures data (ETL/ELT, data pipelines, APIs) • Capacité à guider les équipes et à prendre des décisions techniques • Expérience en environnement exigeant (idéalement finance)
Mission freelance
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans/sal
Publiée le
AWS Glue
Python
6 mois
430-520 £GB
Paris, France
Télétravail partiel
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Understanding of scientific data in the pharma CMC space Requirements clarification with stakeholders, effort estimation for PI planning Good knowledge of Lean & Agile practices AWS data engineering: S3, Glue (Jobs/Workflows), Athena ETL/ELT development: Python, Glue ETL, schema evolution, partitioning Data modeling: harmonized domain models, star/snowflake schemas, metadata management SQL optimization: Athena performance tuning, cost-aware query design, partition/pruning strategies Testing and quality: unit/integration tests for pipelines, DQ frameworks Documentation and KT: runbooks, architecture diagrams, KT planning and execution Migration experience: parallel-run strategy, cutover planning, backfill, data reconciliation
Offre d'emploi
Medior Data/AI Engineer
Publiée le
Apache Spark
Azure
Azure AI
1 an
40k-60k €
400-550 €
Bruxelles, Bruxelles-Capitale, Belgique
ATTENTION, 2 JOURS NON CONSECUTIFS OBLIGATOIRE A BRUXELLES, MERCI DE NE PAS POSTULER LE CAS ECHEANT; CLIENT renforce son Data Center of Excellence afin de soutenir la transformation data, AI & cloud de l’organisation. Dans ce cadre, elle recherche un Data / AI Engineer medior afin d’étendre et d’opérer sa Data Platform Azure (Databricks) , et d’industrialiser l’usage des Azure AI Services dans les équipes métier. Le consultant contribuera à la construction, l’évolution et la sécurisation de la plateforme data de la BNB, ainsi qu’au déploiement des services d’IA Azure (OpenAI, AI Search, Document Intelligence…). Il interviendra aussi bien sur l’ ingénierie data , l’ architecture technique , que sur la gouvernance, sécurité et conformité du cloud. 1. Data Platform Engineering (Azure / Databricks) Étendre, maintenir et optimiser la Data Platform Databricks existante selon les besoins métiers et projets. Créer et améliorer des pipelines d’ingestion (Python, Spark, Delta Lake). Participer à l’évolution de l’architecture Lakehouse (Bronze/Silver/Gold). Gérer les clusters , jobs, notebooks, permissions (Unity Catalog). 🔹 2. Déploiement & Ownership des Azure AI Services Déployer, configurer et industrialiser l’usage de : Azure AI Foundry Azure AI Search Azure OpenAI Service Azure Document Intelligence Agir comme Technical Owner de ces services : gouvernance, sécurité, policies, coûts, monitoring. 🔹 3. Gouvernance & Sécurité Data Implémenter les bonnes pratiques Cloud & IA : RBAC, réseau privé, encryption, Key Vault, Private Endpoints Data compliance, confidentialité, gestion des accès Collaborer avec les équipes sécurité (IAM, Infra, Legal). 🔹 4. Infrastructure as Code – Terraform Implémenter le provisioning des ressources Azure via Terraform. Créer des modules réutilisables (Databricks, AI services, Key Vault, Storage, Networking). Participer à la mise en place de politiques cloud (Azure Policy / IaC). 🔹 5. Support aux équipes & Excellence technique Accompagner les équipes Data Scientists, Analysts & Devs dans leurs projets AI/Data. Conseiller sur les choix techniques : architecture, modèles AI, sécurité, performance. Produire et maintenir une documentation claire (architecture, runbooks, guidelines).
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Offre d'emploi
Data Architect / Data Engineer (H/F)
Publiée le
Cloud
1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Mission freelance
Senior Data Engineer Python - AWS Cloud F/H
Publiée le
AWS Cloud
Databricks
PySpark
6 mois
550 €
Paris, France
Télétravail partiel
Notre client dans le secteur Énergie et ressources naturelles recherche un Senior Data Engineer Python – Environnement AWS Cloud H/F Descriptif de la mission: Objectifs et livrables L’entreprise recherche une prestation de Senior Data Engineer externe, curieux(se) et engagé(e), pour rejoindre une équipe data. Le profil externe sera responsable de : - Construire des data pipelines scalables - Concevoir des modèles de données robustes - Délivrer des solutions data de haute qualité dans un environnement collaboratif Missions / Responsabilités principales • Collaboration métier - Travailler en étroite collaboration avec les parties prenantes métier pour comprendre les besoins - S’assurer que les produits data répondent aux objectifs de l’organisation • Modélisation et architecture de données - Concevoir et implémenter des modèles de données robustes, scalables, maintenables et facilement consommables par d’autres produits et par les data analysts - Optimiser l’architecture data et les solutions de stockage pour la performance, le coût et l’accessibilité - Maintenir des formules de calcul de données complexes • Pipelines et traitements de données - Construire et maintenir des pipelines de données scalables pour des processus ETL/ELT - Assurer un flux de données fiable et efficient à travers les systèmes - Développer des solutions data en Python pour manipuler, transformer et préparer les workflows d’ingestion de données • Environnement Cloud et outillage - Utiliser les services cloud AWS (ex. Lambdas, Step Functions, S3, RDS, etc.) pour l’orchestration, le traitement et la livraison de données - Exploiter Databricks et pySpark (Unity Catalog…) pour les traitements distribués - Collaborer avec les équipes backend pour aligner les intégrations de services et les implémentations techniques • Qualité, performance et industrialisation - Participer aux revues de code, discussions de design et activités de planification logicielle - Mettre en place, monitorer et tester les standards de qualité des données pour garantir précision, cohérence, fiabilité et performance optimale des actifs data - Prendre en charge et faire preuve d’initiative sur la qualité des données, la performance des systèmes et l’amélioration continue de l’infrastructure data Profil et compétences recherchées Compétences techniques requises - Python (pandas, pydantic, tests unitaires, linting, formatting…) : niveau 4/4 - GitHub (GitHub Actions – workflows CI/CD) : niveau 2/4 - Plateforme AWS Cloud (Lambdas, Step Functions, S3, RDS…) : niveau 3/4 - Databricks / pySpark (Unity Catalog…) : niveau 2/4 - Connaissances de base en Terraform ou forte appétence pour l’apprendre : niveau 1/4 - Bases de données SQL : PostgreSQL, clients SQL et outils d’administration (ex. DBeaver) : niveau 4/4 - Compétences linguistiques anglais et français : niveau 4/4 (bilingue / courant dans les deux langues) Mindset / état d’esprit - Agilité - Envie de comprendre le business et ses valeurs fondamentales - Curiosité technique et implication dans des solutions transverses - Forte orientation résolution de problèmes - Engagement dans l’apprentissage continu et l’adaptation aux technologies en évolution - Participation et contribution aux activités et projets du chapitre data engineering Soft skills - Communication claire en français et en anglais - Attention au détail - Capacité à travailler de manière autonome et en équipe - Forte exigence sur la qualité du code, la documentation et la collaboration - Idéalement, capacité à vulgariser la technique pour communiquer avec les équipes métier sur des sujets technologiques Détails de la mission - Date de démarrage souhaitée : 16/02/2026 (au plus tard) - Localisation : Paris - Modalités de travail : • 2 jours par semaine en télétravail • 3 jours par semaine sur site à Paris Planning et étapes de sélection - Clôture de la consultation / date limite des propositions : 18/01/2026 - Envoi des tests techniques (codingame avec proctoring) : 19/01/2026 • À compléter par les profils dans les 72h après réception, avant le vendredi 23/01/2026 - Soutenances techniques : entre le 27/01/2026 et le 02/02/2026 Compétences demandées : - AWS Cloud platform : niveau Confirmé - SQL Databases : niveau Expert - PySpark : niveau Avancé - Databricks : niveau Avancé - GitHub : niveau Avancé - Terraform : niveau Élémentaire - Python : niveau Expert Langue - Anglais : niveau Bilingue - Français : niveau avancé (équivalent bilingue, requis pour la communication et la documentation) Compétences / Qualités indispensables: Français et anglais courants, Python : niveau Expert AWS Cloud platform : niveau Confirmé, SQL Databases : niveau Expert, PySpark : niveau Avancé, Databricks : niveau Avancé, GitHub : niveau Avancé, Terraform : niveau Élémentaire,
Mission freelance
Founding Engineer TypeScript / Node.js / IA / LLM
Publiée le
AWS Cloud
Large Language Model (LLM)
Node.js
12 mois
Paris, France
Contexte de la mission Un client confidentiel du secteur transport/logistique, financé par des fonds d’investissement de premier plan, lance un projet stratégique visant à révolutionner la gestion du transport routier à l’aide d’agents d’intelligence artificielle. Dans ce cadre, l’entreprise recherche un Founding Engineer spécialisé en TypeScript / Node.js et IA pour rejoindre une équipe technique restreinte composée du CTO et de trois développeurs confirmés. La mission se déroule entièrement en présentiel afin de favoriser la co-construction rapide du produit et des itérations techniques rapprochées. Objectifs et responsabilités Le consultant interviendra sur la conception et la mise en place du socle technique du produit, incluant : • Concevoir, développer et déployer des APIs robustes et scalables • Structurer les flux de données provenant de systèmes TMS, appels, messages et autres sources • Collaborer étroitement avec le CTO et les utilisateurs opérationnels pour la construction du MVP • Participer au lancement d’un projet innovant d’IA temps réel (audio) • Assurer un rôle majeur sur le backend, la data et l’ingénierie IA • Mettre en place l’observabilité : monitoring, logs, métriques et alerting • Contribuer aux choix d’architecture, arbitrages techniques et discussions produits • Participer au déploiement, aux tests et aux itérations rapides en environnement startup Profil recherché Compétences indispensables • Ingénieur fullstack avec forte orientation backend et data • Minimum 4 ans d’expérience significative sur Node.js et TypeScript • Forte expertise Backend et Data Engineering • Expérience avérée dans un environnement startup, scale-up, licorne ou rôle de Founding Engineer • Avoir déjà lancé un produit from scratch • Niveau attendu : Staff Engineer ou Principal Engineer • Capacité à raisonner en approche “problème → solution” • Grande rapidité d’itération : tester, ajuster, apprendre, recommencer • Capacité à échanger directement avec les utilisateurs métier (transporteurs, brokers) • Connaissance pratique des LLM et de l’IA appliquée • Flexibilité sur les horaires lors des phases de mise en production (soir, week-end si nécessaire) Compétences appréciées (bonus) • Expérience en IA agentique (agents autonomes) • Connaissances poussées en prompting, grounding, fallback, monitoring IA • Amélioration des performances d’agents en production • Contribution à l’architecture produit à grande échelle Stack technique actuelle • Node.js / TypeScript (backend principal) • Python (agents IA) • PostgreSQL • API REST, WebSocket • AWS (architecture scalable), Kubernetes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Arnaque / scam en ligne
- SERVICE PAIEMENT APRÈS RÉSULTATS APPELER LE +33 7 56 92 74 16 - VOYANCE SENTIMENTALE - RETOUR AFFECTIF RAPIDE - COUPLE - RENCONTRE - CHOIX AMOUREUX - VOTRE FUTUR SENTIMENTALE ET AMOUREUX - HOROSCOPE - GUIDANCE DE VIE - MEILLEUR VOYANT MÉDIUM DE L'ANNÉE
- APPELER LE +33 7 56 92 74 16 - VOYANCE SENTIMENTALE - COUPLE - RENCONTRE - CHOIX AMOUREUX - VOTRE FUTUR SENTIMENTALE ET AMOUREUX - HOROSCOPE - GUIDANCE DE VIE - MEILLEUR VOYANT MÉDIUM DE L'ANNÉE - LE PLUS PUISSANT MAÎTRE - FAÎTES LUI CONFIANCE
- Pour trouver un emploi - Appeler +33 7 56 92 74 16 - Puissant médium voyant magicien de haute qualité - Rituel pour trouver du travail - Rituel pour avoir un augmentation de salaire
- Meilleur médium retour affectif aujourd'hui - Appeler le +33 7 56 92 74 16 - service paiement après résultats positifs - Résultats rapides - Retour d'affection - Rituel d'amour puissant sans inconvénients
- Appeler le +33 7 56 92 74 16 C'est le meilleur voyant médium sérieux aujourd'hui - Meilleur maître spirituel actuellement - Le plus puissant dans la guidance spirituel et les rituels magiques
62 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois