Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris

Votre recherche renvoie 58 résultats.
Freelance

Mission freelance
Program PMO / Pilotage Multi-Workpackages (>10)

Publiée le
Gestion de projet

12 mois
530-550 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de transformation IS/IT de grande envergure, notre client lance plusieurs initiatives majeures visant à moderniser l’environnement technologique , industrialiser les modèles de delivery , et accélérer la transition vers le Cloud , tout en renforçant les pratiques Data & DevOps. Ce programme, piloté au niveau exécutif (exposition au Comité IT , reporting consolidé pour le CFO Groupe ), implique un pilotage complexe multi-interlocuteurs , une gouvernance renforcée, et un besoin de structuration précise des activités et de la stratégie associée. Les projets associés portent notamment sur : l’ optimisation des modes de delivery (approche factory / service center), la structuration de nouveaux parcours Data & IT , la modernisation de l’écosystème applicatif , l’ amélioration de la gouvernance et de la performance globale du portefeuille IS/IT, la mise en place de nouveaux partenaires technologiques (via RFP), et la consolidation d’un pilotage global du programme (KPIs, OKR, business case). Afin d’accompagner ce changement, nous recherchons trois profils PMO expérimentés capables d’intervenir sur des périmètres complémentaires : gouvernance globale, pilotage multi-workpackages, et structuration d’un nouveau projet incluant une procédure de sourcing. Missions principales Coordonner et animer 15 workpackages du projet. Suivre le planning, le budget et la qualité des livrables. Identifier, piloter et atténuer les risques projet. Gérer la livraison des partenaires externes, suivre leurs livrables, faire le suivi qualité. Mettre en place et maintenir un reporting projet clair et structuré. Préparer les supports de pilotage pour les instances de gouvernance & comités (incluant Steering Committees). Compétences techniques essentielles 1. Suivi projet avancé Planification (MS Project, Smartsheet ou équivalent) Suivi budgétaire, contrôle des coûts Gestion des risques / plan d’actions (matrices, scoring, mitigation) 2. Connaissances techniques Data & intégration Architecture Data (compréhension des data pipelines, ingestion, transformation) Architecture applicative & intégration Connaissance des environnements ETL / orchestrateurs Bonus : Dataiku, Talend, Apache Airflow 3. Reporting opérationnel Conception de dashboards KPIs Structuration de reportings projet pour comité de pilotage Production de synthèses claires (PowerPoint, Confluence)
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance

Mission freelance
Data ingénieur (H/F)

Publiée le
Microsoft Fabric
Python

12 mois
Paris, France
Télétravail 100%
Teksystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur (H/F) Missions principales : o Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires o Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric o Observabilité, data quality, tests, CI/CD et documentation technique o Optimisation coûts/performance, sécurité et conformité o Collaboration étroite avec Data Analysts et équipes métiers
Freelance

Mission freelance
PRODUCT OWNER DATA CRM / DIGITAL

Publiée le
Snowflake

12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à portée internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes, organisée par domaines. Rattachement direct au Lead PO Data Sales / Finance / CRM. Mission : piloter la vision, la roadmap et la valeur produit sur les périmètres CRM, Digital et e-commerce. ENVIRONNEMENT TECHNIQUE – Excellente maîtrise du SQL, notamment sur gros volumes de données. – Stack technologique : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT prévue – QlikSense (reporting et visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur l’ensemble des sujets Data liés au CRM, au Digital et à l’e-commerce. Responsabilités : – Conception des parcours utilisateurs et définition des KPIs clés. – Rédaction de spécifications fonctionnelles destinées aux Data Engineers / Data Analysts. – Gestion du Data Catalog sur le périmètre attribué. – Garantir le design produit, la cohérence fonctionnelle et la qualité des livrables Data. Cadre de travail : – Méthodologie Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : vision produit, capacité à challenger les besoins métiers, esprit critique élevé. PROFIL RECHERCHÉ – Minimum 8 ans d’expérience dans la Data, dont 4 ans en tant que PO ou Chef de Projet Data. – Solide culture Retail, avec maîtrise des enjeux CRM, omnicanal et e-commerce. – Qualités recherchées : – Autonomie, prise d’initiative – Leadership et capacité à fédérer – Excellentes capacités d’analyse et de structuration – Capacité à challenger et à apporter de la valeur métier
Freelance

Mission freelance
PRODUCT OWNER DATA SUPPLY

Publiée le
Snowflake

12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Freelance

Mission freelance
PRODUCT OWNER DATA PRODUIT

Publiée le
Snowflake

12 mois
560-570 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à dimension internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes structurée par domaines fonctionnels. Le rôle est rattaché au Lead PO Data Sales / Finance / CRM. Objectif : piloter la vision, la roadmap et la valeur du produit DATA autour du périmètre PRODUIT. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (manipulation et analyse de gros volumes de données). – Environnement actuel : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT à venir – QlikSense (visualisation et reporting) ENVIRONNEMENT FONCTIONNEL Intervention sur des sujets Data stratégiques autour du PRODUIT. Le PO aura en charge : – La conception des parcours utilisateurs et la définition des KPIs. – La rédaction des spécifications fonctionnelles pour les Data Engineers / Data Analysts. – La gestion et la mise à jour du Data Catalog. – La participation au design produit et à la qualité des livrables. – L’animation des rituels agiles (sprints de 3 semaines). Outils : JIRA, Confluence. Le rôle nécessite un esprit critique fort, une capacité à challenger le besoin et à proposer de la valeur. PROFIL RECHERCHÉ – Expérience : 8 ans dans la Data, dont minimum 4 ans en Chef de Projet Data ou Product Owner. – Connaissances solides du Retail (processus opérationnels, planification, référentiel produit). – Qualités attendues : – Autonomie et prise d’initiative – Leadership naturel pour fédérer les équipes – Capacité d’analyse poussée et esprit critique – Sens de la communication vers les métiers comme vers la tech
Freelance

Mission freelance
Developpeur COBOL H/F

Publiée le
COBOL
IBM Db2
JCL (Job Control Language)

2 ans
400-550 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Developpeur COBOL H/F à Paris, France. Les missions attendues par le Developpeur COBOL H/F : - Contexte / Objectifs o Participer aux maintenances du domaine gestion Crédit pour renforcer l’équipe o Devs / tests unitaires / Livraison en recette et en prod
Freelance

Mission freelance
Ingénieur étude décisionnel Datastage /  Power BI

Publiée le
Teradata
Test unitaire
Ticketing

18 mois
150-400 €
Paris, France
Contexte du besoin le client dans le cadre de son activité Décisionnel, recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement Expérimenté (profil ayant une expérience de 3 à 7 ans dans la même famille de prestations, sur justification des références clients) renforcement de l'équipe de développement avec l'intégration d'une resource maitisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) MISSIONS Rattaché au responsable développement du SI Décisionnel, l'intervenant aura pour principales missions : - Développement de programme dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL Technologie ou les certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL Définition des prestations attendues : Prestation de développement en coordination avec équipe BE , qualification et scrum master Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL" Compétences techniques Connaissance d'ETL/ELT décisionnel : DATASTAGE plus particulièrement Requêtage SQL Développement de restitution Décisionnel POWER BI (Dataset, dataflow, rapports) Méthode SCRUM & Manipulation d’un gestionnaire de ticketing (type JIRA) Compétence métiers Expérience dans l'écosystème de la protection sociale Retraite Complémentaire des salariés du privé idéalement
Freelance

Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Freelance
CDI

Offre d'emploi
Data Engineer Expérimenté

Publiée le
Microsoft Power BI

18 mois
40k-45k €
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions :Data Management Data Engineer Spécialités technologiques : ETL, Gouvernance des données, Intégration de données MISSIONS Notre client est engagé dans une transformation en profondeur et la modernisation de son Système d’Information. Les équipes Data, intégrées à la DSI, jouent un rôle central dans la réussite de ces projets de modernisation, tant sur le plan technologique que métier. Vous interviendrez sur plusieurs axes clés : - Conception et développement d’outils et de processus de gouvernance des données. - Mise en place d’outils de pilotage de la qualité, de la sécurité et de la traçabilité des données. - Développement de solutions et de processus visant l’amélioration continue de la qualité de service. - Participation au suivi de la production en tant que lead de l’équipe Data sur les projets de run. - Analyse des incidents de production et des tickets utilisateurs de niveau 1. - Développement et maintenance des traitements ETL Batch Data sous Semarchy xDI. - Rédaction et publication de rapports et indicateurs flash sur la qualité de service du SI Data. Vos missions : - Développer des traitements de contrôle de la qualité des données, notamment industrialisés - Assurer le suivi de production et l’analyse des incidents de premier niveau. - Traiter et résoudre les incidents liés à la qualité des données : analyser les causes, identifier et solliciter les bons interlocuteurs pour leur résolution. - Contribuer à l’amélioration continue et au renforcement de la qualité de service, en collaboration avec les équipes de Gouvernance des Données.
Freelance

Mission freelance
Expert SSIS

Publiée le
MySQL

18 mois
100-480 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 7 ans et plus Métiers Fonctions : Etudes & Développement, Expert Spécialités technologiques : ETL MISSIONS Vous interviendrez au sein de l’équipe Data qui a été en charge de la création d’un nouvel entrepôt décisionnel (collecte, entrepôt, magasins) dont l’alimentation se fera avec l’ETL Microsoft SSIS. La mise en production vient d'être réalisée L'entrepôt implique des traitements de volumes moyens, avec des enjeux de performance à ne pas négliger afin de garantir une production quotidienne d’indicateurs. Compétences recherchées : · Très bonne maîtrise de SQL Server · Expertise confirmée en SSIS (développement, tests, déploiement, optimisation) · Expérience significative sur la gestion et l’ordonnancement de traitements SSIS · Maitrise des concepts fondamentaux de projets décisionnels : extraction fichiers CSV, dumps bases de données, modélisation en étoiles, restitution d’indicateurs etc. · Bonne compréhension des problématiques de performance, indexation, partitionnement, parallélisation des flux, etc. · Autonomie, rigueur, et esprit d’équipe Socle technologique transverse (hors SSIS) : Talend, PostgreSQL, Linux, Suadeo (datavisualisation), SF Expertise souhaitée Parfaite maitrise de l'ETL Microsoft SSIS Compétences Technologies et Outils Linux PostgreSQL Talend SQL Server Soft skills Autonomie Rigueur
Freelance
CDI

Offre d'emploi
DATA ENGINEER

Publiée le
BigQuery
MySQL
Python

6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Nous recherchons un Data Engineer GCP confirmé pour accompagner nos clients dans la mise en place et l’industrialisation de leurs pipelines data au sein d’environnements Cloud exigeants. Missions : Conception et développement de pipelines data dans GCP (Dataflow, Dataproc, Composer). Modélisation et optimisation des tables dans BigQuery. Mise en place de bonnes pratiques CI/CD (Cloud Build, GitLab CI, Terraform…). Industrialisation, monitoring et optimisation des workflows. Collaboration étroite avec les équipes Data, Produit et Architecture. Compétences recherchées : Maîtrise des services GCP Data (BigQuery, Dataflow, Pub/Sub, Composer). Très bonne expertise Python et frameworks ETL. Connaissances des bonnes pratiques DevOps (Docker, Terraform…). Expérience en environnement Data à forte volumétrie. Esprit analytique, autonomie et capacité à travailler en équipe. Profil attendu : 3 à 5 ans d’expérience en Data Engineering. Expérience significative sur GCP obligatoire. Une certification GCP Data Engineer est un plus.
Freelance

Mission freelance
[SCH] Architecte GCP - 1064

Publiée le

10 mois
350-450 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation et centralisation des données RH, le client recherche un Architecte Google Cloud Platform (GCP) expérimenté pour concevoir, déployer et accompagner la mise en place d’une plateforme Data RH unifiée. L’objectif est de fiabiliser, gouverner et valoriser les données RH au sein d’un environnement GCP à forte volumétrie. Missions principales : -Concevoir et documenter l’architecture GCP (BigQuery, Cloud Composer, Storage, IAM, Dataflow…). -Accompagner les équipes Data et RH sur la migration, intégration et fiabilisation des flux de données existants. -Piloter la mise en œuvre des pipelines ETL/ELT et orchestrations avec Cloud Composer / Airflow. -Assurer la sécurité, la gouvernance et la qualité des données dans le respect des standards du groupe. -Contribuer à l’industrialisation des environnements (Terraform, CI/CD). -Coacher les équipes internes sur les bonnes pratiques GCP et l’usage de BigQuery pour les reporting RH. -Participer aux rituels agiles (daily, sprint review, backlog grooming). Objectifs & livrables attendus : -Architecture GCP validée et documentée (DAT, DEX, schémas d’intégration). -Mise en place de la plateforme Data RH (BigQuery, Composer, GCS). -Pipelines automatisés et sécurisés pour la collecte, transformation et exposition des données RH. -Accompagnement des équipes jusqu’à la stabilisation et passage en RUN. Profil recherché : - +8 ans d’expérience en architecture data / cloud, dont 3+ sur GCP. -Maîtrise approfondie des composants BigQuery, Cloud Composer (Airflow), Cloud Storage, IAM. -Expérience en data engineering / ETL / orchestration. -Connaissance des outils de visualisation type Power BI. -Sensibilité aux enjeux RH et gouvernance des données. -Pratique confirmée de l’agilité (Scrum / SAFe). -Excellent relationnel et capacité à vulgariser les aspects techniques auprès des équipes métiers.
CDI

Offre d'emploi
Cloud Data Engineer

Publiée le
Big Data
Cloud

60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
[FBO] Développeur FullStack (Node/JavaScript/VueJS) - Paris - 1050

Publiée le

11 mois
1-350 €
Paris, France
Télétravail partiel
Nous recherchons pour notre client Banque basé à Paris Gare de Lyon, un Développeur FullStack (Node/JavaScript/VueJS) - Expérimenté avec un minimum de 4 ans d’expériences sur des projets similaires. Projet : La prestation vise à participer aux activités de Maintien en Condition Opérationnelle (MCO) : Suivi de production, Analyses de dysfonctionnements et d’impacts Correction d'anomalies Optimisation de traitement Assistance utilisateur Maintien de la documentation à prendre en charge tout ou partie des projets d'évolution des patrimoines de la squad « Décisionnel ERPI » : Analyse du besoin Conception de la solution et chiffrage Spécifications détaillées Développement, test unitaire Accompagnements de la recette et de la mise en production Principaux livrables : Développement ; Analyse fiche NOEMI ; Spécifications techniques ; Reporting MCO. Compétences requises : Oracle PL/SQL Unix La connaissance de SAS et de l’ETL Informatica serait un plus Notion en Assurance vie Individuelle L’appétence au fonctionnel est indispensable
58 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous