L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 135 résultats.
Offre d'emploi
Data Architect / Data Engineer (H/F)
Publiée le
Cloud
1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Mission freelance
PRODUCT OWNER DATA SUPPLY
Publiée le
Snowflake
12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Mission freelance
Chef de projet technique Data plateforme - Nantes
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Mission freelance
Data Engineer Python AWS
Publiée le
AWS Cloud
Python
12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Offre d'emploi
Business Analyst Data & Géodonnées H/F
Publiée le
API
Data analysis
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
La mission s’inscrit dans le cadre de la construction d’un GeoDataHub , une plateforme visant à collecter, centraliser et diffuser des données géographiques externes (open data ou données payantes). L’objectif est de rendre ces données accessibles aux différentes équipes métiers (climat, BtoB, digital, data, etc.) afin de : Modéliser les risques climatiques Optimiser les leviers de tarification et de souscription Développer des dispositifs de prévention et d’alerte Appuyer la gestion de crise en cas d’événements climatiques majeurs Objectifs du GeoDataHub Le projet vise à construire et enrichir plusieurs référentiels géographiques : Connaissance du territoire Climat / météo Caractérisation des bâtiments d’une adresse donnée (MVP prévu pour T4 2025) Caractérisation de l’aléa climatique (scores géoclimatiques – planifié pour 2026) Missions principales S’approprier les parcours métiers et décrire les parcours utilisateurs en lien avec les équipes métier et design. Assurer le lien entre les acteurs métier et techniques (développeurs, testeurs, data engineers). Analyser les anomalies et identifier les causes (outils, parcours, données). Évaluer l’impact métier des solutions livrées (durée de traitement, performance, usage). Concevoir des solutions fonctionnelles cohérentes et alignées sur les besoins exprimés. Rédiger les expressions de besoin et challenger les demandes métiers. Rédiger et découper les User Stories (HU), définir les critères d’acceptation et les spécifications fonctionnelles détaillées (SFD IHM / SFD API). Contribuer à la priorisation du backlog et signaler les alertes ou points de blocage. Livrables attendus Expression de besoin (sous forme d’User Stories) Spécifications fonctionnelles (API, ingestion de données, solutions) Études d’impacts Spécifications de tests & PV de validation Compte-rendus d’activités hebdomadaires Documentation technique en Markdown Compétences techniques et fonctionnelles Rédaction de spécifications d’API et de flux d’ingestion de données Analyse d’anomalies et recettes fonctionnelles Maîtrise des outils : GDR, GAP, VSI Automatisation de tests API Support aux développeurs Bonne compréhension des processus de tarification/souscription (produits IARD ou habitation) Intérêt pour la donnée géographique et climatique Environnement et collaboration Mission réalisée en interaction avec : Les équipes métiers (tarification, souscription, prévention), Les équipes techniques (développement, data, API), Des experts climat et data (modélisation, visualisation).
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Offre d'emploi
Data Analysis – AMOA NIveau 3
Publiée le
Business Analyst
18 ans
40k-45k €
100-400 €
Strasbourg, Grand Est
Télétravail partiel
CONTEXTE : La demande porte sur une mission de contribution à des projet de BI en lien avec le Datalake . Ce rôle combine des compétences techniques en analyse de données avec une compréhension approfondie des processus métiers. La demande porte sur une mission de maitrise d’ouvrage spécialisée Data avec un profil Business Analyst orienté Data/BI. MISSIONS Data Analyst / Assistance à Maitrise d’ouvrage Le profil interviendra dans l’équipe offre métier ; rattaché au responsable d’équipe, il interviendra sur des projets orientés DATA impactant le Datalake. Ces projets spécifiques nécessitent : • Une bonne compréhension des besoins de reporting attendus par les utilisateurs métiers • Une bonne compréhension des processus métiers sous-jacents à l’origine de la production des flux de données Nature des tâches : • Compréhension des process métier et des besoins de reporting des interlocuteurs métiers (back office, chefs produit…) • Analyse des données existantes pour définir les modalités de production de ce reporting • Rédaction des spécifications à destination de l’équipe Data (composée de data engineers) pour la phase d’industrialisation : formalisation des données manipulées, des règles de gestion (filtres, relations, etc.), règles de gestion, définition métier des fonctions de collecte de données • Suivi et pilotage du projet jusqu’à la livraison au client Compétences requises : • Fonctionnelles et transversales o Capacité à traduire des besoins métiers en analyses concrètes o Esprit critique et rigueur dans l’interprétation des données o Excellentes compétences en communication et vulgarisation de données complexes o Autonomie, proactivité et capacité à travailler en équipes • Techniques et analytiques : o Utilisation des outils d’analyse de données (SQL, Notebooks Python, Excel, Power Query…) o Utilisation des outils de Visualisation de données (Power BI)
Offre d'emploi
Dev Python Dataiku
Publiée le
API REST
Dataiku
MySQL
6 mois
40k-45k €
100-550 €
Île-de-France, France
Télétravail partiel
Missions principales 1. Développement & Industrialisation dans Dataiku DSS Développer des recipes Python , SQL , Spark et orchestrer les flows Dataiku. Structurer et optimiser les pipelines : ingestion, préparation, transformation, scoring, export. Gérer et maintenir les environnements Python (code env) dans Dataiku. Intégrer les projets au sein des environnements 2. Automation & Orchestration Mettre en place des scenarios (planification, dépendances, notifications, reprise sur incident). Contribuer à l’ industrialisation des flux et au respect des bonnes pratiques DevOps / DataOps. 3. Qualité, Sécurité & Conformité Implémenter des metrics & checks de qualité de données dans les projets. Respecter les exigences du groupe : sécurité, gouvernance, confidentialité, traçabilité. Documenter les projets dans le Wiki Dataiku 4. Support & Collaboration Travailler avec les équipes Data (Analysts, Scientists, Owners) pour cadrer les besoins. Participer à l’optimisation des performances et à la résolution d’incidents techniques. Contribuer à la montée en compétences des utilisateurs Dataiku (bonnes pratiques, support niveau 2).
Mission freelance
Directeur de projet Réseau Télécom
Publiée le
Comité de pilotage (COPIL)
JIRA
Scrum
18 mois
210-700 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 9 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Directeur de projet télécom Spécialités technologiques : Workplace, Poste de travail, Workplace, Protocoles de communication, Réseaux Télécom, WAN, LAN MISSIONS La Direction Workplace & Network souhaite transformer en profondeur son modèle de services réseau managés (WAN / LAN / WIFI) afin d’améliorer la performance, la résilience et la qualité de service pour ses multiples sites. L’organisation mène une consultation visant à passer d’un modèle mono-opérateur à un vivier de deux opérateurs, et recherche un Directeur de projet pour piloter l’ensemble des sujets liés à cette transformation stratégique. Le périmètre fonctionnel couvre : des offres réseau WAN, LAN et WIFI managé, un ensemble de chantiers structurants liés à la rénovation du réseau de collecte IP. Piloter les travaux liés à la consultation en cours sur les solutions WAN, LAN, WIFI et accès Internet managés. Préparer l’ensemble des éléments nécessaires à la mise en place du nouveau vivier d’opérateurs réseau. Coordonner les équipes internes (experts, architectes, NOC, métiers) et assurer le rôle de référent auprès du Programme Groupe. Définir, organiser et piloter les activités nécessaires à la transition d’un modèle opérateur unique vers un modèle multi-opérateurs. Volets principaux de la mission : 1) Pilotage de la consultation opérateurs Analyse détaillée des réponses des soumissionnaires aux exigences techniques et fonctionnelles. Synthèse des offres (V2) et préparation des ateliers avec les soumissionnaires shortlistés. Animation et mobilisation des équipes internes (experts réseau, data analysts, PO, etc.). Production des supports pour les instances et ateliers de consultation. 2) Préparation du nouveau modèle de services réseau Rôle de référent auprès du Programme Groupe et des équipes architecture / exploitation. Participation à la définition des référentiels réseau. Identification, distribution et coordination des activités préparatoires au sein du NOC. Élaboration des lotissements macro pour alimenter Business Case et budgets. Animation d’ateliers internes sur les sujets : processus, architecture, outillage, exploitation. 3) Pilotage produit & Gouvernance Participation à la vision Product Management : objectifs, features, roadmap. Co-construction des solutions avec les équipes réseau pour respecter les engagements du produit. Défense des intérêts de l’organisation auprès des opérateurs et du Groupe. Contribution aux COPIL des projets de transformation. Livrables attendus : Synthèses et analyses des offres opérateurs. Supports et CR d’ateliers de consultation. Contributions aux référentiels réseau. Lotissements macro, inputs Business Case. Supports COPIL et documents de gouvernance. Documentation projet et processus associés. Expertise souhaitée Compétences techniques : Maîtrise solide des offres télécom managées WAN / LAN / WIFI. Très bonne connaissance des enjeux d’un réseau de collecte IP. Pilotage d’appels d’offres opérateurs réseau. Maîtrise JIRA indispensable. Confluence, Klaxoon appréciés. Pratique de SAFe ou SCRUM (formation SAFe obligatoire). Soft skills : Leadership, coordination, analyse, synthèse, curiosité, animation, communication claire.
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Offre d'emploi
Ingénieur DevOps
Publiée le
API REST
AWS Cloud
Github
12 mois
40k-55k €
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Au sein d’une Business Unit dédiée à la Data, vous interviendrez sur une plateforme cloud stratégique, utilisée par l’ensemble des profils data : data engineers, data scientists, data analysts et équipes de développement. Votre rôle sera de contribuer à l’évolution, la résilience et la sécurité de l’infrastructure data, tout en apportant un support technique avancé. Votre rôle Vous serez impliqué·e dans trois périmètres principaux : 1. Évolution et exploitation d’une offre de compute Kubernetes (AWS EKS) Faire évoluer le produit selon l’état de l’art et automatiser les fonctionnalités existantes et futures. Analyser, challenger et formaliser les besoins utilisateurs. Automatiser la mise à disposition de ressources et d'accès en self-service. Assurer le maintien en condition opérationnelle (MCO) et le support N3. Suivre les évolutions de Kubernetes et de l’écosystème CNCF. Garantir la sécurité et la conformité des clusters. Améliorer en continu les mécanismes d’observabilité (logs, métriques, alerting). Veiller à la fiabilité, l’évolutivité et la maintenabilité du produit. 2. APIsation de la plateforme Identifier les besoins Ops et les traduire en solutions techniques basées sur des API. Concevoir, développer et maintenir des API robustes et évolutives. Garantir la maintenabilité, la performance et l'interopérabilité entre les services. 3. Animation technique & bonnes pratiques DevOps Mettre en place une automatisation complète de la chaîne de delivery. Garantir la qualité des livrables et standardiser les processus. Automatiser les tâches répétitives ou sources d’erreur. Sensibiliser et accompagner l’équipe sur les bonnes pratiques DevOps. Ce qui fera votre succès Mindset & Soft Skills Proactivité et ownership : être moteur sur l’amélioration continue et l’évolution des produits. Culture de l’automatisation : chercher systématiquement à simplifier et industrialiser. Communication technique pédagogique : capacité à vulgariser, challenger et guider. Exigence sur la sécurité et l’observabilité , intégrées nativement dans les conceptions. Veille technologique active , notamment sur Kubernetes, CNCF et AWS.
Offre d'emploi
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Publiée le
Dataiku
Python
Scripting
6 mois
40k-60k €
400-600 €
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider ou être proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Offre d'emploi
ARCHITECTE DATA / BI / POWER BI SENIOR
Publiée le
Azure
Microsoft Power BI
3 ans
40k-60k €
400-650 €
Paris, France
Télétravail partiel
Bonjour 🙃, Pour le compte de notre client, nous recherchons un Architecte DATA / BI / CLOUD AZURE / POWER BI. Contexte : Dans le cadre de projets stratégiques de transformation digitale et d’exploitation des données, nous recherchons un Architecte Data expert sur les environnements Azure et outils Power BI . Le consultant sera intégré aux équipes Data & BI pour définir l’architecture cible, piloter les projets d’intégration, et garantir la qualité et la sécurité des flux de données. Missions principales : Définir et mettre en œuvre l’architecture Data sur le cloud Azure (Data Lake, Data Factory, Databricks, Synapse). Concevoir et structurer les pipelines de données pour ingestion, traitement et transformation des données massives. Développer et superviser des solutions Power BI : dashboards, rapports, cubes tabulaires, DAX, modèles analytiques. Assurer la qualité, sécurité et gouvernance des données , en lien avec les référents Data et équipes infrastructure. Piloter les phases de modélisation et intégration des données, en collaboration avec les Data Engineers et Data Analysts. Participer à la définition des standards de développement , bonnes pratiques et documentation technique. Réaliser des revues techniques et valider les choix d’implémentation des équipes projet. Conseiller les métiers sur l’exploitation des données et la prise de décision via les outils BI . Participer à l’accompagnement et formation des équipes sur les pratiques et outils Data. Compétences techniques indispensables : Expertise en Azure Data Platform : Data Lake, Data Factory, Synapse Analytics, Databricks. Maîtrise des langages SQL / T-SQL et des pratiques de modélisation de données. Power BI : développement de dashboards, rapports, modèles analytiques et DAX. Connaissance des ETL/ELT , pipelines et intégration de flux complexes. Connaissance de la sécurité, gouvernance et gestion des accès aux données. Expérience avec CI/CD sur Azure DevOps et versioning. Compétences transverses : Vision globale et capacité à traduire les besoins métiers en architecture technique. Leadership et capacité à piloter et conseiller des équipes techniques. Excellent relationnel et communication avec les équipes techniques et métiers. Sens de l’organisation et capacité à gérer plusieurs projets simultanément.
Mission freelance
Data engineer senior H/F
Publiée le
Google Cloud Platform (GCP)
HFSQL
Python
2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Mission freelance
Data Engineer - Spark Hadoop - 2 jours TT - Service Public
Publiée le
Apache Spark
Hadoop
6 mois
450-500 €
La Défense, Île-de-France
Télétravail partiel
Concevoir, développer et maintenir des pipelines de données robustes et scalables (batch et streaming). Participer à la mise en place et à l’optimisation de la plateforme Big Data (Hadoop/Spark). Intégrer, transformer et nettoyer des données issues de différentes sources (API, bases relationnelles, fichiers plats, etc.). Collaborer étroitement avec les Data Scientists et Data Analysts pour la préparation et la mise à disposition des datasets. Contribuer aux bonnes pratiques de développement, d’automatisation (CI/CD), et de gestion de la qualité des données. Assurer la documentation technique et la maintenance des flux existants. Participer à la montée en compétences de l’équipe interne sur les outils Big Data.
Offre d'emploi
Développeur Data (Bordeaux)
Publiée le
Apache Kafka
DBT
Microsoft Power BI
3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
135 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois