Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support
Mission freelance
[MDO] Data & AI - Data Architect
Migration des environnements : Cloudera vers Teradata. Dans le cadre d’un projet stratégique de migration des environnements Big Data , notre client cherche à migrer l’ensemble des traitements et des programmes de la plateforme Cloudera vers un environnement Teradata . Cette migration vise à optimiser les performances, la maintenabilité des traitements et à homogénéiser les technologies au sein de l’organisation. Conception et évolution de modèles de données dans des contextes décisionnels Conception et développement de solutions d'alimentation des entrepôts de données et gestion des traitements en production Capacité à rédiger des spécifications techniques et fonctionnelles Technologies : Teradata (Bteq) : Solide maitrise SQL : Maitrise avancée Localisation : Indre-et-Loire (44610) Remote : Présence sur site de deux jours toutes les deux semaines ) Français requis

Offre d'emploi
Data Engineer GCP & Talend
Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. Description Missions principales • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe Livrables Développements Cahiers de test/recette Dossier de recette / Mise en production Spécifications Document d'exploitation Fiche consigne Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • Talend : Solides compétences dans la conception et la gestion des workflows • GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d’autres services GCP liés aux données. • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).

Offre d'emploi
Data Engineer | AWS | Databricks
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

Offre d'emploi
Data Engineer SQL Server (T-SQL)
Dans le cadre d’un renforcement d’équipe Data notre client recherche un Data Engineer confirmé spécialisé sur SQL Server . Vous serez responsable de : Maintenance évolutive et corrective des flux de données Développement SQL : modélisation, transformation de données, calculs d’indicateurs Gestion des flux de données : fichiers plats, XML, API REST, web services Ordonnancement des traitements via Control-M Optimisation de requêtes SQL et modèles de données Rédaction de documentations techniques Réalisation de tests unitaires et participation aux recettes Support utilisateur et gestion des incidents Participation active à la méthodologie Agile (Kanban) : Daily, poker planning, rétrospectives
Mission freelance
CP DATA
Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un CP DATA. Objectif du poste : Piloter les projets Data liés aux référentiels produit et fournisseur du siège. Le Chef de Projet Data travaillera en binôme avec un Chef de Projet Fonctionnel, assurera le pilotage de l’équipe nearshore au Maroc, et la coordination des Business Analysts basés à Paris. Contexte fonctionnel : Le projet principal porte sur la gestion des référentiels de données produit et fournisseur. Une appétence forte pour les problématiques de référentiel est donc attendue.

Mission freelance
Protection des données personnelles Opérationnel
La mission consiste à intervenir de façon opérationnelle sur les enjeux liés à la protection des données personnelles : RGPD, construire et mettre à jour un registre des traitements, faire les analyses de risques, assurer les entretiens. Compétences INDISPENSABLES attendues : METIER : - Expériences significatives et maitrise de RGPD et capacité à construire un registre des traitements. - Capacité à faire les analyses de risques, assurer les entretiens. - Fortes compétences en data management. Excellent niveau d’anglais.

Mission freelance
Data & AI - Data Architect
Contexte de la mission : Dans le cadre de l'évolution de notre écosystème décisionnel, nous lançons un projet de migration des environnements de Cloudera vers Teradata . Ce projet stratégique vise à assurer la continuité et l’optimisation des traitements de données critiques. Objectif de la mission : Assurer la migration des programmes existants sur Cloudera vers Teradata, ainsi que l’ adaptation des traitements en lien avec les nouveaux environnements cibles. Compétences techniques attendues : Maîtrise avancée de Teradata , en particulier BTEQ SQL avancé (optimisation, requêtes complexes) Conception et évolution de modèles de données décisionnels Développement de solutions d’alimentation d'entrepôts de données Gestion des traitements batch en production Rédaction de spécifications techniques et fonctionnelles
Offre d'emploi
Data engineer teradata
Au sein de la Squad Data, vous serez garant des évolutions techniques, de la maintenance et de la performance du Datamart centralisant les données financières du client. Vous interviendrez sur : Développement et optimisation des traitements, modèles de données et flux. Gestion des incidents et actions correctives. Monitoring, alerting et documentation technique. Collaboration étroite avec les Métiers, autres Squads et entités du Groupe 2jours de présence sur site sont requis dans le cadre de cette mission.

Mission freelance
Chef de projet Data
🚀 Freelance - Chef de Projet Data 🚀 Vous souhaitez piloter un programme Data stratégique, transversal et ambitieux ? 🌟 Contexte du projet Depuis 2 ans, le client mène le programme Data Foundation : Refonte complète de l’architecture Data Création d’un Data Lake sur Azure Migration du Data Warehouse d’Oracle vers Microsoft Fabric Mise en place et centralisation du reporting Power BI Déploiement d’outils de Data Gouvernance (IBM MDM, Data Quality, Data Catalogue) Gestion de 24 ERP au niveau groupe 📌 Vos missions Pilotage de projets Data (BUILD & amélioration continue) Gestion du portefeuille projets et respect des jalons Interface entre équipes métier, IT, marketing et communication Analyse d’impacts et traduction des besoins en usages business Contribution aux projets en cours : intégration PIM, DAM, données de stock 🛠 Stack & environnement Microsoft Dynamics CRM, Azure Data Lake, Power BI Équipe : 6 personnes (chefs de projet, business analysts, architecte, data stewards) Partenariats avec Micropole, IBM, Cleverage, etc. 📍 Modalités Démarrage : fin septembre 2025 Contrat : 6 mois Localisation : Tarare (2 jours télétravail/semaine après période d’essai) Déplacements ponctuels (Paris, Grenoble) 💡 Profil recherché Un chef de projet transversal, capable de comprendre les enjeux business et techniques, facilitateur, orienté résultats et collaboration. 📩 Intéressé(e) ? Contactez-moi en message privé pour échanger.

Mission freelance
Testeur Data
Pour le besoin de mon client, je suis à la recherche d'un Testeur Data Être le testeur référent de l’équipe Big Data Porter les chantiers d’automatisation de test, cahier de recette, TNR sur Squash... ... .... ... .... ... .... ... ... ... ... .. ... .. .. ... .. ... ... ... ... ... ... .. .. ... ... ... ... ... ... .. . . .. ... .. .. .. .. .. .. .. .. .. .. .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... . ...

Offre d'emploi
DATA ARCHITECTE DATAIKU
Le profil recherché rejoindra l’équipe en charge de l’offre de service, en tant que Data Architecte. Cette mission nécessite des connaissances : - Métiers (principaux concepts autour du risque de crédit) - techniques : outil SGBD (idéalement Teradata) et plateforme analytique (idéalement Dataiku) La mission se déroulant dans un environnement international, la maîtrise de l’Anglais est impérative. Les missions sont: - Accompagnement de la montée en compétences des nouveaux utilisateurs sur l’offre de service - Accompagnement les utilisateurs dans la conception et l'optimisation de leurs projets Dataiku - Réalisation des audits de qualité des projets Dataiku - Maîtrise du modèle de données et les concepts Métier - Participation au support et au développement de l’offre de service, et notamment sa couche d’exposition - Participation aux montées de version Dataiku, au travers de tests de non régression

Offre d'emploi
Data Architecte - Lyon
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre d'emploi
Data engineer BI
Contexte de la mission Dans le cadre d’un projet stratégique de reporting opérationnel , nous recherchons un·e Data Engineer expérimenté·e , orienté·e modélisation BI et performance , pour intervenir de bout en bout : structuration des données, création de modèles, alimentation du Lakehouse, et support à la datavisualisation métier (Tableau). Objectif : construire des tableaux de bord à forte valeur ajoutée tout en optimisant la qualité, les temps de réponse et les coûts liés à la plateforme. Missions principales Modélisation de données BI : modèle en étoile, flocon, Data Vault (si applicable) Manipulation avancée de données avec SQL Création de pipelines Databricks (Delta Lake, Notebooks, optimisation via Z-Order, caching, partitionnement…) Collaboration sur des notebooks pour analyses avancées Optimisation des performances sur environnement Lakehouse Intégration de Databricks avec des environnements cloud (Azure ou AWS) Participation à la conception des dashboards dans Tableau (Salesforce) Contribution active à la qualité de la donnée, documentation et bonnes pratiques

Mission freelance
Product Owner IA / Data
Contexte de la mission Dans le cadre du programme d’accélération de l’Intelligence Artificielle, nous recherche un Product Owner expérimenté afin d’accompagner la Direction Informatique dans la mise en place et le pilotage de produits et services IA. La mission s’inscrit dans un environnement agile à grande échelle et international, avec une forte interaction entre équipes métiers, équipes data/IA et parties prenantes techniques. Le consultant sera en charge des activités suivantes : Définir la stratégie produit sur son périmètre, en lien avec la vision globale de l’entreprise. Identifier, prioriser et gérer les backlogs des différents axes stratégiques. Garantir la mise en œuvre des méthodes de discovery et le suivi du delivery . Coordonner et collaborer avec les équipes de développement, data scientists, ingénieurs IA, métiers et partenaires externes. Définir et suivre les KPIs liés aux produits IA, analyser les résultats et proposer des axes d’amélioration. Participer à la définition des stratégies de gestion et de sécurisation des données. Accompagner la mise en main des produits (documentation, formation, support en conditions opérationnelles).

Offre d'emploi
DATA ENGINEER GCP x PYTHON
Je recherche pour un de mes clients un Data Engineer Python x GCP : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Compétences techniques : • Langages de programmation : Python, Scripts Shell • Modélisation des données : Modèle Physique des Données (MPD), requêtes SQL. • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XM
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.