Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 425 résultats.
Freelance
CDI

Offre d'emploi
AI/ML Product Engineer

Publiée le
Data science
Deep Learning
IA Générative

12 mois
Aubervilliers, Île-de-France
Télétravail partiel
Support aux unités opérationnelles dans la conception, le développement et l’industrialisation de solutions d’intelligence artificielle (IA) à travers tous les segments de l’énergie (bâtiments, sites industriels, réseaux, production). En s’appuyant sur une expertise approfondie du domaine de l’énergie et de solides compétences en AI/ML, le but est de transformer les problématiques opérationnelles en produits IA prêts pour la production, évolutifs et performants. L’objectif est de se concentrer sur des cas d’usage à fort impact, susceptibles de générer des résultats mesurables en termes de performance énergétique et de décarbonation, tout en créant des composants ML/AI robustes, explicables et réutilisables, intégrés à la plateforme de données du Groupe et déployables dans plusieurs unités opérationnelles. Objectifs et livrables Concevoir, développer et déployer des solutions IA/ML évolutives pour optimiser la performance énergétique et accélérer la décarbonation dans toutes les unités d’énergie. Transformer les défis opérationnels liés à l’énergie en produits IA prêts pour la production, en collaborant étroitement avec les équipes de Data Science et IT. Construire et maintenir une bibliothèque réutilisable de composantes IA explicables, intégrées à la plateforme de données du Groupe pour un déploiement cross-BU. Piloter la livraison complète des solutions, de la phase de proof of concept (POC) à la mise en production, en garantissant la faisabilité technique, la qualité des données et un impact métier mesurable. Favoriser le partage des connaissances et la réplication des solutions grâce à une documentation complète, des modèles et des guides de déploiement. Faciliter la collaboration inter-fonctionnelle entre les unités opérationnelles, la Data Science, l’IT et les fonctions centrales pour prioriser et exécuter les cas à fort impact.
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

Publiée le
BI

24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
CDI

Offre d'emploi
Développeur IT Java / Cobol

Publiée le
BPM (Business Process Management)
Budget Management
Data management

25k-32k €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de nos équipes IT , Nous lancons un appel d’offres pour le recrutement d’un Développeur IT Java / Cobol . La mission s’inscrit dans un environnement applicatif à forte valeur métier, combinant des technologies legacy (Cobol) et des composants plus récents en Java. Objectifs de la mission Assurer la maintenance, l’évolution et la fiabilité des applications cœur de métier. Participer aux projets de modernisation du SI en lien avec les équipes fonctionnelles et techniques. Garantir la qualité, la performance et la sécurité des développements. Description de la mission Le consultant interviendra principalement sur les activités suivantes : Analyse des besoins métiers et rédaction des spécifications techniques Développement et maintenance d’applications en Cobol (batch et/ou transactionnel) Développement et évolution de composants applicatifs en Java Correction d’anomalies, optimisation des performances et refactoring du code Réalisation des tests unitaires, d’intégration et participation aux recettes Contribution aux mises en production et au support applicatif Documentation technique et transmission de connaissances Collaboration étroite avec les équipes MOA, IT, production et support
Freelance
CDI
CDD

Offre d'emploi
Expert AppSec / DevSecOps / Sécurité API (H/F)

Publiée le
API
DevSecOps

1 an
Paris, France
🎯 Contexte Dans le cadre du renforcement de la sécurité applicative et de la stratégie DevSecOps, l’entreprise souhaite intégrer un expert capable d’évaluer, sécuriser et accompagner les équipes autour des enjeux AppSec et sécurité des API. L’objectif est de réduire les risques cyber, d’améliorer les processus de développement sécurisé et de garantir la conformité des applications et API avec les standards internes et internationaux. 🎯 Objectif global Accompagner la sécurité des applications (AppSec), la promotion du DevSecOps et la sécurisation des API. 📝 Description détaillée 1️⃣ Sécurité des applications (AppSec) L’expert devra intervenir sur : Audit complet de sécurité des applications internes et solutions tierces. Identification des vulnérabilités (ex. : OWASP Top 10 ) et évaluation des risques. Analyse et interprétation des résultats d’outils : SAST (analyse statique), SCA (analyse des composants), DAST (analyse dynamique)… Rédaction de rapports techniques détaillés : vulnérabilité, criticité, recommandations. Présentation des résultats aux développeurs et synthèses destinées aux responsables sécurité. Analyse des pratiques DevOps existantes, identification des lacunes et proposition de plans de remédiation. Support aux équipes pour la mise en place de pratiques de développement sécurisé. 2️⃣ Sécurité des API L’expert devra : Participer à l’élaboration et à la mise en œuvre de la stratégie de sécurisation des API. Réaliser des analyses approfondies des API : authentification, autorisation, niveau d’exposition, protections contre attaques (injection, CSRF, etc.). Accompagner les développeurs dans la remédiation des failles détectées. Rédiger des guides et standards de sécurité : politiques d’accès, protocoles de sécurisation, processus de gestion des incidents. Assurer un reporting régulier sur l’état de sécurité des API et mettre à jour la documentation. 📦 Livrables Audits AppSec détaillés Rapports de vulnérabilités Guides de sécurité API Recommandations DevSecOps Documentation technique mise à jour Plans de remédiation 🧩 Compétences techniques requises Impératif – Niveau Expert Sécurité des API Sécurité des applications (AppSec) Analyse de vulnérabilités Méthodologies et outils SAST / DAST / SCA Important Analyse & gestion de vulnérabilités avancée Bonnes pratiques de développement sécurisé Expérience DevSecOps Présentation des résultats à des équipes techniques et non techniques 🗣️ Connaissances linguistiques Anglais Professionnel – Impératif
Freelance
CDI
CDD

Offre d'emploi
Développeur Web Front-End Angular (H/F)

Publiée le
Angular
CSS
Front-end

1 an
40k-45k €
400-490 €
Paris, France
🎯 Contexte & Objectif Dans le cadre de la modernisation du portail du cloud privé, la mission consiste à développer le nouveau front-end du portail et à intégrer les nouvelles fonctionnalités conformément aux standards techniques et UX/UI du groupe. 📌 Description de la mission Le consultant interviendra en tant que Développeur Web Front-End expert Angular (niveau N4). 🔧 Activités principales Développer le nouveau design du portail front-end cloud privé Concevoir, développer et tester les interfaces et services associés Implémenter les appels aux données (CRUD) Décliner et appliquer les choix d’architecture Documenter les développements Assurer le support technique pendant tout le cycle de vie de l'application Corriger les anomalies et améliorations remontées par les utilisateurs 📌 Compétences techniques Impératives Angular – Expert CSS – Confirmé
Freelance

Mission freelance
Data Platform Engineer

Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Télétravail partiel
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
CDI

Offre d'emploi
Data Analyst - CDI Uniquement

Publiée le
Grafana
Python
SQL

40k-50k €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
ATTENTION, CDI UNIQUEMENT, POUR PERSONNE HABITANT OU SOUHAITANT S'ETABLIR A BRUXELLES OU PROCHE BRUXELLES: Dans le cadre de ses activités opérationnelles, l’organisation recherche un Data Analyst capable de soutenir les équipes métiers et IT dans l'analyse de la performance, la qualité des données, le reporting et la génération d’insights. La mission est orientée vers l’amélioration continue, la fiabilité opérationnelle et la valorisation des données issues de multiples systèmes. 2. Responsabilités principales A. Cas d’usage analytiques Analyse de la performance et de la fiabilité des processus opérationnels. Reporting sur les actifs et la maintenance (utilisation, disponibilité, temps d’arrêt). Analyse de tendances en sécurité , incidents et anomalies. Suivi des coûts et de l’efficacité opérationnelle dans différents domaines. B. Gestion & qualité des données Structuration et harmonisation de données issues de multiples systèmes opérationnels . Mise en place de processus de contrôle qualité pour assurer la fiabilité des analyses. Support à l’intégration des résultats analytiques dans les systèmes de reporting existants . C. Reporting & visualisation Conception et mise en œuvre de tableaux de bord dédiés aux utilisateurs opérationnels. Développement de KPI standardisés et cadres de reporting. Optimisation continue des rapports pour améliorer la lisibilité et la génération d’insights. D. Transfert de connaissances Coaching des Data Analysts internes (meilleures pratiques, storytelling, visualisation…). Documentation des processus analytiques, modèles de données et guidelines de gouvernance.
CDI
Freelance

Offre d'emploi
Senior Cloud Data Engineer

Publiée le
Apache Airflow
Apache Spark
AWS Cloud

6 mois
45k-60k €
550-600 €
Île-de-France, France
Télétravail partiel
Les Systèmes de Données du Groupe recherchent un(e) Senior Cloud Data Engineer passionné(e) basé(e) à Paris afin d’accompagner la forte croissance de nos activités. En rejoignant notre équipe, vous ferez partie d’une équipe autonome et serez affecté(e) à un programme de transformation , en travaillant sur des projets de Data Engineering . Vous apporterez des conseils en stratégie data , participerez à la conception de l’architecture et à sa mise en œuvre , et aurez l’opportunité d’expérimenter de nouvelles technologies et solutions . Au sein de notre équipe, vous serez accompagné(e) par des collègues dynamiques, toujours prêts à partager leurs connaissances . Nous attendrons de vous que vous apportiez des recommandations sur les meilleures pratiques . Vous serez un point central , mettant à profit vos compétences et votre état d’esprit pour contribuer au développement des compétences professionnelles de l’équipe, avec un accent particulier sur la fiabilité , la maintenabilité et la scalabilité des solutions que nous fournissons à nos clients. Compétences et expériences requises 3 à 5 ans d’expérience pratique dans la construction de pipelines de données sur des services et plateformes cloud publics , de préférence Amazon Web Services (notre principal fournisseur cloud) et/ou Azure , Google Cloud Platform Plus de 3 ans d’expérience dans l’ architecture , la conception , le développement , l’ implémentation et le support de solutions data Expérience dans plusieurs des domaines suivants : architecture de bases de données , ETL , business intelligence , big data , machine learning , analytique avancée Expérience dans des environnements basés sur Hadoop et Spark Expérience dans l’ orchestration de pipelines avec Airflow Expérience des architectures Lakehouse : Hudi, Iceberg, Delta Connaissance des optimisations Lakehouse : compaction , Z-Order , etc. Expérience en développement logiciel et en langages de transformation de données tels que Python , SQL , ainsi qu’avec Docker , les pipelines CI/CD et les concepts d’ automatisation pour construire des pipelines de traitement de données critiques Sensibilisation aux concepts clés du DevOps et aux principes Agile Connaissances de base des services fondamentaux du cloud (réseau, sécurité, stockage, IAM), de leur fonctionnement et de leurs options de configuration Esprit ouvert et attitude proactive en faveur de l’ apprentissage continu , du développement personnel et de l’orientation client Solides compétences relationnelles , avec une sensibilité et une compréhension des enjeux interculturels Capacité à garantir la performance , la disponibilité et la scalabilité des applications, tout en maintenant un haut niveau de qualité de code et une conception réfléchie En tant qu’ ingénieur cloud , vous livrez des solutions de haute qualité , de la conception à la mise en production, avec un fort accent sur la fiabilité , l’ automatisation , la maintenabilité et la sécurité Contribution à l’ évolution de notre offre de Cloud Data Engineering (conception, implémentation, déploiement)
Freelance

Mission freelance
Platform Reliability Engineer SRE & DevOps

Publiée le
Azure Data Factory
Azure DevOps Services
Datadog

12 mois
390-500 €
Versailles, Île-de-France
Télétravail partiel
Contexte et approche : La mission s’inscrit dans une démarche SRE et DevOps, avec une intégration à l’équipe Plateforme pour garantir fiabilité, exploitabilité et qualité des microservices. Principales responsabilités : Assurer l’intégration et l’exploitation opérationnelle des applications de la plateforme. Vérifier la conformité des livraisons selon les standards (nommage, logs, documentation, monitoring). Améliorer la documentation des releases. Définir et suivre des indicateurs de fiabilité (SLI/SLO), error budgets, en lien avec les équipes de développement. Configurer et maintenir dans Datadog les dashboards, règles d’alerting, runbooks, et améliorer l’observabilité. Diagnostiquer en profondeur les applications (.NET, PHP, JavaScript) via logs, traces et métriques (Datadog APM/Logs/RUM). Automatiser l’exploitation par la configuration d’autoscaling, health probes, politiques de redémarrage et procédures de failover. Conduire des post-mortems après incidents, documenter et piloter les actions correctives. Mettre à jour et optimiser les pipelines de déploiement dans Azure DevOps. Maintenir et faire évoluer les Helm charts pour le déploiement sur Kubernetes (AKS). Intégrer SonarQube dans les processus de livraison pour renforcer la qualité du code. Collaborer avec les tech leads, développeurs et QA pour intégrer les tests automatisés en CI/CD et renforcer la résilience des services. Assurer un support de niveau 3 sur les services de la plateforme et participer aux analyses post-incident.
Freelance

Mission freelance
Business Analyst Data - CMDB (F/H)

Publiée le

1 an
300-370 €
Villeurbanne, Auvergne-Rhône-Alpes
Télétravail partiel
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Villeurbanne - Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst Data - CMDB pour intervenir chez un de nos clients, dans le secteur bancaire. Contexte : En tant que Business Analyst, vous serez au cœur de la collecte et de l’analyse des besoins métiers pour garantir que les solutions techniques développées correspondent parfaitement aux attentes des utilisateurs. Objectif : déployer une CMDB de domaine, une CMDB fédérée et un Datamart, au cœur d’une transformation technologique et organisationnelle majeure. Votre expertise permettra de transformer la CMDB en un véritable outil de pilotage et de décision. Voici un aperçu détaillé de vos missions : - Vous analysez et formalisez les besoins, rédigez les spécifications fonctionnelles et les cahiers des charges - Vous documentez les processus de la CMDB et accompagnez les équipes métiers dans la mise en œuvre de la solution - Vous collaborez avec les équipes de développement à l’étranger pour assurer la conformité des solutions - Vous participez à la création de supports de formation et à l’animation de réunions métier
CDI

Offre d'emploi
Business Analyst Data - CMDB (F/H)

Publiée le

40k-45k €
Villeurbanne, Auvergne-Rhône-Alpes
Télétravail partiel
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Villeurbanne - Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst Data - CMDB pour intervenir chez un de nos clients, dans le secteur bancaire. Contexte : En tant que Business Analyst, vous serez au cœur de la collecte et de l’analyse des besoins métiers pour garantir que les solutions techniques développées correspondent parfaitement aux attentes des utilisateurs. Objectif : déployer une CMDB de domaine, une CMDB fédérée et un Datamart, au cœur d’une transformation technologique et organisationnelle majeure. Votre expertise permettra de transformer la CMDB en un véritable outil de pilotage et de décision. Voici un aperçu détaillé de vos missions : - Vous analysez et formalisez les besoins, rédigez les spécifications fonctionnelles et les cahiers des charges - Vous documentez les processus de la CMDB et accompagnez les équipes métiers dans la mise en œuvre de la solution - Vous collaborez avec les équipes de développement à l’étranger pour assurer la conformité des solutions - Vous participez à la création de supports de formation et à l’animation de réunions métier
Freelance

Mission freelance
Consultant BI – Azure Data Factory & Power BI

Publiée le
Azure Data Factory
Microsoft Power BI

1 an
400-500 €
Paris, France
Télétravail partiel
Dans le cadre de la modernisation de sa plateforme décisionnelle, notre client recherche un Consultant BI pour concevoir, déployer et maintenir des solutions de reporting et de data integration basées sur Azure Data Factory et Power BI . Mission : Le consultant interviendra sur toute la chaîne BI : ingestion, transformation, modélisation et restitution. Il participera à la structuration du datawarehouse, à l’industrialisation des flux via Azure Data Factory et à la création de tableaux de bord Power BI pour les directions métiers. Responsabilités principales : Développement et maintenance des pipelines Azure Data Factory Modélisation des données (datawarehouse, datamarts) Création et optimisation de rapports Power BI Mise en place des bonnes pratiques de performance, sécurité et gouvernance Support et évolutions des solutions BI en production Interaction avec les équipes métiers et IT Profil recherché : Consultant BI confirmé Expérience sur Azure Data Factory et Power BI Maîtrise des environnements de production Capacité à comprendre les besoins métiers et à les traduire en indicateurs Environnement : Azure, Azure Data Factory, Power BI, SQL, Datawarehouse, Reporting, Cloud
CDI
CDD

Offre d'emploi
DevOps (Projet Data)

Publiée le
Helm
JIRA
Scrum

18 mois
20k-60k €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Consultant DevOps Spécialités technologiques : Big Data, gitOps, API Nous recherchons un profil orienté DevOps afin d’intégrer le projet Data de notre client. MISSIONS - Participer au déploiement et à l’exploitation des composants applicatifs sur des environnements Kubernetes / OpenShift - Mettre en œuvre et maintenir les déploiements via Helm, dans une logique GitOps à l’aide de ArgoCD - Développer et maintenir des scripts d’automatisation en Python - Intervenir sur les environnements liés aux stacks Data (Spark, DigDash, Dremio, Airflow, NiFi) en support des besoins du projet Expertise souhaitée Environnements et outils DevOps : - Bonne connaissance de Kubernetes / OpenShift - Maîtrise de Helm - Compréhension et mise en œuvre des principes GitOps - Utilisation de ArgoCD Automatisation : - Connaissance de Python pour l’implémentation de scripts d’automatisation Écosystème Data (premier niveau) : - Spark - DigDash - Dremio - Airflow - NiFi Méthodologie et outils : - Maîtrise des pratiques Agiles (Scrum) - Utilisation de l’outil Jira
CDI

Offre d'emploi
Data Engineer (4+ ans d'exp)

Publiée le
Google Cloud Platform (GCP)

40k-54k €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer confirmé.e ! 🚀 Ce poste est fait pour toi si : Tu as 5 ans d'expérience professionnelle en tant que Data Engineer . Tu as de l'expérience professionnelle avec AWS ou GCP . Tu parles anglais à un niveau professionnel. Tu as déjà travaillé avec Airflow et Spark . Missions: Concevoir, développer et maintenir des pipelines de données robustes, scalables et sécurisés Collecter, transformer et intégrer des données issues de sources hétérogènes (APIs, bases SQL/NoSQL, fichiers, etc.) Mettre en place des architectures data (data lake, data warehouse, data mesh) adaptées aux besoins métiers Optimiser les performances des traitements et garantir la qualité, la traçabilité et la gouvernance des données Collaborer avec les Data Scientists, Analysts et Product Managers pour répondre aux cas d’usage data Industrialiser les modèles et les flux de données dans des environnements cloud ou on-premise Assurer la surveillance, le monitoring et le support des plateformes data Participer à la veille technologique et à l’amélioration continue des outils et pratiques data engineering Contrat: CDI, statut cadre. Démarrage: fin avril 2026. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance
CDI

Offre d'emploi
BA/MOA - Data Quality (7 ans et plus)

Publiée le
Business Analysis
Business Analyst
Gestion de projet

3 ans
45k-70k €
450-620 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre de la réglementation Basle III, le référentiel client CIB doit améliorer son niveau de qualité et s'aligner avec les autres Référentiel de la banque. En lien avec les équipes IT et Ops, la mission proposée a pour objectifs de lister les améliorations techniques et opérationnelles nécessaires pour spécifier les actions (MOA). 💡 Missions : A l'aide de la documentation et en interviewant les entités, lister les améliorations nécessaires pour améliorer la qualité du référentiel. Spécifier les actions opérationnelles et les besoins de développements pour s'aligner au Référentiel groupe. Analyse et Integration de nouveaux indicateurs de qualité produits par CDO et le programme (CRM KQI) dans le BAU. A l'aide des outils informatiques (Base de données Python, Excel, Business Object, Tableau), extraire et produire les indicateurs et volumétries permettant de piloter les progrès de la qualité. Participer aux réunions et aux groupes de travail, rédiger les minutes et les conclusions. préparer les supports de réunions. En tant que MOA du projet pour Référentiel Ops, rédiger les documentations (spécifications, procédures, ...).
Freelance

Mission freelance
Business Analyst Data (F/H)

Publiée le

1 an
550-600 €
Paris, France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst Data pour intervenir chez l’un de nos clients grands comptes. Voici un aperçu détaillé de vos missions : - Analyser les besoins des parties prenantes et des utilisateurs finaux afin de définir des exigences claires sur des projets data. -Cadrer les projets en lien avec les équipes techniques (architectes, data engineers, MOA/MOE) et les directions métiers (finances, conformité, risques, commerciale) : solution, chiffrage, planning. - Piloter les projets : suivi des engagements, reporting et coordination avec les interlocuteurs métiers. - Rédiger les spécifications fonctionnelles détaillées à destination des équipes de développement et préparer les cahiers de recette. - Assurer l’assistance et le support utilisateurs, analyser les incidents et proposer des solutions correctives ou palliatives.
425 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous