Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Data Cloud Architect
🎯 En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture)

Mission freelance
Data manager
Sous la responsabilité du Tribe Tech Lead DATA ‘DHS’, le/la Tech Manager « PMS Data » aura donc la charge de… encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.) créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent) piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils) animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore) informer et alerter les (deux) Tribes Leads DATA ‘DHS’ participer aux activités et évènement transverses de la Tribe, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non exhaustifs) : o Réduction des fichiers PMS manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus hôtels déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier ‘hôtel’ (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc d’hôtels connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Hotel Data Platform » (HDP) o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants
Mission freelance
Data Manager H/F/NB
Dans le cadre d'un programme de transformation digitale majeur, nous recherchons un Data Manager expérimenté H/F/NB pour rejoindre l'équipe SmartData. Cette mission s'inscrit au cœur de la modernisation des outils digitaux du métier Forage-Puits, avec pour objectif de renforcer les capacités d'ingénierie de données et d'améliorer la qualité, l'accessibilité et l'exploitation des données opérationnelles. Administration des outils digitaux : Création et gestion des comptes utilisateurs (DrillX et RTSC) Revues bi-annuelles des comptes utilisateurs Suivi et amélioration de la qualité des données des bases Support de 1er niveau auprès des utilisateurs Accompagnement et formation des équipes Contribution au consortium OSDU : Intégration du modèle de données avec Enterprise Architect Analyse comparative entre modèle OSDU et modèle interne Documentation et harmonisation des standards Développement BI & Reporting : Maintenance et évolution des dashboards Power BI existants Évaluation du niveau de qualité des données Création de nouveaux tableaux de bord selon les besoins Collecte de feedback et gestion du backlog produit

Offre d'emploi
DATA ENGINEER AWS (500€ MAX)
concevoir, construire et gérer notre infrastructure AWS : Développement de la plateforme de microservices AWS · Expérience en ingénierie de données, en particulier avec les technologies de big data · Programmation Orientée Objet · Connaissance et utilisation des Design Patterns standard · Frameworks/Librairies de tests o Utilisation de la CLI Docker o Création et optimisation des images o Utilisation de la CLI Kubernetes Expérience du process GitFlow Utilisation des commits sémantiques/feature branches Utilisation des concepts, modules et templates Terraform Capacité à travailler en équipe et à communiquer efficacement (Agile, JIRA) Expérience des services AWS suivants : S3 : gestion des buckets/cycle de vie des objets Lambda : Déploiement de lambda utilisant des conteneurs sur ECR via Terraform. Déclenchement via Triggers S3/EventBridge. Optimisation de l’utilisation des ressources et du scaling
Offre d'emploi
Tech Lead / Senior Data Engineer Python Spark AWS
Je recherche un profil senior Data Engineer avec une évolution rapide vers un poste de Tech Lead. Points clés : • Solides connaissances et pratique en Python (design, tests, processus de développement, etc.) • Data Engineering : architecture big data / modélisation / optimisation / environnement distribué • Connaissance du cloud AWS ; un niveau intermédiaire minimum est requis, avec une expérience pratique • Bon esprit d'équipe et capacité d'adaptation • Bonnes compétences en communication en anglais L'objectif est de développer une plateforme basée sur des technologies Big Data robustes et évolutives. Cette plateforme sera capable de traiter un volume important de données dans les différents pays où le client opère. Son objectif principal est de capturer divers indicateurs dans un référentiel centralisé, permettant d'accéder à des vues standardisées et transversales de ces indicateurs. Outre ses responsabilités techniques, le data engineer veillera au respect des directives du groupe concernant l'utilisation du cadre interne et l'architecture. Il collaborera également avec les autres parties prenantes du projet afin de promouvoir ces directives et de proposer des solutions communes pour la plateforme. Le rôle du data engineer senior dans ce projet consistera à concevoir et à mettre en œuvre les composants suivants de la plateforme : • Ingestion des données • Traitement et normalisation des données. • Distribution des données aux différentes parties prenantes. • Construire et améliorer le cadre commun, notamment en matière de surveillance, de CI/CD, de tests, de performances, de résilience, de pratiques de développement et de qualité du code.

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Mission freelance
Data Scientist
Description: Prestation de Data Scientist en IA Générative - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen - Prompt engineering - Bench via des solutions d'évaluation des modèles d'IA Gen - Optimisation des solutions (paramétrage des modèles) Compétences et expériences : - Expérience solide sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails - Expérience significative en Machine/Deep Learning serait appréciée : pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch

Offre d'emploi
Ingénieur Data Visualisation / Data Ops H/F
Vous extrayez, manipulez et filtrez les données à partir de l’ERP SAP, en utilisant notamment Databricks, Theobald et Alteryx. Vous construisez des rapports et dashboards interactifs sous Tableau répondant aux enjeux métier liés à la production et à la performance industrielle. Vous réalisez des entretiens approfondis avec les responsables métiers pour comprendre leurs besoins, formaliser un cahier des charges personnalisé et qualifier les use cases associés. Vous travaillez en lien direct avec les équipes MOA, architecture, développement et data (interfaces fortes avec les équipes ERP, MOA et Production). Vous identifiez la source de la donnée, vous vous assurez de sa fiabilité, investiguez les causes racines en cas de problème et sollicitez les interlocuteurs adaptés lorsque nécessaire. Vous mettez en place (ou automatisez) des flux de traitement et de restitution des données (exploitation de PowerAutomate, Databricks, outils ETL). Vous faites preuve de ténacité, curiosité et capacité à creuser les sujets dans la durée pour mener les investigations jusqu’au bout, même en terrain inconnu. Vous jouez un rôle de guide auprès des équipes métier, là où la fonction de product management n’est pas encore en place sur ce sujet, en évangélisant les bonnes pratiques et en accompagnant l’appropriation des outils et process data!
Offre d'emploi
Data Analyst
La/Le Data Analyst rejoindra l'équipe Analytics (Data Clients & Marchés) au sein de la Direction Clients & Marchés. La/Le Data Analyst a pour mission l'exploitation, le traitement et la valorisation de données. Son rôle consiste à analyser des données métiers pour soutenir la prise de décision des activités de la Direction. Il/elle apporte une expertise avancée en science des données pour soutenir les décisions, optimiser les processus et contribuer au pilotage par les chiffres au sein de la Direction C&M. TACHES PRINCIPALES Analyse et exploitation des données : Exploiter les données mises à disposition en mode exploratoire Identifier les tendances, corrélations et insights pertinents pour répondre aux besoins métiers Réaliser des analyses avancées et sur des grands ensembles de données Partager avec les parties prenantes Valorisation les données transversales Clients et Marchés : Analyser les tendances, le fonctionnement des processus Marchés & Clients et les performances opérationnelles Contribuer aux différents projets de l’organisation sur l'aspect données Clients & Marchés Élaborer des scénarios prospectifs pour anticiper l’évolution des besoins métiers Concevoir des tableaux de bord et des visualisations interactives avec Power BI pour faciliter l’interprétation des résultats par les équipes métiers Partager avec les parties prenantes (métiers et IT) Modélisation des données : Respecter les bonnes pratiques d’entreprise des données en self-service et de modélisation Identifier les incohérences ou anomalies dans les données et alerter les parties prenantes Participer à la documentation des modèles et des définitions de mesures Support aux métiers : Former et accompagner les utilisateurs métier à l’exploitation des rapports et jeux de données Être un relais entre les métiers et l’IT pour formaliser les besoins Promouvoir la culture data et l’autonomie des équipes dans l’utilisation des données PROFIL RECHERCHE : Le candidat doit avoir : Universitaire ou graduat en école supérieure avec orientation informatique, data ou équivalent. 5 ans d’expérience dans un rôle similaire Expérience avérée dans le fonctionnement des processus marchés liés au secteur du client Expérience du metering data management Capacité à comprendre les enjeux métiers et les liens avec les données Capacité à communiquer et à travailler en autonomie avec les différents acteurs de l’entreprise Curiosité intellectuelle par rapport aux technologies et au monde de la gestion des données Approche pragmatique dans l’apport de solutions COMPÉTENCES TECHNIQUES Maitrise de langages de programmation et des outils de gestion de données : Python, SQL, R Expérience prouvée en PowerQuery Expérience prouvée en modélisation de données Expérience prouvée avec PowerBI

Mission freelance
POT8640 - Un Data Engineer BigQuery sur Lille
Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille. Almatek recherche pour l'un de ses clients, Un Data Engineer BigQuery sur Lille.

Mission freelance
Mission Freelance / Portage - Microsoft Fabric / Azure - Paris - Hybride
Bonjour, Pour l’un de mes clients, je recherche un Consultant Microsoft Fabric Rôle : Concevoir, intégrer et optimiser les flux de données sur la plateforme Microsoft Fabric . Structurer OneLake, Synapse, Data Factory , créer et maintenir les référentiels, améliorer la qualité des données et collaborer avec les équipes BI sur les modèles de reporting. Compétences clés : Microsoft Fabric, Azure (Synapse, Data Factory, Databricks, Event Hub, OneLake), ETL, Data Lake / Lakehouse, modèle Médaillon, SQL, Python (PySpark), Power BI, intégration inter-applicative, reporting BI. Profil recherché : Expérience confirmée sur Azure et ADF, bonne maîtrise des architectures Data Lake / Lakehouse. Personne rigoureuse, organisée, avec un bon esprit d’équipe, capable de documenter et vulgariser les traitements. Si vous êtes intéressé et que votre profil correspond, merci de postuler avec votre CV à jour . Je reviendrai vers vous rapidement.

Mission freelance
Développeur Python Senior – IA
✨ Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur Backend Python Senior – IA pour intervenir chez un de nos clients grands comptes. 💻💼 🎯 Voici un aperçu détaillé de vos missions : Concevoir, développer et maintenir des applications backend robustes et évolutives avec Python (Flask, FastAPI, Spark). Mettre en œuvre des architectures orientées messages (Kafka) et assurer l’intégration avec les composants frontend. Optimiser les bases de données PostgreSQL et déployer dans des environnements cloud. Participer à la mise en place de pratiques DevOps : CI/CD, Docker, Kubernetes, OpenShift. Contribuer au cycle de vie complet : recueil des besoins, documentation, tests unitaires, support. Encadrer des profils juniors et collaborer avec les équipes métier.
Mission freelance
INGENIEUR PRODUCTION SYSTEME CLOUD H/F
Nous sommes actuellement à la recherche d'un ingénieur Production Système Cloud. En tant qu'Ingénieur(e) de Production Système & Cloud, vous jouerez un rôle clé dans le maintien et l'évolution de nos environnements système et cloud, tout en participant à l'amélioration continue. Votre mission principale consistera à assurer la disponibilité, la sécurité et l'optimisation de nos plateformes, en intervenant aussi bien sur des aspects opérationnels (run). /!\: Nous demandons une expérience solide sur les environnements Azure et Microsoft Windows Server.

Mission freelance
Consultant MOE MSBI socle Data ETL
Consultant(e) MOE MSBI socle Data ETL Descriptif détaillé de la mission : - Assurer l'évolution et support des applications existantes (ETL, Bases de données, support niveau 3). Effectuer des études d'impacts et analyser les anomalies - Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. - Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. - Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. - Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). - Conseiller, proposer des axes d'amélioration, alerter si besoin. Environnement technique de la mission : - Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) - Reporting : COGNOS BI 10.2 et 11 & Tableau Durée estimée de la mission : 3 mois (renouvelables) Lieu de la mission : La Défense

Offre d'emploi
Expert Data SEO - GA4 (H/F)
Vos missions : Paramétrer (balise de propriété, conversion, ...) et administrer des outils de mesure d'audience adaptés aux besoins de l'agence et de ses clients (GA4, Matomo, etc.) Collecter, structurer et analyser les données statistiques des sites web Produire des rapports clairs, pédagogiques et orientés performance Participer à des réflexions CRO (analyse UX, tunnel de conversion, A/B testing, etc.) Intervenir en transversal avec les pôles SEO, SEA, CRM et stratégie Maintenir un haut niveau de qualité dans la relation client
Offre d'emploi
Ingénieur Intégration & Data Middleware (H/F)
L’Entreprise & le Contexte Rejoignez une entreprise innovante et en pleine croissance, acteur majeur de son secteur (E-commerce), qui modernise son système d’information autour d’un nouvel ERP et d’une plateforme d’intégration robuste. Vous intégrerez l’équipe IT dédiée à un projet stratégique de migration ERP et à la mise en place d’un ESB pour orchestrer l’ensemble des échanges entre les applications métiers. Le programme prévoit +200 flux à intégrer sur un an, un environnement stimulant où vous aurez un rôle clé dès le démarrage. Vos Missions: En tant qu’Ingénieur Intégration ESB, vous serez le référent technique et fonctionnel sur la plateforme d’intégration. Votre mission couvrira le cycle complet d’intégration et d’exploitation : * Concevoir, développer et déployer des flux d’intégration entre le nouvel ERP et le reste du SI (applications internes et externes). * Mettre en place des routes, transformations et orchestrations (API, services REST/SOAP, mapping JSON ↔ XML, routage, etc.). * Superviser et exploiter l’ESB : monitoring, consultation des logs, gestion des erreurs, reprise des traitements, indicateurs de performance. * Participer activement à la qualité des intégrations (tests, robustesse, performance). * Collaborer étroitement avec les équipes métier pour comprendre les besoins fonctionnels et les traduire en solutions techniques. À terme, devenir administrateur de la plateforme d’intégration, puis évoluer vers des missions d’architecture SI (cartographie applicative, urbanisation). Environnement Technique: Le client utilise actuellement ou envisage d’utiliser : * Talend ESB ou Infor ION / Enterprise Connector pour l’intégration * Autres plateformes d’intégration appréciées : MuleSoft, WSO2, Dell Boomi, IBM App Connect, TIBCO * Connecteurs API REST/SOAP, gestion de flux événementiels et batch * Supervision, monitoring et alerting pour garantir la disponibilité et la traçabilité des échanges Des compétences en Java ou équivalent pour les développements spécifiques et en intégration middleware seront un atout.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.