L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 869 résultats.
Offre d'emploi
Gestion de Projets Data
VISIAN
Publiée le
Gestion de projet
1 an
Bruxelles, Bruxelles-Capitale, Belgique
Descriptif du poste Dans le cadre de l'intégration des activités au sein d'une grande banque de gestion d'actifs, nous recherchons une expertise en gestion de projets data (au sein d'un asset manager), associée à une bonne connaissance des données de référence (instruments financiers et benchmarks). Le consultant retenu jouera un rôle clé dans la transition des données et des processus vers la plateforme data de l'entreprise – Aladdin. Cela inclut notamment : Accompagner la migration et l'intégration des référentiels Security Master et des données de benchmarks dans Aladdin. Collaborer avec les équipes internes afin de définir et valider les besoins en données, les mappings et les standards de gouvernance. Garantir l'intégrité et la cohérence des données migrées. Participer aux phases de tests, de réconciliation et de validation des processus.
Mission freelance
Architecte Solution Cloud-Native
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
6 mois
450-530 €
Paris, France
Contexte de la mission Au sein du département Urbanisations et Applications de la Direction des Systèmes d'Information (DSI) de notre groupe audiovisuel français, nous gérons une quarantaine d'applications couvrant divers domaines, tels que la planification, l'optimisation des ressources, la gestion des incidents, et bien d'autres encore. Avec la transition de nos infrastructures IT vers le Cloud, il est devenu essentiel de faire évoluer nos modèles d'architectures logicielles afin de répondre efficacement aux besoins des différentes directions métiers. Nous recherchons une expertise en architecture solution pour travailler en étroite collaboration avec notre architecte d'entreprise. Cette mission est cruciale pour assurer l'alignement de nos projets IT avec les exigences fonctionnelles et l'écosystème de France Télévisions. La personne retenue devra proposer des modèles d'architectures logicielles Cloud-Native et en assurer la mise en œuvre. Objectifs et livrables Moderniser nos infrastructures IT afin de garantir une meilleure efficacité de nos projets. Proposer des modèles d’architectures logicielles Cloud-Native adaptés à nos besoins spécifiques. Piloter la mise en œuvre des principes d'architecture au sein des projets en cours. Collaborer avec les équipes projets, Cloud, sécurité, réseaux et exploitation pour concevoir des architectures sur mesure. Fournir des modèles et templates de développement, notamment à travers GitLab-CI. Accompagner et conseiller les équipes projet lors de l'implémentation des architectures. Superviser les développements pour assurer leur cohérence avec le modèle architectural défini. Assister l'Architecte d'Entreprise dans les travaux de la Design Authority et déployer ces architectures sous forme de standards et normes de développement.
Offre d'emploi
Talend Technical Expert – Projet Data International ⚠️ Profil habilitable
Sapiens Group
Publiée le
Talend
1 an
40k-45k €
400-550 €
Vélizy-Villacoublay, Île-de-France
Talend Technical Expert – Projet Data International ⚠️ Profil habilitable Dans le cadre d’un programme stratégique de transformation digitale à l’échelle internationale, nous recherchons un Expert Talend pour intervenir sur le déploiement d’une solution ETL globale. 🎯 Contexte de la mission Vous interviendrez au cœur d’un programme Data & Digital Transformation , visant à déployer une plateforme ETL mondiale , accessible à l’ensemble des entités d’un grand groupe international. Vous intégrerez une équipe IS/IT Digital Services , en charge du déploiement, de la structuration et du pilotage de cette solution stratégique. 🛠️ Vos missions Concevoir, développer et optimiser des flux ETL Talend complexes Participer au déploiement de la solution à l’échelle internationale (WW) Garantir la performance, la fiabilité et la scalabilité des traitements de données Intervenir en tant qu’ expert technique référent Accompagner les équipes sur les bonnes pratiques et la montée en compétence Contribuer aux choix d’ architecture Data ⚙️ Environnement technique Talend (expertise indispensable) Data Integration / Data Management Environnements distribués Gestion de flux à forte volumétrie 👤 Profil recherché 5 à 10 ans d’expérience minimum , dont une expertise forte sur Talend Expérience sur des projets Data complexes et à grande échelle Capacité à intervenir en tant que référent technique Autonomie, rigueur et capacité d’analyse Anglais courant requis (environnement international) 📍 Modalités Localisation : Vélizy (78) Présence : 3 jours minimum sur site Type : mission (freelance / prestation) Démarrage : ASAP 🔥 Les + de la mission Projet structurant à dimension internationale Environnement Data exigeant et moderne Rôle clé avec forte visibilité Interaction avec des équipes globales
Offre d'emploi
Ingénieur devops - OPS Data & IA
OBJECTWARE
Publiée le
DevOps
3 ans
Île-de-France, France
Dans le cadre de ses activités, une grande organisation du secteur financier recherche un intervenant pour intégrer une entité dédiée à la Data et à l’Intelligence Artificielle . L’équipe est responsable : de la qualité des livrables data du déploiement sur un cloud privé interne de la disponibilité et de la fiabilité des assets Elle conçoit, développe et maintient des plateformes et frameworks de data science . 2. Objectifs de la mission Assurer l’ exploitation et la fiabilité des environnements de production Data / IA Participer à l’ industrialisation des modèles de machine learning Contribuer à la construction et à l’évolution des plateformes data Garantir la qualité, la performance et la disponibilité des services Accompagner les équipes sur les bonnes pratiques DevOps et Data 3. Missions 3.1 Production & Exploitation Administration, exploitation et automatisation des systèmes d’exploitation Gestion et maintien en conditions opérationnelles d’un parc de containers de production Supervision et optimisation des environnements de production Data / IA 3.2 DevOps & Conteneurisation Build, optimisation et maintenance d’images Docker Gestion du RUN d’un volume important de containers en production Participation à l’industrialisation des déploiements via les outils CI/CD et GitOps 3.3 Plateforme Data & IA Construire et porter la vision technique de la plateforme de data science Piloter les choix techniques en lien avec les enjeux Data et IA Contribuer à la conception et à l’évolution des frameworks data 3.4 Innovation & expertise Réaliser une veille technologique active sur les outils et pratiques en Data Science Former et accompagner les équipes sur les technologies les plus pertinentes Être force de proposition sur les évolutions techniques 3.5 Qualité & documentation Rédaction de documents techniques (architecture, gestion des incidents) Production de livrables de qualité Partage des connaissances et bonnes pratiques au sein de l’équipe 4. Stack technique Infrastructure & DevOps GitLab CI/CD GitOps Cloud privé interne Containers & orchestration Docker Kubernetes Observabilité & monitoring Prometheus Grafana Thanos Sécurité & gestion des accès Vault (gestion des secrets) Keycloak, JWT, OIDC Réseau Reverse Proxy (Traefik) Data & stockage PostgreSQL Redis ELK Outils complémentaires Artifactory Certmanager Langages & systèmes Python Golang Bash GNU/Linux 5. Profil recherché Expertise avancée sur Kubernetes (architecture et administration de clusters) Bonne maîtrise des pratiques DevOps / CI-CD / GitOps Solides compétences en production et exploitation Connaissances des environnements Data et IA Compétences en réseau, sécurité et gestion des accès Capacité à évoluer dans un environnement complexe et exigeant 6. Enjeux clés du poste Industrialisation des workflows de Data Science Fiabilisation des environnements de production IA Scalabilité des plateformes Diffusion des bonnes pratiques DevOps et Data
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Offre d'emploi
Data Engineer GCP
K2 Partnering Solutions
Publiée le
Google Cloud Platform (GCP)
48k-57k €
Belgique
En tant que Data Engineer, vous serez impliqué(e) dans la conception, le développement et l’optimisation de solutions data modernes sur Google Cloud Platform. Vous bénéficierez : d’un accompagnement terrain (on-the-job training) , d’un encadrement par des experts reconnus , d’un environnement collaboratif mêlant équipes IT et métiers . C’est une opportunité unique de développer vos compétences tout en évoluant dans une équipe dynamique et conviviale 🌟 Pourquoi nous rejoindre ? Projet de transformation stratégique à forte visibilité Utilisation de technologies modernes et innovantes Environnement international et collaboratif Réelles opportunités d’apprentissage et d’évolution
Offre d'emploi
Data Ingénieur - Expert Spark H/F
CONSORT GROUP
Publiée le
Tassin-la-Demi-Lune
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data Ingénieur - Expert Spark H/F Vous êtes passionné·e par les architectures de données à grande échelle et le traitement temps réel ? Ce poste est fait pour vous. En tant qu' Expert Spark Data Engineer , vous êtes responsable de l'analyse, de l'optimisation et de l'évolution de notre pipeline de données au cœur de notre écosystème BI et statistiques. Côté build Conception et préconisations d'architecture Réaliser l'analyse et l'état des lieux technique de la solution existante (Kafka Connect, Spark, Kubernetes, MongoDB sur OVH) Produire les préconisations d'amélioration du Spark streaming pour le traitement temps réel Définir le dimensionnement infrastructure adapté au streaming temps réel (350 bases, 5 000 req/s, 1 To/an) Proposer une stratégie de dimensionnement MongoDB et de structuration de la donnée (standardisation des patterns) Rédiger le document d'architecture cible et le dossier de préconisations Côté run Optimisation et maintien en condition opérationnelle Assurer la fiabilité et la performance du pipeline de données en production sur l'infrastructure OVH Superviser les flux Kafka Connect et garantir la continuité du traitement des données entrantes Monitorer les performances Spark et intervenir sur les axes d'optimisation identifiés Veiller à la cohérence et à la qualité de la donnée stockée dans MongoDB Participer aux revues techniques et accompagner les équipes internes ENOVACOM dans la montée en compétences C'est votre parcours Vous avez au moins 5 ans d'expérience dans des environnements Data Engineering exigeants, avec une forte exposition aux architectures de traitement temps réel et à la gestion de volumétries importantes. Vous aimez diagnostiquer, optimiser et concevoir sans jamais cesser d'innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C'est votre expertise Apache Spark – maîtrise avancée du streaming et du batch, tuning et optimisation des performances MongoDB – modélisation, structuration de la donnée et bonnes pratiques de dimensionnement Kafka / Kafka Connect – conception et exploitation de pipelines de données en flux continu Déploiement Apache Spark sur Kubernetes – configuration, orchestration et gestion des ressources OVH Cloud – déploiement et exploitation d'infrastructures cloud dans un contexte de production C'est votre manière de faire équipe Capacité d'analyse et de synthèse : vous transformez des états des lieux complexes en préconisations actionnables Rigueur documentaire : vos livrables (architecture cible, dossiers techniques) sont clairs et exploitables Posture conseil : vous savez challenger l'existant et proposer des axes d'amélioration concrets Esprit de collaboration : vous travaillez en proximité avec les équipes internes et partagez vos expertises Autonomie et sens des priorités dans un environnement technique à fort enjeu de performance C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Marseille Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
POT9085 - Un Agile Master Data Sur Plaine Saint Denis
Almatek
Publiée le
Méthode Agile
Saint-Denis, Île-de-France
Almatek recherche pour l'un de ses clients, Un Agile Master Data Sur Plaine Saint Denis. Contexte : Au sein de la direction des technologies, les équipes Data Services ont pour raison d’être de fournir une plateforme et des services data fiables, sécurisés et industrialisés, permettant aux équipes produit et métiers des différentes BU d’exploiter la donnée en toute autonomie. Elles agissent comme un enabler transverse, en séparant clairement les responsabilités (infrastructure, gouvernance, usages) et en mettant à disposition des données de qualité, accessibles et exploitables à l’échelle de l’entreprise. Par leur expertise, elles valorisent la donnée pour soutenir la prise de décision, le pilotage de la performance et l’innovation, au service des enjeux business et stratégiques Activités : Au sein des équipes Data Services, le consultant sera amené à avoir : Un rôle d’agile master au sein d’une équipe pluridisciplinaire œuvrant sur un produit Un rôle d’agile master à l’échelle du domaine Data Fabric ( 30 personnes), A animer les cérémonies et faciliter les ateliers collaboratifs A Mettre en place les artefacts (Indicateurs, Burndown, HealthCheck...), utiles, utilisés et utilisables au suivi de l’efficience du collectif et élaborer le plan d’amélioration continue Identifier les dysfonctionnements et points d’amélioration Analyser proactivement les obstacles, éléments bloquants, interférences extérieures, et de tout ce qui peut détourner le collectif de ses objectifs et le ralentir Alerter sur les éléments bloquants et obstacles qui ne peuvent être traités localement Compétences attendues : Capacité à analyser et à comprendre un système complexe (techniquement, fonctionnellement et organisationnellement). Capacité à résoudre des problématiques. Esprit d’analyse et de synthèse. Organisation. Rigueur. Bonne capacité à travailler en équipe.
Offre d'emploi
Data Engineer Snowflake
KLETA
Publiée le
DBT
Snowflake
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Data Scientist (parlant Japonais ou Coréen)
OBJECTWARE
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG
3 ans
40k-86k €
380-610 €
Île-de-France, France
Mission Concevoir et optimiser des systèmes de recherche intelligente basés sur l’IA générative (RAG) pour un SaaS métier, afin d’améliorer l’accès à l’information et la fiabilité des réponses. 🚀 Responsabilités Développer des pipelines RAG (embeddings, vector search, ranking) Optimiser la pertinence des résultats (precision, recall, MRR) Réduire les hallucinations des LLM Concevoir des architectures multi-agents via Semantic Kernel Industrialiser les modèles (API, intégration backend) 🧰 Stack IA : LLM, NLP, RAG, embeddings Cloud : Azure OpenAI Service Data : Azure Cosmos DB Backend : .NET 8, SignalR Front : React 5+ ans en Data Science / ML Expertise NLP / recherche sémantique Expérience en IA générative (RAG, LLM)
Mission freelance
IT & Data Integration Manager
TEOLIA CONSULTING
Publiée le
ERP
Google Cloud Platform (GCP)
Supply Chain
6 mois
Paris, France
Dans le cadre d’un programme de transformation stratégique autour d’un outil d’Integrated Business Planning (IBP), un grand groupe international recherche un IT Data & Integration Manager. Ce programme vise à connecter plusieurs systèmes (ERP, outils métiers, plateformes data) afin de fiabiliser la donnée et améliorer la prise de décision à l’échelle globale. Missions : Piloter la mise en place des flux de données et interfaces entre systèmes Définir les règles de transformation des données et les spécifications fonctionnelles / techniques Coordonner les équipes internes (Business, IT) et l’intégrateur Suivre la delivery en Agile (backlog, sprints, Jira) Garantir la qualité, la cohérence et la fiabilité des données Participer aux phases de tests (UAT, validation, mise en production) Anticiper et sécuriser le passage en RUN (monitoring, performance, stabilité)
Mission freelance
Architecte transverse Poste de Travail (H/F)
Comet
Publiée le
IAM
Microsoft Entra ID
Office 365
220 jours
600-800 €
Yvelines, France
Contexte Au sein d’une plateforme IT d’un grand groupe bancaire français , le pôle End User Experience conçoit et opère les environnements de travail des collaborateurs (Digital Workplace, collaboration, support utilisateurs, etc.). Nous recherchons un Architecte transverse Poste de Travail pour renforcer leurs activités de design et d’évolution des environnements Modern Workplace. Missions principales Vous interviendrez sur la conception et l’évolution de la plateforme Workplace (MOWE), avec une forte orientation utilisateur et sécurité : Concevoir les architectures Workplace (poste de travail, mobilité, M365) Rédiger les livrables d’architecture : HLD (High Level Design) Notes de stratégie et de cadrage Recueillir et analyser les besoins métiers et techniques Définir les roadmaps d’architecture et standards techniques Accompagner les équipes techniques et projets Évaluer les nouvelles technologies et solutions du marché Contribuer à la sécurisation des environnements cloud & hybrides : Azure AD / Entra ID Zero Trust MFA / IAM EDR, DLP, chiffrement, PKI Participer aux échanges avec les différentes entités techniques et métiers Environnements techniques Microsoft 365 (Teams, SharePoint, OneDrive, Exchange, Power Platform) Windows 10 / 11, VDI / WVD Intune, SCCM Azure AD / Entra ID IAM / provisioning / déprovisioning Sécurité poste de travail (BitLocker, WDAC, AppLocker, EDR, VPN, DLP) MacOS (bonus) EMS / Zero Trust / MFA
Mission freelance
255961/Administrateur Azure/Fabric
WorldWide People
Publiée le
Azure
3 mois
400-440 €
Saint-Denis, Île-de-France
Administrateur Azure/Fabric Contexte de la mission Construire la nouvelle BI d’Entreprise sur Power BI / Fabric. Développer une nouvelle offre de Self‑BI reposant sur Power BI, Fabric et les Gateways On‑Premises. Objectifs et livrables Expert Microsoft Fabric, Power BI, Azure et infrastructures hybrides. Capable de co‑construire l’architecture avec l’équipe ASD et d’en assurer le build. Maîtrise des capacités Fabric, des Workspaces, Azure KeyVaults, Azure DevOps et Terraform. Compétences en administration : tenant, sécurité, identités, service principals, gateways On‑Premises. À l’aise avec DataOps : pipelines CI/CD, gestion des secrets, automatisation via API, PowerShell ou Python. Connaissance de dbt, Airflow et des enjeux de migration BI. Compétences en FinOps, monitoring, optimisation de performance et gestion des incidents. Compétences demandées Compétences Niveau de compétence Infrastructure as Code (IaC) & provisioning Cloud (Terraform) Confirmé Compétences FinOps, monitoring & performance Confirmé Compétences en Design & Build d’architecture data Expert Maîtrise technique de Microsoft Fabric / Power BI / Azur Expert Expertise DevOps & DataOps Confirm
Offre d'emploi
Développeur Back-End Senior orienté IA (Python / Data / API) – H/F
SMARTPOINT
Publiée le
API REST
Machine Learning
MLOps
1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du développement de solutions innovantes à forte valeur métier, nous recherchons un Développeur Back-End Senior orienté Intelligence Artificielle pour rejoindre une Dev Factory IA . Vous interviendrez sur la conception et le développement d’applications intégrant des composants data et intelligence artificielle , au sein d’équipes pluridisciplinaires composées de développeurs, data engineers, data scientists et experts métier . Votre mission consistera à concevoir, développer et industrialiser des services applicatifs et des briques d’intelligence artificielle , dans un environnement technique exigeant en matière de performance, scalabilité et fiabilité . Vos missions Développement Back-End et IA Concevoir et développer des API REST et/ou GraphQL robustes, sécurisées et performantes Implémenter des services d’exposition de modèles d’intelligence artificielle (inférence, scoring, prédictions) Développer des traitements data répondant aux besoins métiers Architecture applicative et data Participer à la définition des architectures applicatives et data/IA Concevoir des solutions scalables, modulaires et maintenables Appliquer les bonnes pratiques d’architecture logicielle (SOLID, séparation des responsabilités) Gestion des flux de données Traiter et exposer des données issues de différentes sources : bases de données relationnelles bases NoSQL APIs externes pipelines de données Garantir la qualité, la traçabilité et la performance des flux Intégration et mise en production des modèles IA Intégrer les modèles développés par les équipes data Mettre en production des services d’inférence Gérer les versions des modèles et suivre leurs performances Anticiper les problématiques de dérive des modèles Industrialisation et CI/CD Contribuer au dépôt GitLab Participer aux revues de code Mettre en place et maintenir des pipelines CI/CD Automatiser les processus de tests et de déploiement Qualité et tests Développer des tests unitaires, d’intégration et de performance Garantir la fiabilité et la stabilité des services applicatifs et des composants IA Sécurité applicative et data Mettre en œuvre les bonnes pratiques de sécurité : authentification autorisation chiffrement protection des données sensibles Collaboration agile Participer aux rituels Scrum Collaborer avec les équipes data, front-end, produit et DevOps Documentation et amélioration continue Documenter les architectures, APIs, pipelines data et processus de déploiement Contribuer à la veille technologique et à l’amélioration des pratiques de développement
Offre d'emploi
Ingénieur d'Affaires Data & IA Secteur EnergieH/F
JEMS
Publiée le
45k-60k €
Levallois-Perret, Île-de-France
En tant qu' Ingénieur d'Affaires Data & IA secteur Energie H/F vous aurez la charge de : • Créer et développer de nouvelles relations d'affaires avec des clients potentiels et des partenaires stratégiques de l'Energie • Identifier et explorer de nouvelles opportunités de marché pour nos produits et services • Travailler en étroite collaboration avec nos équipes internes pour élaborer des solutions sur mesure pour nos clients du secteur de l'Energie • Prévoir les tendances du marché d'Energie et anticiper les besoins des clients pour façonner notre stratégie de croissance • Représenter JEMS lors d'événements, de conférences et de réunions pour élargir notre réseau et renforcer notre présence sur le marché • Garder un œil sur la concurrence et élaborer des stratégies pour rester en tête Avantages à travailler chez JEMS : • Un accompagnement personnalisé pour développer votre carrière • L'opportunité de travailler dans un environnement dynamique et stimulant • Une culture d'entreprise qui encourage la créativité, l'innovation et la croissance personnelle • Un package de rémunération compétitif avec des avantages exceptionnels • Un soutien continu pour développer vos compétences et avancer dans votre carrière • Des séminaires d'intégration inoubliables Pour Postuler Si vous êtes prêt(e) à relever le défi et à devenir un acteur clé de notre équipe en tant qu'Ingénieur d'Affaires chez JEMS, envoyez nous votre CV accompagné d'une lettre de motivation convaincante qui montre pourquoi vous êtes la personne idéale pour ce poste. Montrez nous votre passion, votre détermination et votre vision pour l'avenir. Diversité Le Groupe JEMS porte fièrement sa valeur "Diversité" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap. Chez JEMS, nous croyons que les meilleurs candidats sont ceux qui partagent notre passion pour l'innovation et notre engagement envers l'excellence. Rejoignez notre équipe et soyez prêt à changer le jeu ! Référence de l'offre : vu8w7m88rl
Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.
WorldWide People
Publiée le
PySpark
Python
12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3869 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois