L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 864 résultats.
Offre d'emploi
Data Engineer - Finance (H/F)
Publiée le
Apache Hive
Bash
Hadoop
3 ans
50k-60k €
480-550 €
Île-de-France, France
Télétravail partiel
Contexte : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad Financing & Risk qui aujourd'hui développe et gère un datalake (FinLake). Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. Missions : L'objectif de la mission est d'assurer le rôle de Data Engineer du FinLake : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets
Mission freelance
Consultant AMOA SCADA / GTC – Projet nouvelle usine
Publiée le
SCADA
6 mois
Hauts-de-Seine, France
Télétravail partiel
Introduction Dans le cadre d’un projet stratégique de création d’une nouvelle usine industrielle, nous recherchons un consultant AMOA spécialisé en SCADA / GTC pour renforcer une équipe projet digitale. Objectif de la mission Accompagner la maîtrise d’ouvrage sur la définition, la spécification et le pilotage du système de contrôle-commande du bâtiment (GTC), intégré dans un hyperviseur universel. Missions principales Recueil et formalisation des besoins métiers Rédaction des spécifications fonctionnelles Participation au choix des fournisseurs Suivi des études et des développements Organisation et exécution des tests Participation aux réceptions Validation de la documentation projet Compétences requises Expérience confirmée en AMOA sur des projets SCADA / GTC Connaissance des outils de supervision type Panorama E2, WinCC ou équivalents Compétences en conduite de projet et forte capacité rédactionnelle Connaissances appréciées en automatisme (API), SCADA, SQL, XML, réseaux Bon relationnel, autonomie, rigueur, esprit de synthèse Modalités pratiques Durée : 4 mois Démarrage : à définir Localisation : Île-de-France Déplacements : 1 déplacement toutes les 2 semaines sur site industriel en région Temps plein TJM : selon profil
Mission freelance
Business Analyst / Data Modeler – Référentiel Assurance
Publiée le
Business Analyst
Java
Modélisation
6 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte & missions (2 phases) 2–3 mois – Modélisation data (3NF) Collecte/qualification des données, conception schéma logique + DDL (tables, PK/FK, contraintes, index). Cohérence & performance (tuning SQL), traçabilité/audit/historisation. Catalogue de données, doc technique/fonctionnelle, participation ateliers. Conseil aux BA/devs pour écrans, interfaces, workflows, règles métiers. Expérience prouvée en modèle de données complexe requise. 2–3 mois – Rôle BA (Agile) Ateliers Métiers/IT, rédaction user stories + critères d’acceptation. Support devs, qualification avant recette, suivi anomalies. Specs fonctionnelles, modes opératoires, accompagnement au change. Compétences Modélisation data (Expert) , DBA Oracle/SQL (Confirmé) . Java 21, Spring Boot 3, Security, Batch, Angular 19, JS/TS, REST (Confirmé) . Sécu applicative (notions), JIRA/Confluence (Confirmé) , API/DB/Webservices (Confirmé) . Communication, rigueur, leadership d’ateliers. Modalités Lyon (3 j/sem sur site), hybride.
Mission freelance
Data Egineer - IDF
Publiée le
Apache Spark
Java
6 mois
400-450 €
Paris, France
Télétravail partiel
Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer. Contexte Dans le cadre d’un projet data, nous recherchons un Data Engineer expérimenté pour intervenir sur des problématiques de gestion de bases de données et de traitement de données à grande échelle , au sein d’un environnement international. Missions principales Concevoir, développer et maintenir des pipelines de données fiables et performants Intervenir sur la gestion et l’optimisation des bases de données Développer des traitements data en Java Exploiter et optimiser des traitements Apache Spark SQL Assurer la qualité, la cohérence et la performance des données Collaborer avec les équipes techniques et métiers dans un contexte anglophone Participer aux échanges, réunions et documentation en anglais
Mission freelance
Data Steward H/F/NB
Publiée le
Data governance
Migration
Modélisation
60 jours
400-480 €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre de la transformation digitale des processus RH pour notre client du secteur distribution/retail , nous déployons une plateforme RH globale , couvrant un HR Core et plusieurs modules de gestion des talents dans de nombreux pays. Pour assurer le succès de cette migration à grande échelle, nous recherchons un Data Steward expérimenté et organisé , intégré à l’équipe Data Governance People . Vous serez le lien entre les fournisseurs de données, les Data Owners et l’équipe Data Migration, avec pour objectif principal de préparer et garantir la qualité des données pour le Go-Live . Vos missions principales : Accompagner les équipes locales pour la collecte, extraction et intégration des données RH . Assurer la compréhension et le respect des templates de données , des formats et des standards de qualité. Vérifier les formats et contenus des fichiers collectés (contrôles d’intégrité, conformité aux types de données). Coordonner la collecte et le suivi des livraisons de fichiers de données. Assister les Data Owners et fournisseurs locaux pour identifier et corriger les anomalies détectées. Maintenir la documentation du data catalog incluant métadonnées, règles métier et data lineage. Collaborer avec les équipes techniques et digitales pour garantir le respect des normes de qualité et de sécurité des données (RGPD). Missions secondaires : Contribuer à la mise en place des standards et KPI de qualité des données. Participer à la formation et au support des équipes locales pour assurer l’adoption des processus de gouvernance des données.
Offre d'emploi
Data ingénieur
Publiée le
MySQL
Python
12 mois
Luxembourg
Contexte Dans le cadre de la création de l’équipe data, nous recherchons un(e) Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Profil recherché Formation en informatique, data ou équivalent Expérience confirmée en tant que Data Engineer / DBA orienté data Solide compréhension de la gestion et de l’organisation des données Capacité à travailler en toute autonomie , tout en sachant évoluer efficacement dans un environnement transverse et collaboratif À l’aise dans des environnements techniques complexes Autonome, rigoureux(se), avec un bon esprit d’analyse Anglais professionnel obligatoire Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Mission freelance
Data Analyst (2/4 ans expérience)
Publiée le
Git
Méthode Agile
Python
12 mois
300-360 €
Île-de-France, France
Télétravail partiel
Participation à la définition et la conception d’outils techniques et d’aide à la décision : - Construction de bases de données - Proposition/Implémentation des solutions techniques pour la gestion des données - Développement et test de machine learning - Mise en production et maintenance des outils/interfaces développées - Déploiement des outils développées. · Bases de données finalisées avec mise à jour automatisée. · Documentations métiers à jour
Offre d'emploi
Data Ingénieur (29)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
340-550 €
Île-de-France, France
Télétravail partiel
Définition du besoin La Direction Technique du Numérique d'une grande organisation médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques Prestation de cette équipe Déployer les datasets normés sur un ou plusieurs des data domain Accompagner les utilisateurs des datasets normés dans leurs usages Mettre en place le contrôle qualité sur ces datasets Prestations attendues Dans un premier temps, la prestation consiste à : Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog Industrialiser ces contrôles grâce à Terraform et Terragrunt Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l'objectif de livraison précédent et en interaction avec les membres de l'équipe, la suite de la mission consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Mission freelance
Chef de projet / Consultant fonctionnel GMAO Maximo
Publiée le
IBM Maximo
210 jours
400-470 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Chef de projet / Consultant fonctionnel GMAO Maximo Contexte :Profil recherché : Chef de projet / consultant fonctionnel GMAO, autonome et rigoureux, capable de piloter des études, cadrer et formaliser des besoins métier, suivre le développement et la recette, et interfacer efficacement avec les équipes métier et SI. Environnement technique : IBM Maximo v7.6.1.2 (migration prévue v9.2) Applications mobiles Android / Java Décisionnel SPOT Renfort du pôle Expertise Fonctionnelle (FCT) sur le projet SPOT IF, application GMAO pour la maintenance des installations ferroviaires (EALE, Signalisation, Caténaire, Voie). L’application est utilisée sur toute la France, interfacée avec de multiples systèmes et applications mobiles. La mission porte sur le périmètre maintenance rail en rôle de PPO (Pilotage de Projet Opérationnel), dans un environnement mixte agile/V et en transition vers Safe. Objectifs : Prendre en charge un sous-ensemble du périmètre SPOT IF pour le rail Assurer l’interface entre équipes métier et SI Contribuer à la conception fonctionnelle et détaillée, la recette et la validation des solutions Apporter une expertise méthodologique en modélisation et pilotage d’études sur les processus industriels Activités principales : Animation de l’équipe fonctionnelle Recensement et formalisation des besoins métier Cadrage, études et modélisation des processus Production de livrables projet : SFG, SFD, EPIC, Features, US, plans et jalons Suivi de l’avancement des développements et de la recette SI Pilotage des démos, marches à blanc, recette métier et conjointe Estimation des charges et gestion des risques Participation à la validation conception et recette Compétences requises : Expertise IBM Maximo v7.6+ (paramétrage, workflows, modules maintenance) Connaissance des démarches AMOA, études de cadrage, recueil du besoin, rédaction SFG/SFD/EPIC/US Expérience confirmée en méthodes agiles, agilité à l’échelle, conception et modélisation de données/processus Connaissance approfondie du domaine maintenance ferroviaire Capacité à interagir avec un large panel d’interlocuteurs : métiers, conception, réalisation, recette Expérience attendue : 5 à 10 ans sur Maximo, dont projets intégrant mobilité Expérience en GMAO à grande échelle et en contexte de développement itératif/agile Expérience confirmée en AMOA, conception fonctionnelle et détaillée Durée : Tranche ferme : 210 jours Localisation : Saint-Denis, site Mathis GMAO (présence privilégiée les premières semaines) Déplacements ponctuels en région possibles Télétravail adaptable en fonction des besoins Profil recherché : Chef de projet / consultant fonctionnel GMAO, autonome et rigoureux, capable de piloter des études, cadrer et formaliser des besoins métier, suivre le développement et la recette, et interfacer efficacement avec les équipes métier et SI. Environnement technique : IBM Maximo v7.6.1.2 (migration prévue v9.2) Applications mobiles Android / Java Décisionnel SPOT
Mission freelance
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN
Publiée le
Apache Kafka
Apache Spark
Business Process Model and Notation (BPMN)
6 mois
550-630 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN - Maîtrise des formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) - Réalise les études de cadrage pour l’architecture Data en s’appuyant sur une expertise des technologies clés - Stockage (SQL/NoSQL, Data Lake, Data Warehouse) - Traitement (ETL, Spark, Kafka) - Restitution (BI, dashboards) - Exploration et référentiels (catalogues, gouvernance) Télétravail : 3 jours max par semaine
Offre d'emploi
Chef de projet sénior Assurance - projet IA
Publiée le
IA
12 mois
40k-63k €
100-540 €
Nanterre, Île-de-France
Télétravail 100%
Lieu ; Nanterre 92000 Secteur : Assurance Durée : 3 ans Poste : Je recherche un chef de projet MOA ayant déjà mis en place un projet utilisant les technologies d’IA en matière de reconnaissance vocale, de compréhension du langage et de génération de contenu, à des fins d’amélioration des interactions clients et d’augmentation de l’efficacité opérationnelle. Les besoins s’articulent autour de 3 piliers : Pilier 1 : Automatisation du traitement de l’appel : qualification et résumé Pilier 2 : Assistant virtuel du collaborateur pendant l’appel Pilier 3 : Analyse des causes profondes des appels pour baisser structurellement leur volume Le projet Traitement IA de la Voix vise à adresser en priorité le 1er pilier d’automatisation et comporte les besoins suivants : Automatiser la qualification: identifier le motif et le sous-motif et les injecter automatiquement dans les champs de qualification du CRM Flaguer l’appel en « réclamation » dès lors qu’il s’agit d’un appel réclamatif Générer de manière automatique un compte rendu d’appel court, clair et structuré en quasi-temps réel Le CP devra apporter une expertise et du conseil au métier de par son expérience d’un tel projet aussi bien sur le volet technique que fonctionnel.
Mission freelance
Data Engineer Big Data – Datalake Hadoop / Spark (on-premise)
Publiée le
Apache Hive
Big Data
CI/CD
2 ans
400-480 €
Île-de-France, France
Télétravail partiel
Dans un contexte Data & BI à forts enjeux, vous intervenez au sein d’une équipe Big Data & API , rattachée à une squad Financing & Risk , en charge du développement et de l’exploitation d’un datalake utilisé comme plateforme data centrale par les équipes IT et métiers. En tant que Data Engineer , vous jouez un rôle clé dans la gestion, l’évolution et la fiabilité de cette plateforme. Vos principales missions sont les suivantes : Assurer la gestion de la production du datalake (suivi, incidents, stabilité des traitements) Prendre en charge la dette technique et contribuer à l’amélioration continue de la plateforme Analyser l’architecture existante et proposer des évolutions techniques pertinentes Réaliser les développements Big Data liés aux projets en cours et à venir Participer à l’industrialisation et aux déploiements via les chaînes CI/CD Vous évoluez dans un environnement technique Big Data on-premise , au sein d’une équipe travaillant en interaction avec des équipes IT et métiers, sur des sujets à forte valeur ajoutée.
Offre d'emploi
Data Engineer
Publiée le
Microsoft Power BI
Python
Snowflake
24 mois
Toulouse, Occitanie
Télétravail partiel
Panda Services est une Entreprise de Services du Numérique (ESN) spécialisée en ingénierie informatique. Forte de plus de 20 ans d’expérience, elle accompagne ses clients grâce à des prestations d’assistance technique exigeantes et de qualité. Nous recherchons un(e) Data Engineer Expérimenté(e) pour rejoindre notre client dans le secteur bancaire. Vous serez en charge de concevoir et développer des pipelines de données robustes, d’intégrer des sources multiples et de mettre à disposition des données fiables pour les équipes business et analytics. Localisation = Toulouse [31] Missions Principales : Développer et maintenir des pipelines ETL/ELT performants sur Snowflake et autres systèmes de données. Concevoir et optimiser l’architecture Data Lake / Data Warehouse et les bases de données relationnelles et NoSQL. Collaborer avec les équipes business et analytics pour créer des dashboards et rapports Power BI . Assurer l’intégrité, la qualité et la sécurité des données. Automatiser et améliorer les processus de traitement des données via Python et SQL . Documenter les pipelines et procédures de gestion des données. Profil Recherché : Diplôme en informatique, statistiques, mathématiques ou équivalent. Minimum 5 ans d’expérience en tant que Data Engineer ou rôle similaire. Maîtrise de Python et SQL pour le traitement et l’automatisation des données. Expérience avec Snowflake et bases de données relationnelles et NoSQL. Connaissance de Power BI pour la visualisation et le reporting. Capacité à travailler en équipe, rigueur, sens de l’analyse et autonomie
Offre d'emploi
MLOps / DevOps Senior - Move2Cloud - GCP
Publiée le
CI/CD
Data science
DevOps
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission Dans le cadre du programme Move2Cloud du projet Prognos, une migration majeure vers le cloud est en cours. Afin d’assurer la poursuite et la consolidation de cette migration en 2026 , nous recherchons un profil MLOps / DevOps Senior . Au-delà de la migration, le projet fait face à de nouveaux enjeux techniques majeurs, notamment : l’ automatisation du réentraînement des modèles de Machine Learning sur le cloud , la gestion et l’orchestration de plusieurs milliers de pipelines (jusqu’à 4 000) en simultané , la scalabilité, la robustesse et l’industrialisation de la plateforme ML. Missions principales Finaliser et sécuriser la migration Move2Cloud de la plateforme Prognos Concevoir et maintenir des pipelines MLOps industrialisés (entraînement, validation, déploiement) Mettre en place le réentraînement automatique des modèles ML sur le cloud Garantir la scalabilité et la performance d’un grand nombre de pipelines exécutés en parallèle Déployer et maintenir les infrastructures cloud (Infrastructure as Code) Mettre en place les bonnes pratiques CI/CD, monitoring, logging et observabilité Collaborer étroitement avec les équipes Data Science, Software et Architecture Contribuer aux choix d’architecture et aux standards MLOps du projet Profil recherché Séniorité : Senior (autonomie et capacité de prise de décision attendues) Expérience significative sur des environnements MLOps et DevOps en production Solide compréhension des problématiques de Machine Learning à l’échelle industrielle Capacité à intervenir dans des environnements critiques et complexes (haute disponibilité)
Offre d'emploi
Responsable stratégie Data/IA
Publiée le
Reporting
18 mois
40k-45k €
110-600 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Stratégie & transformation digitale, Chef de projet Spécialités technologiques : Intelligence artificielle, Big Data Un grand groupe souhaite accélérer un programme transverse Data & IA visant à mieux coordonner plusieurs entités internes expertes (data, IA, plateformes, industrialisation) et à renforcer la cohérence globale de la filière. Des actions ont déjà été engagées (gouvernance, premiers chantiers, animation du collectif), et le groupe veut désormais structurer davantage et passer à l’échelle : clarifier le positionnement, harmoniser les pratiques, renforcer la capacité à travailler “d’une seule voix”, et améliorer l’efficacité de bout en bout (de l’offre au déploiement). MISSIONS Objectifs de l’appel d’offre : - Renforcer l’alignement entre entités contributrices (offres, priorités, modes opératoires, gouvernance). - Accélérer les synergies opérationnelles et business (offres conjointes, réponses coordonnées, passage à des engagements plus ambitieux). -Définir/mettre à jour une roadmap 2025–2026 et sécuriser l’exécution via une gouvernance robuste. -Structurer une stratégie marketing & communication (messages, visibilité, preuves, supports), incluant une réflexion sur une architecture de marque type “marque ombrelle” + déclinaisons, sans logique de fusion. -Renforcer l’animation “collectif” et la capitalisation (veille, retours d’expérience, publications, démarche à impact / IA responsable). Rôle attendu du prestataire : -Le prestataire intervient comme pilote et facilitateur du programme, à l’interface entre direction, sponsors, et entités contributrices : -Pilotage / PMO de programme : cadrage, planification, suivi des chantiers, animation des rituels, préparation/animation des comités, gestion des actions et décisions. -Structuration de l’offre : formalisation d’une offre de service cohérente, lisible et réplicable, articulation des contributions des différentes entités. -Activation des synergies : mise en place de mécanismes concrets (process, coordination, “passage de relais”, construction d’offres croisées, consolidation des retours terrain). -Marketing & communication opérationnels : plan de communication, contenus, kits de présentation, éléments de langage, valorisation des réalisations et cas d’usage. -Rayonnement & animation de l’expertise : cadrer une dynamique de type “lab/collectif” (veille, publications, événements internes/externes, démarche à impact). Livrables attendus : -Roadmap 2025–2026 (priorités, jalons, chantiers, dépendances) + cadre de pilotage associé. -Dispositif de gouvernance : comitologie, rituels, responsabilités, tableaux de suivi et reporting. -Plan marketing & communication : objectifs, messages, cibles, canaux, calendrier, contenus. -Kit de communication & kit commercial : pitchs, trames, supports, éléments de langage, preuves, cas d’usage / retours d’expérience. -Reporting périodique (ex. trimestriel) : avancement, synergies réalisées, points de blocage, recommandations. -Synthèse annuelle : bilan, impacts, perspectives et axes de développement.
Offre d'emploi
Technical Product Owner Data Science Platform
Publiée le
DevOps
Machine Learning
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Objectifs Au sein de la division AI & Innovation de l'IT groupe d'une institution financière majeure, l'équipe AI Production Center recherche un profil premium afin d'assurer l'ownership technique du produit "Data Science Platform" du groupe. Contexte Équipe de 20 experts répartis sur 5 pôles d'activité (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services) 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production à l'attention de tous les métiers du Groupe Un GRID de GPU on premise utilisé pour le training et l'inference Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits Environnement de travail Team Play avant tout! Curiosité sans limites!! Autonomie, rigueur, qualité Sens du service client Patience & bienveillance Appétance naturelle pour le partage de connaissances L'automatisation dans le sang Anglais courant (fournisseurs et clients en dehors de France, base documentaire entièrement en Anglais) Laptops au choix (MacOS, Windows)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5864 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois