L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 996 résultats.
Offre d'emploi
BUSINESS ANALYST DATA ASSURANCE (H/F)
GROUPE ALLIANCE
Publiée le
Cloudera
SAS
55k-65k €
Levallois-Perret, Île-de-France
ACCROCHE SI TRANSFORMER UN BESOIN MÉTIER EN SPÉCIFICATION CLAIRE EST TON SUPER POUVOIR, TU ES PEUT-ÊTRE CELUI QU’ON ATTENDAIT ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la compréhension métier et à la traduction fonctionnelle Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur de l'assurance, tu participeras au recueil des besoins, au cadrage des projets Data, à la cohérence fonctionnelle/technique du SI et au suivi de bout en bout des solutions mises en œuvre pour répondre aux enjeux métiers : Les besoins utilisateurs, tu recueilleras Les processus métiers, tu analyseras Les spécifications fonctionnelles, tu rédigeras Le lien entre les équipes métier et IT, tu assureras La validation des livrables, tu piloteras Les plans de test fonctionnels, tu construiras Ton équipe, tu accompagneras Aux ateliers, comités et instances projet, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 10 ans minimum Expert(e) en analyse fonctionnelle, expression de besoin, modélisation de données et sensible à la qualité des données Habile avec les outils SAS, Cloudera, Jira AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
DATA ARCHITECT (Expert)
HAYS France
Publiée le
Collibra
Data governance
KPI
3 ans
100-600 £GB
Lille, Hauts-de-France
ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme HRDP (Ressources Humaines): Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
Offre d'emploi
Data Scientist – IA (F/H)
K-Lagan
Publiée le
Big Data
Data science
IA
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet en Data & IA donnait un vrai sens à votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets innovants où la Data et l’Intelligence Artificielle sont au cœur de la transformation des entreprises. Aujourd’hui, nous recherchons un·e Data Scientist – IA (F/H) pour rejoindre l’un de nos clients dans un environnement stimulant et orienté innovation. 🔍 Contexte Vous interviendrez sur des projets à forte valeur ajoutée, visant à exploiter la donnée pour améliorer la prise de décision, automatiser des processus et développer des modèles prédictifs . Vous évoluerez au sein d’équipes pluridisciplinaires dans un environnement agile. 🎯 Missions Concevoir, développer et déployer des modèles de Machine Learning / IA Analyser et exploiter des volumes de données complexes Participer à la définition des cas d’usage Data & IA Mettre en production les modèles et suivre leur performance Collaborer avec les équipes Data Engineering, BI et métiers Assurer la qualité, la robustesse et la fiabilité des modèles Contribuer à l’ amélioration continue des solutions IA
Offre d'emploi
Consultant SAP Data Migration (H/F)
Scalesys
Publiée le
1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Offre premium
Mission freelance
Chef de projet Flux/Data
Come Together
Publiée le
Gestion de projet
1 mois
Nord, France
Nous recherchons pour un grand compte de la région un chef de projet flux/data Mission : Pilotage des projets de mise en place de flux de données en provenance de systèmes industriels. Principales tâches de la mission - Accompagner les interlocuteurs métier dans la définition des besoins d’export. - Piloter les projets de mise place de flux DATA en provenance de systèmes industriels en lien avec les experts métiers, les éditeurs de solutions et les équipes IT - Produire l’ensemble des livrables en accord avec la méthodologie Projet du client. - Documenter et industrialiser dans l’équipe RUN afin d’en sécuriser la maintenance.
Offre d'emploi
Data Engineer H/F
█ █ █ █ █ █ █
Publiée le
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Enterprise Architect – Data Mesh (H/F)
Craftman data
Publiée le
API Platform
Data Mesh
1 an
40k-45k €
530-650 €
Toulouse, Occitanie
Dans le cadre de sa transformation data à grande échelle, DX souhaite renforcer son architecture autour d’une approche Data Mesh . L’objectif est de structurer une organisation data distribuée, orientée domaine, avec une forte gouvernance et une industrialisation des échanges de données. Définir et piloter l’architecture Data Mesh à l’échelle de l’organisation Concevoir et structurer le Data Service Layer Produire et formaliser les dossiers d’architecture (HLD / LLD) Accompagner la mise en place des data products par domaine Définir les standards d’exposition des données (API, streaming, etc.) Travailler sur les sujets de gouvernance, sécurité et qualité des données Collaborer avec les équipes Data, IT et métiers Contribuer aux choix technologiques et aux bonnes pratiques
Mission freelance
Business Analyst Data - Flux Transactionnels Bancaires
STHREE SAS
Publiée le
12 mois
75001, Paris, Île-de-France
Business Analyst Data - Flux Transactionnels Bancaires (H/F) Localisation : Paris Type de mission : Freelance Démarrage : ASAP Durée : Long terme Secteur : Banque Contexte Dans le cadre d'un projet stratégique, nous recherchons un Business Analyst Data pour intervenir sur des problématiques liées aux flux transactionnels bancaires et aux données clients , dans un environnement à forts enjeux opérationnels. Missions principales Analyse des flux transactionnels bancaires (bout-en-bout) Suivi des délais de traitement et indicateurs de performance (SLA, T+X) Rédaction des spécifications fonctionnelles data Mapping et analyse des données clients et flux de données Participation aux phases de recette fonctionnelle (UAT) Analyse et résolution des anomalies en production (RUN) Coordination avec les équipes métiers, IT et data Profil recherché Expérience confirmée en tant que Business Analyst Data en environnement bancaire Expérience sur des flux transactionnels (paiements, cash management, virements, etc.) Bonne maîtrise de SQL (analyses et contrôles de données) Bonne compréhension des problématiques de qualité des données Expérience en environnement DataLake (vision fonctionnelle attendue) Capacité à intervenir en BUILD et RUN 👉 Anglais conversationnel professionnel indispensable Compétences appréciées (fortement valorisées) Reverse engineering Data protection Data governance / data management Connaissance d'un core banking (type SAB ) Maîtrise des concepts : Conceptual Data Model Logical Data Model Physical Data Model Compétences requises Analyse fonctionnelle Data mapping / data quality SQL UAT / Recette Analyse d'incidents Flux transactionnels bancaires Non retenu pour ce poste Profils orientés crédit / risque / réglementaire Profils BI / reporting uniquement Profils data engineer / architecte Informations complémentaires Environnement exigeant avec forte volumétrie de données Interaction transverse métiers / IT / Data Mission avec impact direct sur les opérations bancaires
Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)
WorldWide People
Publiée le
Data science
9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT). - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Mission freelance
Tech Lead Cloud
STHREE SAS
Publiée le
18 mois
75001, Paris, Île-de-France
Objectifs et périmètre de la prestation Le Tech Lead Cloud interviendra comme référent technique et accompagnera la mise en œuvre des landing zones GCP et S3ns, ainsi que de l'accostage des applications sur ces environnements. Cadrage et conception * Définir et formaliser les architectures cibles des landing zones GCP et S3ns. * Concevoir les modèles d'organisation : comptes, projets, réseaux, IAM, policies. * Intégrer les exigences de la doctrine Cloud, les contraintes réglementaires et les standards de cybersécurité. * Identifier les patterns de développement, de déploiement, de gouvernance et de supervision. Mise en œuvre technique * Concevoir, automatiser et industrialiser les landing zones via Terraform ou équivalent (IaC). * Mettre en place les fondations Cloud : o IAM / RBAC o Réseau, segmentation et interconnexions o Logs, monitoring, alerting et observabilité o Catalogue de services autorisés o Sécurité (CSPM, KMS, conformité) * Définir et accompagner l'implémentation des pipelines CI/CD associés. Gouvernance, sécurité et conformité * Définir les patterns d'accostage et les bonnes pratiques d'usage. * Mettre en œuvre des contrôles automatisés de sécurité et de conformité. * Travailler en étroite collaboration avec les équipes cybersécurité et architecture. Accompagnement des projets * Accompagner les équipes applicatives dans l'adoption des nouveaux environnements Cloud. * Analyser les besoins des projets et faire évoluer les landing zones en continu. * Contribuer à la documentation, aux formations et à la montée en compétences des équipes internes. Coordination et communication * Collaborer étroitement avec les équipes du programme. * Présenter les choix d'architecture, les décisions techniques et les feuilles de route. * Participer aux instances et cérémonies projet, et contribuer au pilotage global. Compétences requises Compétences techniques * Expertise avancée GCP : o Resource hierarchy, IAM o VPC, firewalling, connectivité hybride o Cloud Logging et Cloud Monitoring o Cloud Storage, GKE, Cloud Functions (selon périmètre) * Bonne connaissance de l'écosystème S3ns et de ses contraintes de souveraineté. * Infrastructure as Code (Terraform) : conception de modules, pipelines, bonnes pratiques. * DevSecOps : déploiement IaC et applicatif, CI/CD, self-service. * Sécurité Cloud : Zero Trust, chiffrement, KMS, contrôles de conformité. * CI/CD : Bitbucket, Digital Release, Tekton. * Réseaux avancés : DNS, routage, VPN, interconnexions Cloud/hybride. Compétences méthodologiques * Cadrage et conception de landing zones Cloud conformément aux principes FinOps. * Capacité pédagogique à expliquer et documenter les choix techniques. * Expérience d'accompagnement de projets applicatifs vers le Cloud. * Mise en œuvre et gouvernance du tagging des ressources (FinOps, pilotage). * Maîtrise des environnements agiles ou hybrides.
Offre d'emploi
AI Tech Lead – Data Architecture & Big Data (Python / Oracle / Angular)
Deodis
Publiée le
Agent IA
Angular
Big Data
1 an
40k-62k €
500-640 €
Île-de-France, France
En tant que Tech Lead IA & Data Architect , vous intervenez au sein de la DSI Groupe pour accompagner la mise en place de solutions innovantes autour de l’intelligence artificielle et de la data. Vous jouez un rôle central entre les équipes métiers et techniques, avec une double casquette : expertise technique et pilotage de projets . Dans un environnement international, vous contribuez à la conception, au développement et au déploiement de solutions data performantes, tout en garantissant leur qualité, leur sécurité et leur alignement avec les enjeux business. Analyser et comprendre les besoins métiers afin de proposer des solutions adaptées Concevoir et définir l’architecture technique des solutions Data & IA Piloter le développement et l’intégration des modèles d’intelligence artificielle Assurer la qualité, la performance et la sécurité des solutions mises en production Encadrer et accompagner les équipes techniques sur les sujets IA Gérer les priorités, les plannings et le suivi des livrables Assurer la communication et le reporting auprès des parties prenantes
Mission freelance
QA Data
Cherry Pick
Publiée le
Azure
Databricks
12 mois
340-390 €
Paris, France
Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour l’ensemble des enseignes et des fonctions d’appui du client En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad Équipement de la Maison. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les défauts avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Présentation des sujets en CAB pour passage en production Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Savoir Faire : Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste Profil technico fonctionnel SQL Server JIRA/XRAY Environnement Microsoft azure Databricks Utilisation de l'IA dans les tests (Génie Code) Outils de reporting Power BI, Microstratégy Savoir Etre : Collaboratif Entraide Force de proposition Implication/Engagement Amélioration Continue Communication fluide Qualité organisationnelle
Offre d'emploi
Data Analyst - DATAIKU F/H
ASTRELYA
Publiée le
Dataiku
Python
SQL
Île-de-France, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analyst spécialisé DATAIKU, vous rejoignez la Direction Data Office & Reporting & Analytics de notre client et intervenez au cœur de la valorisation de la donnée marketing dans un contexte international. Vous jouerez un rôle clé dans la transformation des données marketing en analyses fiables, en reportings automatisés et en insights actionnables pour les équipes locales et globales. Concrètement, vous allez : · Accompagner les équipes marketing dans l’analyse de leurs besoins et la définition des règles de gestion. · Construire des flows DATAIKU robustes, maintenables et documentés, conformes aux standards internes. · Automatiser et scénariser les pipelines de transformation. · Réaliser des analyses ad hoc pour éclairer les décisions marketing (performance campagnes, parcours digital, CLV, CPL…). · Concevoir et automatiser des tableaux de bord sous Tableau. · Mettre en place et maintenir le data lineage et le dictionnaire de données. · Garantir la qualité, la cohérence et la gouvernance des données exploitées. · Participer au recettage, à la correction de bugs et à la mise en production. · Assurer la maintenance du run et la fiabilisation des KPIs. · Collaborer quotidiennement en anglais avec les équipes internationales. · Être l’interlocuteur privilégié du Marketing auprès de l’IT. Votre futur environnement technique : · DATAIKU – flows, scénarisation, automatisation · SQL avancé – requêtes complexes, optimisation · Python (bases solides) – scripts, analyses, automatisations · Tableau – dashboards, visualisation, reporting Écosystème data marketing : Salesforce, Medallia, sites web, espace client, CLS…
Mission freelance
consultant data
LK TECHNOLOGY
Publiée le
Microsoft Excel
Microsoft Power BI
SQL
4 mois
Hauts-de-Seine, France
Les principales tâches porteront sur le développement de rapport BI et d'analyses : Création de nouveaux rapports BI complexes: de la consolidation du besoin auprès du métier à la livraison (incluant la recette) Extension de rapports existants sur de nouveaux périmètres. L'amélioration/ optimisation de rapports existants: optimisation de la performance technique et amélioration visuelle pour une meilleure prise en main par les utilisateurs De manière ponctuelle, développement d'analyses ou extractions et consolidations de fichiers one-shot ad hoc en support aux équipes de business analystes à destination du marketing ou des équipes de communication
Offre d'emploi
Data engineer
Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Modélisation
6 mois
40k-64k €
550-800 €
Luxembourg
Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Offre d'emploi
Data Scientist BI - Nantes (H/F)
SMARTPOINT
Publiée le
Git
Microsoft Power BI
Python
12 mois
50k-60k €
400-500 €
Nantes, Pays de la Loire
Comprendre les enjeux métier et les traduire en solutions techniques adaptées Définir le périmètre des données nécessaires à chaque projet en lien avec les parties prenantes Estimer et planifier les charges des différents traitements et actions techniques Optimiser les modèles de données des projets portés par l'équipe Développer et optimiser des scripts Python / PySpark robustes et performants Créer et maintenir les tables et vues nécessaires aux projets data Collaborer avec les équipes Ops pour l'industrialisation des pipelines (collecte, traitement, supervision, restitution) Contribuer activement aux projets de migration de plateforme en cours au sein de la Team Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1996 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois