Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 695 résultats.
CDI

Offre d'emploi
Analyste Data & Reporting (Power BI / ITSM Obligatoire) 4 ans minimum en CDI - H/F

TOHTEM IT
Publiée le

40k-45k €
Toulouse, Occitanie
Dans le cadre de l’amélioration continue des activités de pilotage et d’architecture au sein de la DTO, nous recherchons un(e) Analyste Data & Reporting spécialisé(e) Power BI capable de conduire des études techniques ciblées ayant un impact sur l’architecture . La mission consiste à réaliser des analyses techniques à forte valeur ajoutée , permettant de répondre à des problématiques spécifiques et d’orienter les décisions d’architecture et de pilotage. Missions : Vous interviendrez notamment sur les activités suivantes : Data & Reporting : Analyse et amélioration continue des tableaux de bord Power BI de la DTO Production et fiabilisation des indicateurs d’Engagement de Services Production des indicateurs de pilotage Support ITSM Analyse des données et identification d’axes d’amélioration Études techniques : Réalisation de petites études techniques ciblées Analyse d’impact sur l’architecture existante Proposition de pistes d’amélioration ou d’évolution Documentation et valorisation : Rédaction des modes opératoires d’exploitation des données Formalisation et communication des résultats
CDI
Freelance

Offre d'emploi
Data Analyst Dataiku/SAS/Tableau/SQL

OBJECTWARE
Publiée le
Dataiku
SAS

3 ans
40k-80k €
400-580 €
Île-de-France, France
Prestations demandées La mission consiste à fournir aux équipes Finance les moyens de contrôler / analyser / piloter leurs activités, via une exploitation qualitative de la donnée. Les tâches principales consisteront à : - Accompagner les différentes équipes dans l’expression de leurs besoins - Définir et modéliser les processus data - Concevoir les solutions - Implémenter et automatiser les processus dans les outils les mieux adaptés (extraction et préparation des données ; production des outputs ; historisation et stockage ; tableaux de bord,…) - Accompagner les Métiers dans la prise en main des solutions mises en place - Assurer la maintenance corrective et évolutive des solutions livrées - Identifier, partager et mettre en œuvre les bonnes pratiques sur le traitement des données, dans une démarche d’amélioration continue. Le périmètre recouvre l’ensemble des données de l’activité d’Arval France (systèmes de gestion des contrats, de l’assurance, des frais généraux ; systèmes comptables,…), nécessaires aux travaux de la Finance. Les principaux outils utilisés dans l’existant sont : Excel, SAS, OBIEE Analytics, SQL Dev. Les principaux outils à privilégier en cible sont – conformément aux recommandations internes : Dataiku, Python, Vertica, Tableau. La mission se déroule au sein l’équipe de Data Analysts dédiée au projet Data Finance, celle-ci travaille de manière quotidienne avec l’ensemble des parties prenantes au projet – de la Finance et des autres Directions : - Experts Métier - Architectes et référents IT - Data Engineers - Data Management Officers Exemples de besoins automatisation pouvant être mis en œuvre durant la mission : - Réaliser la migration SAS vers Dataiku du dashboard de pilotage de l’encours stock de commandes - Industrialiser les contrôles et les rapprochements entre les systèmes de gestion et les systèmes comptables - Industrialiser le pilotage des paiements clients / fournisseurs
Freelance

Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)

Signe +
Publiée le
Dataiku

12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Freelance

Mission freelance
Chef de projet data migration (H/F)

Cherry Pick
Publiée le
Coupa
Gestion de projet
Migration

9 mois
600-650 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Chef de projet data migration(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine pharmaceutique. Description 🏢 Le Contexte : Programme de Transformation "Nexus" Vous rejoignez le programme international, au sein de l'équipe Performance Opérationnelle Finance . Ce programme vise à harmoniser les outils et processus sur l'ensemble du cycle Source-to-Pay (S2P) et Source-to-Settle à l'échelle mondiale. Après le déploiement en France, le projet s'attaque à un morceau d'envergure : le déploiement aux États-Unis , incluant une transition vers SAP S/4HANA et l'harmonisation des outils de CLM ( Sirion ) et d'e-Procurement ( Coupa ). 🎯 Vos Missions : Pilotage et Coordination de la Migration Sous la responsabilité du responsable Data Model et Data Migration, vous portez une stratégie de migration spécifique basée sur l'agilité et l'ajustement tardif des données. Définition du Scope : Mettre autour de la table des acteurs internes ultra-challengeants pour arrêter le périmètre de reprise (attributs, historique, périmètres géographiques). Stratégie de Migration par "Templates" : Contrairement à une migration technique classique, vous pilotez une approche par gabarits permettant d'ajuster et de transformer la donnée manuellement jusqu'au dernier moment pour garantir une fiabilité maximale au Go-Live. Intégration MDM : Assurer la mise en conformité et l'entrée des données dispersées dans le référentiel maître ( Master Data Management ) du groupe. Coordination Internationale : Aligner les besoins de la France et les spécificités du déploiement américain. Gouvernance et Documentation : Documenter les processus de transition pour assurer la continuité du "Run" après la migration.
Freelance
CDI

Offre d'emploi
Pilote de la Feuille de Route Sécurité Data

CAT-AMANIA
Publiée le
Agile Scrum

12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Pilote de la Feuille de Route Sécurité Data pour le compte de notre client, acteur majeur dans le secteur des assurances. Au sein du Data Office , vous intervenez sur une mission stratégique visant à renforcer durablement la sécurité du patrimoine data, aussi bien sur les environnements On-Premise que Cloud . Dans un contexte de transformation et de forte exigence réglementaire, vous êtes garant(e) du pilotage global de la feuille de route Sécurité Data Office 2025–2026 . Vos principales responsabilités portent sur la coordination, le pilotage et l’amélioration continue de la posture de sécurité data, avec une approche à la fois opérationnelle, structurante et proactive. À ce titre, vous assurez notamment : Le pilotage opérationnel de la feuille de route sécurité (jalons, budgets, qualité des livrables) L’animation de la gouvernance sécurité data (comités, coordination RSSI, DDSI, Data Managers) La production de reportings et tableaux de bord de suivi (KPIs sécurité, avancement des recommandations d’audit) L’identification des risques, points de blocage et la proposition de plans de remédiation Vous pilotez également les chantiers structurants issus de la roadmap, notamment : Les stratégies de sauvegarde et de résilience des données La gestion des accès et des habilitations L’application des règles de sécurité et de conformité (PSSI, RGPD) sur les domaines Data Au-delà de l’exécution, vous jouez un rôle de conseil en évaluant la pertinence de la feuille de route existante face aux nouveaux enjeux (IA générative, nouveaux usages data, data virtualisation) et en proposant des actions complémentaires. Enfin, vous contribuez à la mise en place d’un processus d’amélioration continue de la sécurité data, en sortant d’une logique purement réactive post-audit : Standardisation des pratiques “Security by Design” Sensibilisation et montée en compétence des équipes data Mise en place de dispositifs d’auto-évaluation et d’audits flasht personnel.
Freelance

Mission freelance
Expert Senior Google Workspace, Data & IA/Looker Studio / Big Query /GEMINI (H/F)

Octopus Group
Publiée le
BigQuery
Google Workspace
IA Générative

6 mois
570-750 €
Niort, Nouvelle-Aquitaine
Nous recherchons pour le compte de notre client dans le secteur de l'assurance, un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA. Le profil recherché est un consultant hybride à haute valeur ajoutée, capable d'administrer l'environnement collaboratif, d'analyser la donnée d'usage (BigQuery/Looker), de développer des solutions d'automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analystics (Expertise Looker et BigQuery) Business Intelligence (Looker) : Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique pour mesurer l'adoption des outils et la performance des processus métiers. Data Analysis (BigQuery) : Exploitation avancée des données (logs d'audit GWS, données métiers) via requêtage SQL optimisé. Structuration des tables et gestion des coûts de stockage/calcul. Pilotage RSE & Usages : Définition et mise en place d'indicateurs de suivi sur l'infobésité et l'hyperconnexion, en support de la politique de Qualité de Vie au Travail (QVT) et de Sobriété Numérique. Volet IA Générative (Gemini) & Innovation : Centre d'Expertise IA : Contribution majeure à la structuration du Centre d'Expertise. Rôle de référent technique et fonctionnel sur la solution Gemini. Acculturation & Animation : Pilotage de la communauté d'ambassadeurs IA. Organisation de webinars, rédaction de guides de bonnes pratiques et identification de cas d'usage à forte valeur ajoutée. Intégration Métier : Déploiement opérationnel de solutions IA (assistance rédactionnelle, synthèse documentaire, assistants virtuels) adaptées aux besoins spécifiques des métiers. Volet Google Workspace : Technique & Fonctionnel : Expertise Admin & Sécurité : Administration avancée de la console Google Workspace. Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes Cyber. Automatisation des Processus : Développement d'applications métiers via AppSheet (Low-code) et Google Apps Script pour la digitalisation des tâches manuelles et le remplacement de fichiers Excel complexes. Transition Office vers Google : Accompagnement technique et méthodologique pour la migration des utilisateurs et de leurs outils (Excel/VBA) vers l'écosystème Google (Sheets/Apps Script/BigQuery). Posture AMOA/PO : Assistance au Product Owner dans la définition de la roadmap produit, la rédaction de User Stories et la conduite du changement.
Freelance

Mission freelance
Data Engineer Talend (habilitation requise)

Signe +
Publiée le
Talend

12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
Freelance

Mission freelance
Business Analyst - expérience Data sur des données Clinique - Anglais courant exigé

WorldWide People
Publiée le
Business Analyst

6 mois
400-550 €
France
Business Analyst données cliniques/de santé client dans la pharmaceutique parler couramment anglais nous recherchons un Business Analyst expérimenté (au moins 5 ans d'expérience). Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation. Prérequis obligatoire , il faut absolument une expérience réelle dans le domaine de la Data sur des données cliniques et parler couramment anglais. Durée : 1 an Démarrage : ASAP Localisation : France Nous recherchons un Business Analyst pour soutenir les initiatives liées aux données opérationnelles cliniques (MDM, SSU, CTMS, Site connect, CRM, chaîne d'approvisionnement, finances, ERP). Le consultant servira de pont entre les parties prenantes commerciales, les équipes cliniques et l'ingénierie des données afin de traduire les besoins en exigences de données exploitables. Responsabilités principales : Recueillir, analyser et documenter les exigences commerciales pour les cas d'utilisation des données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires pour les équipes d'ingénierie et d'analyse des données. Soutenir les activités liées à la qualité, à la traçabilité et à la gouvernance des données (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques/opérationnelles et assurer la coordination entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints à l'aide de Jira ; documenter les processus dans Confluence. Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation.
Freelance

Mission freelance
Data Product Owner – Intermodal

LINKWAY
Publiée le
Business Intelligence
Confluence
JIRA

1 an
400-490 €
Île-de-France, France
Dans un contexte de transformation digitale et d'optimisation des flux logistiques mondiaux, nous recherchons un Data Product Owner spécialisé dans le transport Intermodal . Le secteur de la logistique vit une révolution axée sur la donnée, et l'intermodalité (la combinaison intelligente de différents modes de transport comme le rail, la route et le maritime) est au cœur des enjeux écologiques et économiques actuels. En tant que Data Product Owner, vous serez le chef d'orchestre de produits de données innovants destinés à optimiser ces flux complexes. Vous intégrerez une équipe transverse ("Squad") composée de Data Engineers, de Data Scientists et d'analystes, et vous ferez le lien vital entre les équipes techniques et les métiers opérationnels du transport. Définition de la Vision et de la Roadmap Produit : Vous serez responsable de la construction et du maintien de la vision produit. Cela implique de comprendre les besoins des opérationnels qui gèrent le transport intermodal au quotidien. Vous devrez traduire ces besoins business en solutions "Data" concrètes (tableaux de bord décisionnels, algorithmes d'optimisation de routes, outils de tracking prédictif, calculateurs d'émissions CO2). Vous élaborerez une roadmap claire à court, moyen et long terme, en priorisant les fonctionnalités qui apportent le plus de valeur ajoutée à l'entreprise (ROI). Gestion du Backlog et Delivery : Vous serez en charge de la rédaction des User Stories, en vous assurant qu'elles sont claires, testables et orientées vers la valeur utilisateur. Vous gérerez le Product Backlog, en arbitrant constamment les priorités entre les nouvelles fonctionnalités, la dette technique et les corrections de bugs. Vous animerez les rituels agiles (Sprint Planning, Daily Stand-up, Sprint Review, Retrospective) pour garantir un rythme de livraison soutenu et de qualité. Valorisation de la Donnée et Qualité : Le cœur de votre mission reste la donnée. Vous devrez travailler en étroite collaboration avec la gouvernance des données pour vous assurer de la qualité, de la fiabilité et de la disponibilité des flux de données entrants (IoT, systèmes TMS, données partenaires). Vous devrez identifier les sources de données pertinentes pour résoudre les problèmes de logistique intermodale (ex: temps d'attente aux terminaux, congestion ferroviaire) et transformer ces données brutes en insights actionnables pour les décideurs. Gestion des Parties Prenantes (Stakeholder Management) : Vous serez l'interlocuteur privilégié des différentes directions (Opérations, Commerce, RSE, IT). Votre rôle sera de fédérer ces acteurs autour du produit, de gérer les attentes parfois contradictoires et de communiquer transparentement sur l'avancement des projets. Vous devrez faire preuve de pédagogie pour expliquer les contraintes techniques aux métiers et les enjeux business aux équipes techniques. Accompagnement au Changement : Le déploiement d'un produit Data ne s'arrête pas à la mise en production. Vous accompagnerez les utilisateurs finaux dans la prise en main des outils, recueillerez leurs retours pour l'amélioration continue et mesurerez l'adoption des solutions via des KPIs précis (taux d'utilisation, impact sur la marge, réduction des délais, etc.).
Freelance

Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Freelance

Mission freelance
Chef de Projet Data Migration Workday

SAP-HIRE
Publiée le
Workday

10 mois
500-610 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour un de nos clients lyonnais, pour un projet de migration sur Workday, un Chef de Projet. En tant que Chef de projet vous serez en charge de piloter la migration ainsi que la partie architecture solution. Par ailleurs, vous aurez pour rôle d’orchestrer le plan de bascule. Le démarrage de la mission est prévue dès que possible et ce jusqu'à fin 12/2026. La connaissance de Workday Finance est impérative, ainsi qu'un bon niveau d'anglais dans un contexte international. Workday Finance (4/5 ans d'expérience minimum) Data migration (2/3 ans d'expérience minimum) Chef de Projet (3 ans d'expérience minimum)
Freelance

Mission freelance
Consultant KELIA Actuariat / Data – Validation des calculs et migration SI Épargne / Retraite

CAT-AMANIA
Publiée le
kelia
Python

2 ans
400-700 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation du système d’information Épargne, nous recherchons un Consultant Actuariat / Data pour intervenir sur la validation et la certification des calculs actuariels dans un contexte de migration vers un nouvel outil de gestion. Ce programme vise à moderniser l’écosystème Épargne, notamment à travers le lancement de nouvelles offres et la convergence des systèmes existants vers une plateforme cible. Vous interviendrez au sein du programme de migration, en lien étroit avec les équipes actuariat, data et IT. Vos missions Vous aurez un rôle clé dans la fiabilisation et la validation des calculs actuariels et financiers : Analyser et comparer les résultats calculatoires entre les systèmes existants et la nouvelle plateforme cible Réaliser les recettes calculatoires et valider la cohérence des résultats Identifier, analyser et documenter les écarts observés Proposer des solutions pour corriger ou minimiser les impacts techniques et fonctionnels Participer à la certification des données migrées Produire des rapports d’analyse et des supports de suivi (tableaux de bord, synthèses, indicateurs) Contribuer à la fiabilisation des données et à la sécurisation du processus de migration Vous interviendrez sur des sujets tels que : tables de mortalité provisionnement calculs actuariels validation de modèles et de paramètres Environnement technique et métier Environnement métier : Assurance Épargne et Retraite Migration de systèmes d’information Validation actuarielle et certification des données Environnement technique : Python, R ou SAS Analyse statistique et modélisation Outils analytiques et data Outil de gestion Kelia (un plus)
CDI
Freelance

Offre d'emploi
DevOps streaming Data - (H/F)

SWING-ONE
Publiée le
Ansible
Apache Kafka
DevOps

1 an
Île-de-France, France
CONTEXTE DU POSTE : Nous recherchons pour notre client Grand-Compte un DevOps streaming Data. Vous intégrerez le pôle technologique en charge de concevoir et d’opérer des plateformes « as a service » permettant le déploiement d’architectures modernes, distribuées et hautement résilientes pour l’ensemble des entités du Groupe. MISSIONS PRINCIPALES : Industrialiser et automatiser les déploiements (Ansible) Mettre en production de nouveaux clusters Kafka et faire évoluer les clusters existants (scale horizontal & vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Apporter une expertise technique aux utilisateurs de la plateforme Développer des prototypes en lien avec les cas d’usage métiers Documenter les offres et démontrer la valeur des solutions Data
CDI

Offre d'emploi
Data Engineer - GCP - CDI

Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery.  Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins  Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Freelance

Mission freelance
POT8923 - Un chef de projet Data sur Orléans

Almatek
Publiée le
Squash

6 mois
270-350 €
Orléans, Centre-Val de Loire
Almatek recherche pour l'un de ses clients Un chef de projet Data sur Orléans. La mission consiste à gérer les projets et la maintenance sur le périmètre métier «Décisionnel» en délégation du pilote de projets référent du domaine. Il interviendra en tant qu’interlocuteur privilégié de l’AMOA Décisionnel pour l’exécution des projets et de la maintenance applicative du domaine. Le chef de projet participera à toutes les phases, du cadrage à la préparation de la mise en production. Il prendra en charge la mise à jour hebdomadaire du planning, le suivi des charges et le reporting associé. Il assurera la préparation et le passage en Comité d’architecture en collaboration avec l’équipe d’architectes client. Il assurera également le pilotage quotidien de l’avancement auprès des équipes de réalisation et de recette, préparera et animera les ateliers et instances de pilotage (COMOP, daily, …). Profil recherché : -Consultant confirmé en gestion de projets et maintenance applicative. -Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). -Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). -La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. -La maitrise d’un outil de recette (Squash) serait un plus. -Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Localisation : Orléans, 2 jours de TT après 3 mois de full présentie
Freelance

Mission freelance
Architecte IT

Codezys
Publiée le
Active Directory
AWS CloudFormation
Azure

12 mois
Massy, Île-de-France
Contexte général Dans un contexte de cybersécurité renforcée, notre entreprise vise à renforcer la sécurité de son Système d’Information. Par ailleurs, afin de conserver notre position de leader, nous devons accompagner nos métiers dans la mise en œuvre de nouvelles solutions. À cette fin, il est nécessaire de rédiger les dossiers d’architecture technique correspondant à ces solutions. Objet du cahier de consultation Dans le cadre de ce projet, l'entreprise a décidé de sous-traiter la conception de l’architecture technique pour ses sites en France et à l’international. Cette mission doit prendre en compte diverses caractéristiques et contraintes, tout en garantissant une cohérence technique et la stabilité du système d’information durant son évolution. Il s’agit également d’étudier l’impact de ces solutions sur l’architecture existante ou future. Cette prestation requiert une expertise approfondie sur les technologies telles que VMware, Windows, MSSQL, Cloud, clustering, et autres. Une capacité à rédiger une documentation technique détaillée est également indispensable. Logistique Date de démarrage : prévue le 01/04/2026, avec une livraison au plus tard le 31/12/2026 Lieu : Massy Profil recherché : Expert ou sénior avec nationalité ......................, contrôle élémentaire requis (FICE) Panel ciblé : Infrastructures Typologie de prestation : Architecture Le prestataire devra fournir un ordinateur personnel (PC) Maîtrise de l’anglais souhaitée Objectifs et livrables 1. Environnement technique de la prestation Les solutions techniques concernent notamment Windows, VMware, MSSQL, IIS, Active Directory, clustering, et Cloud. Toutes ces solutions doivent respecter les standards de l'entreprise, accessibles via l’ITRB. 2. Prestations attendues Concevoir l’architecture technique des solutions requises pour les sites en France et à l’international, en prenant en compte diverses caractéristiques et contraintes. L’objectif est d’assurer une cohérence technique et la stabilité du système d’information tout au long de son développement, tout en analysant leur impact sur l’architecture existante ou à venir.
1695 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous