Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 322 résultats.
CDD
CDI
Freelance

Offre d'emploi
Chef de projet Agile Master Confirmé

KEONI CONSULTING
Publiée le
Azure Data Factory
Backlog management
Scrum

18 mois
20k-60k €
100-500 €
Paris, France
Contexte Vous interviendrez au sein d'un projet récent, innovant en termes d'organisation et de technos. La mission s’inscrit au service du produit Editeur : - Plateforme d’api éditeur - Média autour de cette plateforme. La mission concerne l’un des deux pôles. Ce produit est en pleine transformation pour devenir un produit autonome utilisable par plusieurs clients. MISSIONS L'Agile master est un facilitateur de la vie d’une équipe de delivery et garant de son bon fonctionnement. Il est également facilitateur des démarches agiles (SCRUM/KANBAN/...), devops et des relations avec les autres équipes de l’écosystème. Il accompagne l'équipe dans un objectif d'autonomie et d'amélioration continue. Etre moteur sur la transformation agile et les pratiques au niveau de son éco système au sens très large et s'assure ainsi de la bonne cohérence de l'animation et des bonnes pratique à l'échelle de son domaine ou de sa factory ou d'un domaine de sa dimension systémique. Dans une approche lean, il promouvoit les méthodes et pratiques agiles dont il est le garant, et de faire en sorte que les équipes deviennent autonomes dans leur fonctionnement Agile. D’un point de vue méthode, il conseille aussi les acteurs pour trouver les pratiques les plus adaptées au contexte. Livrables • Mise en place des pratiques agiles. • Mener les activités préparatoires : Accompagner/coacher le Product Owner, Animer les séances d'évaluation des items du backlog et aider l'équipe à devenir autonome sur ce sujet • Mise en place des artefacts (Indicateurs, Burndown, HealthCheck, etc.) utiles, utilisés et utilisables au suivi de l’efficience de l’équipe. • Organisation des différentes cérémonies : Weekly, DSM, Rétrospective, Maturation, Démo. S'assurer que la documentation technique et fonctionnelle soit à jour et utile au partage de connaissance (intra équipe, inter équipe, nouveaux arrivants) S’assurer de l’autonomie de l’équipe pour un déploiement en continue (en recette et à venir en production) • Aider l'équipe à s'améliorer en continu : analyse des obstacles, éléments bloquants, interférences extérieures.
Freelance

Mission freelance
Data Product Manager/Environnement anglophone

Comet
Publiée le
Data governance

1 an
400-550 €
Île-de-France, France
Dans le cadre de la structuration de ses activités data à l’échelle mondiale, notre client recherche un Data Product Manager Senior pour piloter la conception et la mise en œuvre de modèles de données industriels et de solutions de reporting. Vous interviendrez sur un périmètre stratégique couvrant plusieurs applications déployées dans des usines à l’international, avec un objectif clair : standardiser, fiabiliser et valoriser la donnée au service de la performance industrielle. Vos responsabilités En tant que Data Product Manager, vous serez au cœur de l’interaction entre les équipes métiers et techniques. Vos missions principales : Comprendre les enjeux business liés à la performance industrielle Recueillir et structurer les besoins métiers Animer des ateliers avec les différentes parties prenantes Concevoir et formaliser les modèles de données (data modeling, business layer) Définir l’architecture fonctionnelle des solutions data Coordonner les équipes data (Data Engineers, BI, Architectes) Organiser les contributions autour du modèle "Data as a Service" Documenter les solutions et démontrer leur valeur Préparer les phases de mise en œuvre (budget, planning, roadmap) Formaliser les recommandations finales pour le lancement des projets
CDI

Offre d'emploi
Lead Developer Backend - Expertise IA & Agentique - Paris (H/F)

EASY PARTNER
Publiée le
C/C++
Data science
Go (langage)

71k-90k €
Paris, France
Contexte du poste Vous êtes passionné par l'innovation et l'intelligence artificielle ? Rejoignez une entreprise en pleine croissance spécialisée dans le développement de solutions numériques avancées, située en plein cœur de Paris. Notre département R&D, composé d'une équipe pluridisciplinaire de talents, cherche à agrandir ses rangs avec un Lead Developer Backend afin de piloter des projets stratégiques liés à l'IA et aux systèmes agentiques. Ce poste clé est à pourvoir pour renforcer notre expertise technique et soutenir notre croissance face aux défis complexes du numérique, tout en collaborant étroitement avec la direction et les équipes de base de données. Missions Missions principales - Concevoir, architecturer et implémenter notre nouveau système avec une forte composante IA. - Assurer le pilotage technique et l'accompagnement de l'équipe dans la réflexion et l'optimisation technologique. - Travailler en étroite collaboration avec la direction R&D pour aligner les objectifs stratégiques. - Prendre en charge l'intégralité du cycle de vie des projets, de la définition des besoins à leur déploiement. Missions annexes - Participer activement à la gestion des incidents et à l'amélioration continue. - Contribuer à la veille technologique et à l'innovation au sein de l'entreprise.
Freelance

Mission freelance
Data Engineer

DEVIK CONSULTING
Publiée le
API REST
Azure
Databricks

1 an
400-700 €
Paris, France
Description Pour le compte de notre client grand compte, Nous recherchons Data Engineer pour intervenir sur une plateforme Data stratégique, avec un rôle clé dans la gestion des flux de données et le maintien en condition opérationnelle. Tâches principales Assurer l’ingestion et l’orchestration des données (JIRA, CRM type Salesforce/Zoho, outils métiers) Centraliser et structurer les données au sein d’un Data Lake Développer et maintenir des pipelines de données (Python, API REST) Garantir la qualité, la sécurité et l’anonymisation des données Collaborer avec les équipes métiers pour faciliter le reporting Profil Recherché Expérience confirmée en Data Engineering Maîtrise de Python et des API REST Bonne connaissance de PostgreSQL Expérience sur Azure et Databricks Sensibilité à la data visualisation appréciée Rigueur, autonomie et esprit analytique Lieu : Paris
Freelance

Mission freelance
Consultant data tracking & analytics

SMH PARTICIPATION
Publiée le
BigQuery
Google Tag Manager
Javascript

6 mois
100-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Information . Avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement du train, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe) Communiquer et proposer Les déploiements en mode agile nécessite une organisation pluri-métier autour de la roadmap du train, la communication avec les autres est une notion clé. Nous recherchons un profil qui : Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features Pour les compétences demandées, il faut créer Piano Analytics à la place de Adobe Analytics
CDI

Offre d'emploi
Analyste - Développeur Data & IA F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

Romorantin-Lanthenay, Centre-Val de Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur Data Ops / Systèmes – Support & Exploitation Plateforme Data (Production / Run) (H/F)

TechOps SAS
Publiée le
Apache Airflow
Dremio
Grafana

12 mois
400-510 €
Île-de-France, France
Dans le cadre du renforcement d’une plateforme Data en production, nous recherchons un Ingénieur Système / Data Ops pour intégrer une équipe en charge du support et de l’exploitation d’un Data Hub et d’une plateforme de Data Virtualisation. Le poste consiste à assurer le bon fonctionnement des environnements de production, à superviser les traitements de données, à coordonner les incidents et à garantir la continuité de service. Vous interviendrez sur le monitoring quotidien des flux, la gestion des incidents et des problèmes, ainsi que sur la coordination des mises en production et des changements techniques. Vous serez également amené à analyser les incidents, proposer des actions correctives et préventives et participer à l’amélioration continue des processus et des outils de supervision.
Freelance

Mission freelance
Senior Data Product Manager – Group Data Platform / Data Mesh H/F

ADSearch
Publiée le
Architecture
Data Mesh
Production

3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre de l’accélération de sa transformation Data à l’échelle Groupe, notre client recherche un(e) Senior Data Product Manager pour piloter de manière stratégique et très opérationnelle la conception, la mise en œuvre et le déploiement de sa plateforme Data Self-Service Groupe , fondée sur les principes du Data Mesh . Il s’agit d’un rôle clé, orienté build et exécution , avec une forte responsabilité sur la livraison concrète , l’ industrialisation et l’ adoption à grande échelle de la plateforme au sein des différents domaines métiers. Le/la candidat(e) devra être capable de définir une vision produit claire tout en la traduisant en une plateforme robuste, scalable et prête pour la production , utilisée à l’échelle de l’entreprise. Mission principale Concevoir, construire, déployer et opérer la plateforme Data Mesh Groupe (appelée Group Data Platform – GDP ) comme un produit interne , en garantissant : sa livraison technique son adoption à l’échelle de l’entreprise son excellence opérationnelle son amélioration continue Responsabilités principales 1. Product Management orienté usage & amélioration continue Vos missions Recueillir et formaliser les besoins utilisateurs ainsi que les exigences plateforme Définir la vision produit , la proposition de valeur et la roadmap Mesurer l’usage de la plateforme et la valeur créée Améliorer en continu l’ expérience développeur et l’ expérience utilisateur Structurer les boucles de feedback et piloter le backlog d’amélioration Livrables attendus Vision produit et proposition de valeur de la plateforme KPIs de performance, d’usage et d’adoption Mécanismes de feedback utilisateurs et backlog d’amélioration continue Roadmap d’évolution de la plateforme 2. Delivery de la plateforme (responsabilité centrale) Vos missions Définir les capacités de la plateforme : data products pipelines de données gouvernance observabilité accès self-service Définir et faire appliquer les standards techniques et les patterns d’architecture Prendre des décisions techniques concrètes et valider les solutions de manière opérationnelle Garantir une plateforme industrialisée, réutilisable et scalable Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme 3. Architecture Cloud & Infrastructure Vos missions Coordonner la conception et l’exploitation de l’architecture cloud et hybride avec le Group Data Architect Coordonner avec la Group Data Delivery Team l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Garantir les exigences de sécurité , de conformité et de gouvernance Livrables attendus Blueprint d’architecture cloud (en collaboration avec le Group Data Architect) Cadre de sécurité et de gestion des accès Principes d’intégration hybride / on-premise 4. Pilotage de la delivery & exécution Vos missions Piloter l’ensemble du cycle de delivery de la plateforme Définir le backlog produit et le processus de priorisation Organiser les releases et les déploiements en production Suivre la performance, la fiabilité et la disponibilité de la plateforme Identifier et gérer les risques, incidents et sujets techniques critiques Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et processus de gestion de versions Tableaux de bord de suivi de delivery SLA / indicateurs de fiabilité et de performance de la plateforme 5. Déploiement & adoption dans les domaines métiers Vos missions Déployer la plateforme dans les différents domaines métiers Accompagner les équipes domaines dans la création de data products Mettre en œuvre le modèle opérationnel Data Mesh Structurer et accompagner l’onboarding des équipes Lever les freins opérationnels à l’adoption Livrables attendus Framework et processus d’onboarding des domaines Guidelines sur le cycle de vie des data products Playbooks d’accompagnement des équipes métiers / domaines KPIs d’adoption et d’usage Supports de formation et documentation d’onboarding 6. Documentation, standardisation & gouvernance Vos missions Documenter les capacités, standards et processus de la plateforme Garantir l’alignement avec la Federated Computational Data Governance du Groupe Structurer les bonnes pratiques de mise en œuvre Livrables attendus Référentiel de documentation de la plateforme Standards techniques et guidelines d’implémentation Framework de gouvernance et de conformité Playbooks de bonnes pratiques 7. Communication opérationnelle & reporting exécutif Vos missions Communiquer sur l’avancement, l’impact et la valeur de la plateforme Produire un reporting régulier à destination des instances de gouvernance et du management Aligner les parties prenantes métier, IT et Data Livrables attendus Executive Project Dashboard Tableaux de bord de performance de la plateforme Présentations pour les comités de pilotage / steering committees Suivi des décisions, risques et points bloquants 8. Promotion interne & évangélisation Vos missions Promouvoir la valeur de la plateforme à l’échelle de l’organisation Soutenir les initiatives d’adoption interne Fédérer une communauté autour de la plateforme Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations de la plateforme et portefeuille de cas d’usage
Freelance
CDI
CDD

Offre d'emploi
Data Scientist IA

R&S TELECOM
Publiée le
CI/CD
Kubernetes

1 an
45k-55k €
430-470 €
Île-de-France, France
Contexte de la mission Vous serez amené à évoluer dans une équipe pluridisciplinaire et travailler à concevoir, développer ou faire évoluer notre infra et plateforme Big Data dans un environnement Kubernetes. Objectifs et livrables Maintenir et faire évoluer la chaine CI/CD et les différents environnements containerisés. Adapter nos infrastructures et services aux besoins des projets. Concevoir et intégrer de nouvelles solutions sur nos infrastructures conteneurisées Documenter l’architecture, l’administration et l’exploitation Guider nos clients dans l'utilisation de Kubernetes et des pipelines CI/CD Assurer le support de niveau 3 sur les infrastructures supportant la conteneurisation. Veiller à la sécurité de bout en bout dans l’usage des technologies de conteneurisation et des conteneurs. Assurer une veille technologique. Compétences demandées Compétences Niveau de compétence Programmation Python Confirmé Gitlab CI/CD Expert GRAFANA Avancé ANSIBLE Avancé KAFKA Expert KUBERNETES Expert ELASTICSEARCH Confirmé ,
CDI

Offre d'emploi
Data architect / Administrateur SAP BO BI H/F

VIVERIS
Publiée le

40k-55k €
Dijon, Bourgogne-Franche-Comté
Contexte de la mission : Viveris accompagne les grands acteurs du secteur bancaire dans leurs programmes de transformation métier et IT, avec une forte dimension data et décisionnelle. Dans ce contexte, nous recherchons un Administrateur / Data Architect SAP BusinessObjects (SAP BO BI) pour intervenir sur un chantier stratégique de la Data Factory. Vous intégrerez l'équipe Solutions BI et participerez à l'administration, l'optimisation et l'évolution des plateformes décisionnelles basées sur SAP BO, au coeur des usages data des métiers. Votre rôle consistera notamment à garantir la performance, la disponibilité et la gouvernance des environnements BI, tout en accompagnant les équipes dans l'architecture et l'évolution des solutions décisionnelles. Ce poste vous permettra d'évoluer dans un écosystème data exigeant, sur des sujets à fort impact métier, aux côtés d'équipes expertes engagées dans la valorisation de la donnée. Responsabilités : * Assurer le suivi opérationnel des plateformes SAP BO BI 4.3 ;Prendre en charge l'assistance de niveau 2 et 3 des multiples plateformes SAP BO BI 4.3 ; * Proposer des solutions d'optimisation des rapports ; * Participer aux différents projets à venir de conversion des univers, de pointage des WebI vers ces univers, de migration à terme vers SAP BO BI 2025 ; * Faire évoluer l'outillage pour industrialiser la gestion des plateformes (Scripting, Datamart de supervision/audit).
Freelance
CDI

Offre d'emploi
Data Engineer spécialisé·e Informatica PowerCenter

ATTINEOS
Publiée le
Informatica

2 ans
Rouen, Normandie
Dans un contexte de projets stratégiques autour de la donnée, nous recherchons un·e Data Engineer spécialisé·e Informatica PowerCenter pour renforcer une équipe agile dynamique. Vous interviendrez sur la création et l’évolution de traitements data et d’applications, dans des environnements variés couvrant plusieurs domaines métiers (assurance IARD, santé, marché professionnel…). Vous participerez à l’ensemble du cycle de vie des projets : de la conception jusqu’à la maintenance en conditions opérationnelles. Vos missions : Rédiger les spécifications techniques détaillées Concevoir, développer et maintenir des traitements d’intégration de données Garantir la qualité, la performance, la sécurité et les délais de livraison Réaliser les tests unitaires et d’intégration Participer aux mises en production et aux déploiements Gérer les incidents et les demandes de changement Mener des analyses d’impact sur les pipelines de données existants Produire la documentation technique et réglementaire Environnement technique : Informatica PowerCenter 10.x, PowerExchange Navigator, SQL Server / SQL, Environnements Mainframe (apprécié), COBOL (lecture de copybooks), CI/CD, JIRA, Confluence
Freelance
CDI

Offre d'emploi
Senior Data Engineer Big Data

VISIAN
Publiée le
AWS Cloud
Python

1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Freelance

Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)

Octopus Group
Publiée le
BI
Dataiku
Finance

6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Freelance

Mission freelance
Experts Workday - Intégration / Data Migration / CP

CONCRETIO SERVICES
Publiée le
Reporting
Workday

12 mois
600-1 100 €
Île-de-France, France
Nous recrutons pour le compte de notre client sur trois expertises complémentaires , et cherchons des profils qui en maîtrisent au moins une à un niveau avancé — voire qui combinent plusieurs de ces dimensions. Intégration Workday Vous avez conçu et déployé des intégrations complexes sur Workday — Studio, EIB, Workday Web Services, API REST/SOAP. Vous savez travailler en lien avec des équipes techniques et fonctionnelles, documenter vos architectures et anticiper les risques d'interface. Une expérience sur les modules HCM, Finance ou Payroll est un vrai atout. Reprise de données / Data Migration Vous avez piloté ou exécuté des chantiers de migration de données RH ou financières vers Workday — cartographie des données sources, règles de transformation, chargement via iLoad ou outils tiers, recette et validation. Vous êtes à l'aise avec la complexité des données héritées et vous savez travailler avec les métiers pour arbitrer et qualifier. Chefferie de projet Workday Vous avez déjà piloté des projets Workday en environnement client final, avec une vraie capacité à coordonner des équipes mixtes (IT, RH, Finance, intégrateur externe). Vous maîtrisez les cycles de déploiement Workday, la gestion des jalons, des risques et des parties prenantes, et vous savez maintenir le cap sans perdre le lien terrain.
Freelance
CDI

Offre d'emploi
Data Analyst - RENNES

NEO SOFT SERVICES
Publiée le
Dataiku
Microsoft Power BI
ServiceNow

3 mois
36k-42k €
300-380 €
35000, Rennes, Bretagne
Missions principales : 30 % – Production : Modélisation des données Création d’indicateurs d’analyse et de tableaux de bord sur Power BI 70 % – RUN : Analyse des données et des incidents Interprétation et explication des chiffres Esprit de synthèse et curiosité dans la recherche d’information Présentation des résultats (démonstrations, restitution de tableaux de bord) Communication claire et efficace Environnement technique Power BI Jira ServiceNow (ticketing – niveau N2) Dataiku (fort atout) Python / SQL (appréciés mais non indispensables)
Freelance
CDI

Offre d'emploi
Expert Technique Big Data

VISIAN
Publiée le
IBM DataStage
Web Application Firewall (WAF)

1 an
Île-de-France, France
Contexte Dans un contexte de migration d’une plateforme des technologies big data vers des technologies classiques, nous recherchons un expert technique autonome et chevronné afin d’assurer cette migration from scratch. Missions Commander les serveurs depuis les portails cloud internes : les customiser afin de les rendre opérationnels, c’est-à-dire conformes à la politique d’exploitation et de sécurité. Commander des bases de données On-premise et/ou Cloud en fonction des besoins : les installer, configurer et les administrer. Installation et configuration de l’ETL DataStage et ses satellites dans une infrastructure 3 tiers haute disponibilité : Data de données actif/passif avec réplication et synchronisation des données. Installation et configuration du WAS actif/passif. Installation et configuration du core de l’ETL : actif/passif tout en garantissant la résilience. Garantir le parallélisme et le cloisonnement des environnements dans une même plateforme. Installation et gestion des middlewares : CFT/MQseries (Actif/actif) : haute disponibilité. Autosys : gestion et développement des JIL : ordonnanceur applicatif et scheduler. Monitoring technique, BAM, outils de reporting/data visualisation, etc. Installation de l’application et support aux équipes projets. Veiller à la bonne traçabilité des services techniques utilisés au niveau infrastructure et applicative. Mise en place des procédures BAU : reporting, documents d’exploitations et d’installation. Formation des équipes de support, niveau 2 et 3.
5322 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous