Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 165 résultats.
Freelance

Mission freelance
Expert Workday F/H

Publiée le
Big Data
Pilotage
Workday

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 7 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Expert Spécialités technologiques : Data Visualisation, Restitution, Satisfaction client, Sage Protocoles de communication • Projet d’implémentation Workday (ensemble du scope RH, hors payroll) pour la Vague MISSIONS Objectifs : • Sécuriser l’interface Workday – Payroll (Sage) • Supporter l’interface avec notre Active Directory • Pilotage du Build des intégrations qui sera réalisé par le Partner Workday / intégrateur HR Path • Tests • Définition du plan de bascule détaillé en partenariat avec les différentes parties prenantes (IT / Business / Partner, etc.) • Autres activités en lien avec la mise en place d’intégrations avec Workday Expertise souhaitée Profil : • 7 ans d’expérience minimum sur ce poste • Expertise confirmée Workday • Expérience d’intégration avec Workday (Payroll) • Anglophone (ou Germanophone) • Sait collaborer avec plusieurs entités différentes • Sait travailler sous pression (deadline courte) Soft-Skills : • Leadership et esprit d’initiative • Rigueur et sens de l’organisation • Orientation résultats et satisfaction client • Gestion des attentes et des résistances au changement • Capacité à travailler en transversal avec les métiers, la DSI, la sécurité, etc. • Excellente communication écrite et orale
Freelance

Mission freelance
Data Governance Officer

Publiée le
Collibra
Data governance

2 ans
400-620 €
Paris, France
Télétravail partiel
Le Data Office recherche un consultant expérimenté pour accompagner le Head Of Data Office dans l’animation et le déploiement de de cette gouvernance, en lien étroit avec les métiers et l’IT. Objectifs de la mission : • Déployer la gouvernance des données en mode fédéré par data domain. • Renforcer la qualité, la traçabilité et la valorisation des données. • Accompagner les métiers dans l’appropriation des rôles et outils de gouvernance. • Piloter les comités et animer la communauté data. Missions détaillées Connaissance des données : • Documenter les données dans l’outil de gouvernance (DataGo) en collaboration avec les métiers et l’IT. • Structurer le glossaire métier, les objets métiers, les attributs et le lignage fonctionnel et technique. Qualité des données : • Formaliser et documenter les exigences de qualité par domaine. • Définir les indicateurs de qualité, les contrôles et les plans de remédiation. • Accompagner les métiers dans la mise en œuvre et le suivi opérationnel. Usages & valorisation Recenser et documenter les cas d’usage métiers. Gérer le portefeuille des cas d’usage et suivre les gains associés. Contribuer à la priorisation des initiatives data. Acculturation & conduite du changement Animer la communauté data (Data Owners, Stewards, Domain Officers). Produire des supports pédagogiques (guides, newsletters, ateliers). Contribuer à la montée en compétence des métiers sur les enjeux data. Pilotage & gouvernance Organiser et animer le comité de gouvernance des données. Préparer les supports du Comité Stratégie Data. Assurer le suivi des décisions, des plans d’action et des indicateurs de maturité.
CDI
CDD

Offre d'emploi
Administrateur Bases de Données PostgreSQL / MySQL – Senior (H/F)

Publiée le
Cloud
MariaDB
MySQL

1 an
Ivry-sur-Seine, Île-de-France
Contexte Rattaché à l’équipe Administration des Bases de Données au sein de la DSI, le consultant intégrera une équipe de plus de 10 DBA dédiée à la mise en œuvre et à l’exploitation de projets de grande envergure . La mission porte sur l’ administration opérationnelle en production de bases de données critiques sur PostgreSQL et MySQL , avec une forte composante RUN, projets, automatisation et Cloud . Objectif de la mission Assurer l’ administration, l’exploitation et l’évolution des bases de données PostgreSQL et MySQL en environnement de production, tout en accompagnant les projets d’architecture, de performance, de sécurité et d’automatisation. Missions principales RUN / Exploitation Administration des bases de données PostgreSQL et MySQL . Support N3 / Expertise , en lien avec les équipes de développement et d’exploitation. Suivi du MCO et mise en place des procédures d’exploitation . Gestion des incidents, changements et problématiques de production. Gestion du PRA et de la continuité de service. Supervision, homologation et veille technologique . Projets & Architecture Participation aux projets d’architecture, de déploiement et d’évolution des SGBD. Optimisation des performances et de la configuration des bases. Maîtrise des opérations de patching, upgrades et migrations . Définition et mise en œuvre des stratégies de sauvegarde, restauration, PITR . Mise en place et gestion de la réplication , des clusters et de la haute disponibilité : PostgreSQL (Patroni) MySQL (Group Replication) Gestion du failover et des stratégies de bascule automatique. Automatisation & Cloud Étudier et accompagner le déploiement des SGBD sur des solutions Cloud / opérateurs . Proposer et mettre en œuvre des tâches d’automatisation pour les déploiements et l’administration. Utilisation et maintien des outils d’automatisation : Ansible, Git . Sécurité & Gouvernance Participation aux projets sécurité, audit et gestion des accès . Contribution aux bonnes pratiques de conformité et de sécurité des données. Environnement technique SGBD : PostgreSQL, MySQL, MariaDB Haute disponibilité : Patroni, MySQL Group Replication Automatisation : Ansible, Git Cloud & conteneurs : OpenStack, OpenShift, Docker Systèmes : Linux (RHEL, Ubuntu, CentOS, Oracle Linux, AIX) Sauvegardes : Commvault, Veeam, DataDomain (ou équivalents) Virtualisation : VMware Compétences techniques Impératives : PostgreSQL – Expert MySQL – Expert Importantes : MariaDB – Confirmé Souhaitables : Cloud Automatisation (Ansible, Git) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Freelance
CDI

Offre d'emploi
Développeur backend Java Core Sénior - Multithreading calculs distribués (7 ans et plus)

Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
CDI

Offre d'emploi
Cloud Data Engineer

Publiée le
Big Data
Cloud

60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Freelance

Mission freelance
Customer Data Modeler

Publiée le
Big Data

6 mois
France
Télétravail 100%
Dans le cadre de la phase 2 du projet , nous recherchons un expert pour le modèle de données client . Responsabilités : Concevoir et documenter les modèles de données Customer Master Data . Définir les processus de gouvernance, rôles et règles de qualité. Collaborer avec les équipes métier et IT pour garantir l’alignement. Compétences requises : Expertise solide en Master Data Management , particulièrement sur le domaine Customer (modélisation, gouvernance, qualité). Bonne compréhension des processus liés au domaine client. Connaissance de SAP S/4HANA et SAP MDG (un plus).
Freelance

Mission freelance
Data Engineer Hadoop – Secteur Assurance

Publiée le
Big Data
Hadoop
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Freelance

Mission freelance
CONSULTANT AMOA COLLECTE  SOLVENCY 2-  DELIVERY PRUDENTIEL

Publiée le
Big Data
SAS
SQL

18 mois
100-500 €
Chartres, Centre-Val de Loire
Télétravail partiel
CONTEXTE : Dans le cadre du projet Solvency 2, dans l'équipe DELIVERY PRUDENTIEL, un besoin de renfort est nécessaire pour pouvoir répondre aux exigences réglementaires européennes. MISSIONS : assurer la collecte de données nécessaires au Projet Solva2 vis à vis des différents fournisseurs (SI de gestion / SI DATA) - Rédaction de spécifications générales afin d'implémenter les données demandées dans le cadre de la règlementation "Solvency 2" - Cadrage des validations - Exécution de cas de test pour valider les évolutions - Développer une proximité avec les métiers fournisseurs et consommateurs pour optimiser les travaux Solvabilité 2 Technologies requises : - Maîtrise du langage de requêtage SQL (Entrepôt de données avec base de données relationnelle Oracle) - Si possible une connaissance du logiciel SAS Guide
Freelance
CDI
CDD

Offre d'emploi
Administrateur Bases de Données SQL Server – Confirmé (H/F)

Publiée le
Microsoft SQL Server
Microsoft Windows
Powershell

1 an
Paris, France
Contexte Le département Bases de Données Distribuées de la Direction Infrastructure renforce ses équipes et recherche un Ingénieur DevOps / Administrateur de bases de données SQL Server confirmé pour intervenir sur des environnements critiques de production. La mission s’inscrit dans un contexte infrastructure, haute disponibilité et automatisation , avec des exigences élevées en matière de performance, sécurité et continuité de service . Objectif de la mission Administrer, exploiter et faire évoluer les environnements SQL Server , tout en contribuant à l’automatisation et à l’industrialisation des pratiques via des outils DevOps. Missions principalesAdministration & exploitation SQL Server Installer, configurer et maintenir les moteurs SQL Server et les clusters Windows . Administrer les environnements Always On (haute disponibilité). Gérer l’exploitation quotidienne : Support utilisateurs Gestion des incidents Suivi du PCA / PRA Optimiser les performances SQL Server . Gérer la sécurité , les accès et les licences . Automatisation & DevOps Développer et maintenir des scripts d’automatisation en PowerShell , DSC et .NET . Contribuer au développement et à l’utilisation d’ API . Utiliser et intégrer les outils DevOps : Git, Artifactory, Jenkins, Ansible . Exploitation & supervision Mettre en œuvre et exploiter les sauvegardes et restaurations . Participer à la supervision des plateformes (outils type Zabbix ). Assurer une astreinte régulière (environ 1 semaine toutes les 7 semaines). Qualité & amélioration continue Participer aux études d’évolution des infrastructures. Proposer des axes d’amélioration des performances et de la fiabilité . Assurer une veille technologique continue. Environnement technique SGBD : SQL Server Haute disponibilité : Always On Systèmes : Windows, clusters Windows Automatisation / DevOps : PowerShell, DSC, .NET, Git, Jenkins, Artifactory, Ansible Virtualisation : VMware Supervision : Zabbix (ou équivalent) Composants complémentaires : SSAS Compétences techniques Impératives : SQL Server – Expert Always On – Expert Systèmes Windows – Confirmé PowerShell – Expert Appréciées : DSC / .NET Développement d’API Outils DevOps SSAS VMware Supervision (Zabbix ou équivalent) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Freelance
CDI

Offre d'emploi
Data Product Manager

Publiée le
Data management

1 an
40k-45k €
270-540 €
Paris, France
Télétravail partiel
Mission Overview La mission au sein du Data office a pour objectif d'accompagner la transformation autour de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur. Construction d'un Kit/book de déploiement des data products auprès des producteurs et consommateurs (méthodologie, documentation …) Animation de meetings de vulgarisation (Support & CR) Préparation et organisation d'un Meet Up d'acculturation (jalon mai 2026)
Offre premium
Freelance

Mission freelance
Référent Data

Publiée le
Architecture
Data governance

3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Contexte Le Système d’Information regroupe près de 70 applications couvrant la recherche d’itinéraires, l’information voyageurs, la vente (digitale & physique), la billettique, les contrôles, le reporting et les interconnexions avec les partenaires de transport. Ce système est exploité dans un environnement complexe multi-acteurs avec des obligations contractuelles fortes vis-à-vis des instances publics. La gouvernance des données devient un enjeu clé pour garantir cohérence, sécurité, qualité de service et conformité réglementaire. 2. Rôle du Référent Data Ce poste opérationnel vise à structurer et piloter la stratégie Data , en mode RUN, en complément des développements BUILD. Il s’agit de définir les règles d’utilisation des données, d’assurer leur conformité, leur disponibilité, leur cohérence fonctionnelle, et de produire l’ensemble des reportings exigés. 3. Missions principales A. Gouvernance & Stratégie Data Définir une démarche Data Driven pour le RUN. Cadrer les besoins Data : brutes, personnelles, reporting, listings opérationnels. Être l’interlocuteur privilégié de la Région pour l’expression et la priorisation des besoins. Proposer les évolutions contractuelles nécessaires. Définir les guidelines Data : consommation, protection, nommage, droits d’accès. Évaluer l’évolution de l’architecture Data (MDM, outils, flux, organisation). B. Analyse et cadrage Réaliser le cadrage global : périmètre, responsabilités, planning, livrables. Lister et qualifier les cas d’usage Data. Construire la cartographie des données : thèmes, typologies métiers, systèmes, structures détaillées. Définir les processus de gestion de la donnée : cycle de vie, responsabilités, sécurité. Recenser les exigences légales et contractuelles (RGPD, archivage, purge, sécurité). C. Pilotage & Production Produire les documents de gouvernance Data : dictionnaires, cartographies, politiques. Établir les reportings contractuels et non contractuels, dont : Financier : prévisionnel, réalisé, écarts, dépenses par phase. Recettes : ventes par canal, recettes par gamme, reversements, régularisations. Maintenance : interventions, disponibilité, stock pièces, préventif/curatif. SI : disponibilité plateformes, temps de réponse, SLA, MTBF, intégration des données. Usagers : tickets CRC, satisfaction, fréquentation, usage titres. Distribution : CA & commissions par canal (Région et partenaires). D. Coordination Faire le lien entre : métiers, DSI, architectes SIBR, sous-traitants, et instances publics. Conduire et animer les ateliers Data. Garantir la cohérence et la fiabilité des flux data inter-outils et inter-équipes. E. Études de faisabilité pour nouveaux besoins Aider la Région à exprimer un besoin (et non une solution). Étudier impacts contractuels, sécurité, architecture, outillage et coûts. Proposer des arbitrages et une priorisation. 4. Compétences requises Techniques Gouvernance data (MDM, métadonnées, data lineage, qualité, sécurité). Connaissance des architectures data modernes (Cloud, API, flux). Capacité à structurer un dictionnaire de données et une cartographie. Compréhension des enjeux réglementaires (RGPD). Expérience des environnements complexes multi-SI. Fonctionnelles & personnelles Forte capacité de synthèse, communication et pédagogie. Orientation opérationnelle (« doer »). Capacité à anticiper les risques et sécuriser les engagements. Aisance dans les échanges institutionnels et le pilotage multi-parties. 5. Livrables attendus Note de cadrage Data Cartographie des sources et flux Dictionnaire des données Politique de cycle de vie, archivage et sécurité Plan de contrôle qualité Reporting financier, opérationnel, SI, marketing, maintenance, distribution Tableaux de bord contractuels Études de faisabilité détaillées pour les nouveaux besoins 6. Profil recherché +5 ans d’expérience en gouvernance Data ou architecture de données. Bac+5 en informatique ou équivalent. Expérience dans un contexte de création ou transformation d’un SI. Profil pragmatique, opérationnel et autonome. 7. Conditions de mission Lieu : Paris ou Marseille Déplacements ponctuels sur sites Durée : 6 à 12 mois minimum Temps plein
Freelance
CDI

Offre d'emploi
Data Engineer – Elastic Stack Expert

Publiée le
Apache Kafka
ELK
Intégration

1 an
Île-de-France, France
Télétravail partiel
Nous recherchons pour notre client Grand-Compte un Ingénieur Data , Expert ELK pour: accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données L’objectif est de passer d’une logique très outillée/infrastructure à une approche orientée usages data & métiers . Refonte complète de l’offre logs existante (tous types de logs : applicatifs, systèmes, réseau, sécurité) Forte volumétrie et enjeux de standardisation, qualité et exploitabilité de la donnée Missions Concevoir et mettre en œuvre les chaînes de collecte et d’ingestion des logs Implémenter et industrialiser les cas d’usage observabilité pour les équipes opérationnelles Accompagner les équipes métiers et techniques dans l’exploitation des logs Développer des dashboards et visualisations avancées (Kibana, évolution possible vers Grafana) Intervenir sur l’ensemble du cycle data : collecte → transformation → stockage → restitution Participer à l’évolution de l’offre groupe et à la structuration des bonnes pratiques Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source)
CDI

Offre d'emploi
Data Analyst (H/F)

Publiée le
Data analysis
Data science

30k-65k €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Votre mission En tant que Data Analyst (H/F) , vous jouerez un rôle clé dans la valorisation des données au service du métier. Vous serez responsable de l’analyse de grands volumes de données, de la production d’analyses et de reportings à forte valeur ajoutée, et de l’accompagnement des équipes métier dans l’optimisation de l’utilisation de leurs données, en lien avec les objectifs stratégiques de l’organisation. Vos responsabilités seront : Analyser de grands volumes de données afin de comprendre les enjeux métier et les besoins exprimés par les parties prenantes Traduire les besoins business en analyses de données pertinentes et exploitables Contribuer à la sélection, à l’implémentation et à l’amélioration des outils d’analyse et de reporting Produire des analyses stratégiques, des tableaux de bord et des reportings à destination du business Identifier des tendances, des anomalies et des opportunités à partir des données Présenter et vulgariser les résultats d’analyse auprès des parties prenantes métier Collaborer avec les équipes IT, data et métier afin d’assurer la qualité, la cohérence et la fiabilité des données Aider les équipes métier à mieux exploiter et optimiser l’usage de leurs données S’adapter à l’environnement spécifique et aux enjeux de nos clients
Freelance
CDI
CDD

Offre d'emploi
Expert Python / Innovation & Services Cloud

Publiée le
Architecture
CRM
DevSecOps

1 an
Paris, France
Contexte Dans le cadre d’une transformation digitale d’envergure internationale , la mission s’inscrit au sein d’un groupe leader de l’assurance présent dans plus de 80 pays. L’objectif est de fournir des services IT standardisés à l’ensemble des entités du groupe, en améliorant l’excellence opérationnelle, l’alignement du portefeuille applicatif et l’efficacité des coûts. La mission contribue à l’évolution d’une plateforme SaaS de gestion de contenus (Content Management eXperience – CMX) , conçue comme une solution clé en main, exposant des API REST et une interface web, conforme aux standards du groupe en matière d’ architecture, sécurité, conformité et résilience . L’enjeu principal est d’ enrichir la plateforme par de nouvelles fonctionnalités, des services innovants (notamment basés sur l’IA générative) et d’ accélérer les migrations Cloud . Objectif de la mission Maintenir, faire évoluer et enrichir les outils Python cœur de plateforme , tout en concevant de nouveaux services à forte valeur ajoutée (IA, sémantique, cloud-native), en lien étroit avec les équipes métiers et techniques. Missions principales Développement & évolution des outils cœur Maintenir, auditer, stabiliser et refactoriser les outils Python existants . Garantir un code propre, conforme PEP8 , testé et documenté. Harmoniser et industrialiser de nouveaux modules (ex. traduction de règles métiers en workflows techniques automatisés, stratégies de gestion et d’archivage de fichiers). Innovation & prototypage Concevoir et piloter des sprints d’innovation rapides . Prototyper de nouveaux services basés sur des cas d’usage concrets : IA générative Tagging automatique Recherche sémantique Contrôle qualité des contenus Challenger les besoins métiers et concevoir des proofs of concept (POC) . Évaluer la faisabilité technique et proposer des roadmaps de mise en production . Collaboration & bonnes pratiques Travailler étroitement avec les métiers, product managers et ingénieurs . Réaliser des revues de code et partager les bonnes pratiques (clean code, TDD, CI/CD). Accompagner et mentorer les équipes sur les standards de développement. DevOps & Cloud Contribuer aux pipelines CI/CD . Participer aux déploiements automatisés et à l’ Infrastructure as Code (Terraform, CloudFormation). Environnement technique Langages & développement Python (avancé) Git, Bash Java, JavaScript (React / Vue) Data, IA & sémantique Pandas, regex Parsing JSON / XML Prompt engineering NoSQL (MongoDB, MarkLogic) RDF / SPARQL, graphes Cloud & DevOps AWS (S3, Lambda) CI/CD : Jenkins, GitLab CI Terraform, CloudFormation OpenShift, Kubernetes Artifactory, OpenLDAP Qualité & tests Pytest Frameworks BDD (Behave, Cucumber) Selenium Sécurité & qualité de code : SonarQube, Snyk
Freelance

Mission freelance
Program Manager

Publiée le
Big Data
Cloud
Data management

1 an
Lille, Hauts-de-France
Télétravail partiel
Compétences techniques marketing - Expert - Impératif Product management - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Responsabilités Principales 1. Stratégie de Contenu et d'Audience Identification et Cartographie des Personas : En collaboration avec le Product et l’UX, aider à définir et documenter les différents clients/utilisateurs de la plateforme (Développeurs, Product Owners, Data Engineer, Leaders PTF et BU, etc.) et leurs besoins spécifiques en information (y compris en situation de crise). Audit et Structuration du Contenu Existant : Analyser les supports actuels et recommander une architecture de contenu logique et unifiée pour améliorer l'accessibilité et la clarté. Définition des Messages Clés : Traduire les fonctionnalités et les avantages de la plateforme en messages clairs, orientés bénéfices pour chaque persona. 2. Création et Gestion du Contenu Produit Production de Contenu Ciblé : Élaborer des supports structurés et didactiques pour l'adoption et la compréhension des produits et services de la plateforme. Cela inclut, sans s'y limiter : Fiches Produit/Service détaillées (pour les équipes Product Management). Guides d'Utilisation et tutoriels (pour les utilisateurs). Notes de version ( Release Notes ) et FAQ claires. Contenu pour l'onboarding des nouveaux services. Optimisation des Canaux de Contenu : Gérer et optimiser les plateformes et outils de partage de contenu pour s'assurer que le contenu arrive aux bonnes personnes au bon moment. Mesure de l'Impact : Suivre les indicateurs clés (fréquence de consultation, feedback utilisateur, taux d'adoption) pour évaluer l'efficacité des contenus et itérer. 3. Contribution à l'Amélioration de l'Expérience Utilisateur Boucle de Feedback : Mettre en place des mécanismes pour recueillir le feedback des personas sur le contenu et les services afin d'alimenter les équipes Product Management. Aide à la l’animation du collectif de nos utilisateurs. Appui aux Événements d'Engagement : Aider à structurer les sessions d'information (ateliers, showcases, démos) en s'assurant que le contenu présenté est pertinent et adapté à l'audience. 4. Alignement Coordination avec la Communication Groupe : S'assurer que le contenu produit est en accord avec la charte éditoriale et graphique du groupe (utilisation des logos, des templates, etc.) tout en restant focalisé sur le contenu technique et l'adoption produit de la plateforme. Compétences Requises : Compréhension Technique et Pédagogie : Capacité avérée à décortiquer des sujets complexes (Data, Cloud, API, développement) et à les simplifier. Capacité d'Analyse et de Synthétisation : Aisance pour identifier les besoins d'information d'une audience (persona) et structurer un contenu en conséquence. Maîtrise de la Rédaction et des Outils de Contenu : Excellent niveau rédactionnel (précision, concision). Connaissance des outils de documentation et de gestion de contenu.
Freelance

Mission freelance
Cloud, Network and Datacenter Solution Consultant(H/F)

Publiée le
Azure
Big Data

3 mois
240-650 €
Puteaux, Île-de-France
Anglais courant obligatoire Fournir une expertise avancée sur les solutions de datacenters directs, hybrides et cloud, ainsi que sur les infrastructures associées, grâce à un support d’ingénierie solide et une direction technique claire. Le rôle garantit que les plateformes technologiques respectent les exigences réglementaires, assurent la sécurité des données, optimisent l’efficacité opérationnelle et permettent une innovation évolutive et des services fiables pour soutenir l’entreprise et ses clients. C’est une excellente opportunité de travailler sur des besoins locaux tout en faisant partie d’une équipe mondiale, au service de l’ensemble de l’organisation. Nous recherchons une personne disposant de solides compétences techniques, organisée, rigoureuse et motivée par un environnement exigeant. Le rôle Évaluer l’infrastructure informatique existante et recommander des stratégies cloud et datacenter conformes aux réglementations du secteur financier (ex. : FCA, PRA, GDPR). Concevoir, architecturer et mettre en œuvre des solutions alignées sur la stratégie technologique régionale tout en répondant aux besoins métiers. Collaborer avec l’équipe de direction sur les feuilles de route et les initiatives stratégiques. Conseiller sur l’optimisation des coûts, la gestion des risques et la résilience des systèmes financiers critiques. Architecturer des solutions sécurisées et évolutives sur les plateformes cloud publiques (Azure) et au sein des datacenters on-premise. Collaborer avec les équipes transverses pour gérer dépendances, priorités, intégrations et impacts du changement sur les personnes, processus et technologies. Travailler avec les équipes techniques (Architectes, Plateformes, Cyber, Cloud Ops, etc.) pour créer des solutions équilibrant besoins métiers et exigences de cybersécurité, en conformité avec les standards et l’appétence au risque de l’entreprise. Mettre en œuvre des stratégies de cloud hybride pour supporter les charges sensibles et les obligations réglementaires. Diriger les migrations d’applications centrales vers les environnements cloud. Contribuer à la création de documents de processus, guides, procédures, outils et modèles favorisant l’efficacité et l’adoption du cloud. Veiller au respect des cadres de conformité financière (ISO 27001, PCI DSS, SOC 2). Mettre en place des contrôles de sécurité avancés, le chiffrement et la gestion des identités pour les données financières sensibles. Supporter les audits et fournir la documentation nécessaire pour les rapports réglementaires. Surveiller les performances et la disponibilité des systèmes critiques. Optimiser l’infrastructure pour garantir haute disponibilité, reprise après sinistre et continuité d’activité. Collaborer avec les équipes risques, conformité et sécurité pour aligner la technologie sur les standards de gouvernance. Compétences requises Diplôme universitaire, idéalement dans un domaine lié au business, à l’IT ou à la sécurité. Expérience avérée en architecture cloud et solutions datacenter dans le secteur financier. Expertise en Microsoft Azure, Hyper-V et forte connaissance des modèles hybrides. Compréhension des réglementations et cadres de conformité financière. Solides connaissances en réseaux, virtualisation et stockage. Certifications telles que Azure Solutions Architect Expert ou équivalent. Minimum 10 ans d’expérience dans les domaines mentionnés. Leadership avéré. Excellentes capacités d’analyse et souci du détail. Qualités de communication exceptionnelles, à l’écrit comme à l’oral (français et anglais indispensables). Capacité à communiquer clairement auprès de différents types d’audiences. Expérience en conseil technologique. Résilience et adaptabilité. Excellentes compétences d’écoute. Compétences souhaitées Expérience avec les systèmes de transaction financière et les traitements de données volumineux. Très bonne maîtrise de l’écosystème technologique Microsoft Azure. Expérience des méthodologies d’architecture. Connaissances en sécurité applicative Azure et déploiements associés. Familiarité avec le DevOps et l’Infrastructure as Code. Standardisation des bonnes pratiques, processus et procédures de sécurité Azure. Capacité à prioriser plusieurs demandes et à communiquer clairement ces priorités aux équipes et au management. Capacité à gérer les demandes complexes, instaurer des relations de confiance sur le long terme avec les parties prenantes internes et gérer les attentes métier.
2165 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous