L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 710 résultats.
Mission freelance
Développeur Big Data
Codezys
Publiée le
JIRA
Linux
Python
24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Mission freelance
Blockchain IA Devops
EXteam
Publiée le
Blockchain
IA
3 ans
500-600 €
Île-de-France, France
Au sein de l’équipe, tu seras notamment amené(e) à : Assurer le support et le maintien en conditions opérationnelles des applications Diagnostiquer et résoudre les incidents de production Travailler en étroite collaboration avec les équipes de développement et d’infrastructure Contribuer à l’amélioration continue des processus CI/CD Participer à l’automatisation et à l’optimisation des déploiements Prendre part aux astreintes 🧰 Environnement technique Kubernetes (obligatoire – toutes les applications tournent dessus) Outils DevOps et chaînes d’intégration/déploiement continus Argo CD Bitbucket JFrog Artifactory Sujets liés aux LLM et aux plateformes IA Écosystèmes blockchain 👤 Profil recherché Minimum 5 ans d’expérience sur des environnements IA / blockchain Solide culture DevOps Très bonne maîtrise de Kubernetes indispensable À l’aise avec les environnements de production critiques Esprit d’équipe, rigueur et sens du service
Mission freelance
ingénieur plateforme api / devops
Signe +
Publiée le
Gitlab
12 mois
350-480 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
dans le cadre d’une transformation digitale industrielle et des systèmes d’information, une roadmap stratégique a été définie incluant la mise en place d’une plateforme de gestion des API à l’échelle groupe. la mission s’inscrit au sein d’une équipe plateforme chargée de fournir aux équipes SI les outils, méthodes, processus et standards nécessaires à leurs activités, ainsi que le support et le conseil associés, dans un environnement international. missions principales intégrer une squad dédiée à l’adoption des solutions Apigee et Gravitee accompagner les équipes dans le déploiement et la gestion de leurs API diffuser les bonnes pratiques liées à l’API management et au devops assurer le support et l’exploitation de la plateforme sur les différents environnements automatiser les déploiements via des pipelines CI/CD mettre en place et maintenir des tests automatisés intervenir à la fois sur des activités build et run dans une logique « you build it you run it » contribuer à l’observabilité et au monitoring des services environnement technique administration systèmes unix / linux git / gitlab CI/CD docker kubernetes notions réseau observabilité : open telemetry, grafana livrables attendus mise en place et maintien d’un socle technique robuste industrialisation des déploiements et des pratiques devops documentation des processus et standards amélioration continue de la plateforme et de son exploitation profil recherché curiosité technique rigueur et sens de l’organisation orientation service et accompagnement des équipes internes capacité d’adaptation dans un contexte international anglais professionnel (lu, écrit, parlé) compétences clés git / gitlab CI/CD kubernetes docker administration linux API management (apigee, gravitee apprécié)
Mission freelance
Référent Technique – Dataiku & Braincube
Streamlink
Publiée le
AI
API
AWS Cloud
6 mois
400-600 €
Malakoff, Île-de-France
Langues : Français, Anglais (obligatoire – échanges avec l’Inde) Séniorité : Senior (environnements data/ML/Cloud) Plateforme Dataiku en environnement hybride : Cloud AWS + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Le client responsable du service, de la sécurité et du pilotage Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Standards cybersécurité de client Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis Prestation Attendue : Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes
Offre d'emploi
Ingénieur de production H/F
HN SERVICES
Publiée le
Control-M
Jenkins
Linux
42k-46k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Ingénieur de Production confirmé afin de participer à l’industrialisation, l’exploitation et la supervision des applications du SI interne chez l’un de nos clients situé à Aix-en-Provence . Description du poste : Au sein d’une équipe de production applicative, vous intervenez sur un environnement critique combinant des activités de BUILD et de RUN. Vous contribuez à l’intégration, la fiabilité et la performance des applications métiers dans un contexte technique riche et exigeant. Dans ce cadre, vos principales missions seront : Activités BUILD : Participer à la conception et à la mise en œuvre des chaînes d’industrialisation et de déploiement applicatif. Intégrer de nouvelles applications dans le SI interne, du cadrage technique jusqu’à la mise en production. Mettre en place et configurer les outils de déploiement et d’ordonnancement. Définir et maintenir les standards d’exploitation, procédures et documentation associées. Collaborer étroitement avec les équipes développement, architecture et sécurité pour garantir l’exploitabilité des solutions. Activités RUN / MCO : Assurer le bon fonctionnement des applications et des infrastructures associées. Gérer les incidents de production et assurer le support N2/N3 (diagnostic, résolution, coordination). Superviser la performance, la disponibilité et la capacité des plateformes. Mettre en œuvre des actions de fiabilisation, d’automatisation et d’optimisation des environnements. Participer aux mises en production et aux interventions planifiées hors heures ouvrées. Vous évoluerez dans un environnement technique comprenant notamment Windows Server, Linux, Openshift, Mysql, SQL Server, Oracle, Jenkins, Bitbucket, XLDeploy, Zabbix, VTOM, Control-M .
Offre d'emploi
Senior Développeur C# / .NET – PIM InRiver – AWS (H/F)
SMARTPOINT
Publiée le
Akeneo
AWS Cloud
C#
1 an
55k-70k €
400-580 €
Île-de-France, France
Senior Développeur C# / .NET – PIM InRiver – AWS 📍 Localisation : France / Remote possible⏳ Type : Mission longue / Freelance ou Portage🧑💻 Séniorité : Senior / Expert🎯 Contexte de la mission Dans le cadre du renforcement de son équipe PIM, notre client recherche un Senior Développeur C# / .NET pour intervenir sur une plateforme Product Information Management (InRiver). Vous intégrerez une équipe transverse et participerez activement à l’évolution des outils, des flux d’intégration et du modèle de données produit, dans un environnement cloud AWS. Vos responsabilités Concevoir, développer et maintenir des extensions InRiver en C# / .NET Développer et maintenir des API et des flux d’intégration avec les systèmes internes et partenaires Contribuer à l’évolution du modèle de données PIM en lien avec les équipes métiers Garantir la qualité, la cohérence et la fiabilité des données produit Assurer la maintenance applicative : bug fixing, évolutions, support Produire et maintenir la documentation technique selon les standards du groupe Collaborer avec les équipes produit, architecture, sécurité, QA et exploitation Participer à la gestion des incidents et au support de niveau
Offre d'emploi
Ingénieur DevOps
NEWRAMA
Publiée le
Artifactory
DevOps
Gitlab
Guyancourt, Île-de-France
Le titulaire du poste assure la gestion complète des changements et des requêtes via l'outil ServiceNow, de l'évaluation des impacts jusqu'à la clôture des dossiers. Il est responsable de la résolution des incidents sur son périmètre, de la coordination des compétences techniques pour restaurer le service et de la communication client dans le respect des délais contractuels. Dans le cadre des projets, il intervient sur l'ensemble des environnements, de l'intégration à la production, tout en étant garant des normes d'exploitabilité. La mission implique également une gestion proactive des problèmes pour identifier les causes racines et proposer des solutions pérennes. Enfin, la rédaction de documents d'exploitation, de procédures techniques et de rapports post-mortem constitue une part essentielle de l'activité.
Offre d'emploi
Consultant·e / Coach Python & API – Accompagnement d'équipes technique
ANAFI CONSULTING
Publiée le
API
Azure DevOps
CI/CD
2 ans
45k-69k €
450-670 €
Paris, France
Qui sommes-nous ? Fondé en 2023 par Florian Gironde et Maxime Bucaille , Anafi Consulting est un cabinet de conseil basé à Paris. Notre mission : rapprocher expertise technologique et valeurs humaines , en alliant innovation, excellence logicielle et inclusion. Nous accompagnons nos clients grands comptes dans leurs transformations sur plusieurs secteurs stratégiques : Finance : conformité réglementaire, gestion des risques, reporting. Télécommunications : infrastructures réseau, performance, sécurité. Technologies de l’information : développement applicatif, data, cloud, DevOps. Nucléaire : accompagnement de projets complexes et sécurisés. Nous recherchons un(e) Consultant(e) / Coach Python & API pour accompagner des équipes dans le développement et l’industrialisation d’APIs d’infrastructure. Votre mission sera à la fois technique et humaine : concevoir des solutions robustes tout en accompagnant les équipes dans l’adoption des meilleures pratiques de développement. À ce titre, vous êtes un(e) excellent(e) communicant(e) et pédagogue , capable de vulgariser des concepts techniques complexes et de diffuser efficacement les bonnes pratiques au sein d’un grand groupe. Plus qu’un(e) expert(e) technique, vous êtes un(e) facilitateur(trice) , capable d’animer et de faire grandir une communauté aux niveaux de maturité variés. Vos missions principales Réaliser des code reviews et garantir la qualité du code Pratiquer le pair programming pour accompagner les équipes Concevoir, développer et déployer des APIs d’infrastructure (Python / FastAPI) Piloter et suivre la roadmap d’acculturation technique Intégrer et orchestrer les outils DevOps (Jenkins, Bitbucket ou équivalents) Mettre en place et maintenir des tests unitaires et stratégies de test Mettre en œuvre et piloter la qualité du code via des outils d’analyse statique (SonarQube ou équivalents) Former, coacher et accompagner la conduite du changement Promouvoir les pratiques CI/CD, qualité logicielle et DevSecOps
Mission freelance
Développeur Java React (H/F)
Insitoo Freelances
Publiée le
Ansible
IBM Maximo
Java
2 ans
400-460 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Java React (H/F) à Lyon, France. Contexte : Le projet vise à référencer l'ensemble des équipements ainsi que leurs caractéristiques physiques. Ce système d’information permet également le suivi logistique de leur cycle de vie. Ce rôle de référentiel implique une liaison avec de nombreux SI qui informent le projet des créations ou changements de situation des équipements, mais aussi de rendre des services aux autres SI. L'application Java 11 Spring Boot, contenant les principales règles métiers, s'interface avec le progiciel IBM Maximo qui propose une IHM et des processus de gestion éprouvés. Une application stable en constante croissance. Avec un parc matériel de plus en plus grand, de nouveaux enjeux autour de nouveaux usages, de la gestion des retours SAV et de l’ajout de nouvelles typologies matériels s'ouvre avec la construction de nouveaux flux et services pour fluidifier les échanges et améliorer le suivi. Une autre application permettant l'échange de fichiers est également développée et administrée par le projet. L'équipe est composée d'environ 30 personnes, organisée en ScrumBan. Les missions attendues par le Développeur Java React (H/F) : Activité principale Participer à la conception ainsi qu'à la mise en œuvre des développements de l’application back à partir des spécifications fonctionnelles Développer en respectant les bonnes pratiques définies, de manière robuste et performante Participer à la correction des anomalies fonctionnelles et/ou techniques Communiquer et remonter les alertes ou points de blocages aux compétences concernées Participer aux différentes réunions/ateliers de l'équipe Challenger le besoin vis-à-vis des bonnes pratiques et contraintes techniques Mettre en place des tests unitaires, d’intégration et de non régression Activité secondaire Rédaction et actualisation de documents techniques Support aux équipes fonctionnelles Réalisation de tests croisés Stack technique de l'équipe : React, Java 17, Springboot, Springbatch, Kafka, Oracle, Ansible, Jenkins, Terraform, Gatling, IBM Maximo, Camel, Linux
Offre d'emploi
Data Scientist Computer Vision
Codezys
Publiée le
Computer vision
Deep Learning
Machine Learning
12 mois
Grand Est, France
Objet : Appel d'offres pour un(e) Data Scientist spécialisé(e) en Computer Vision - Alsace Notre entreprise, leader dans l'accompagnement à l'aménagement intérieur, souhaite renforcer ses capacités en intégrant des solutions basées sur l'intelligence artificielle et la vision par ordinateur. Afin de soutenir notre croissance, nous lançons un appel d'offres pour le recrutement d’un(e) Data Scientist spécialisé(e) en Computer Vision, ayant une expérience minimale de 2 ans. Contexte de la mission : Nous exploitons la donnée et les technologies d’intelligence artificielle pour révolutionner la manière dont nos équipes commerciales identifient les besoins clients, ainsi que la représentation et la configuration en temps réel de scènes d’ameublement. La personne recrutée jouera un rôle clé dans le développement et la déploiement de modèles de vision par ordinateur destinés à analyser des images et en extraire des insights opérationnels pertinents. Localisation : Alsace Vos missions principales : Développement de modèles de Computer Vision : Concevoir et entraîner des modèles capables d’identifier les objets, leurs fonctions et contenus à partir d’images. Support aux équipes commerciales : Accompagner les équipes dans l’exploitation des outils d’analyse visuelle, y compris la classification et l’interprétation des images. Déploiement et maintenance : Implémenter et assurer la maintenance des solutions de traitement d’images en production, en utilisant notamment Google Cloud Platform (GCP) et Vertex AI. Conception de pipelines : Développer des pipelines et des algorithmes permettant la visualisation en temps réel des scènes d’ameublement, facilitant ainsi la prise de décisions commerciales. Collaboration métier : Travailler étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques concrètes, assurer leur déploiement efficace et leur adoption opérationnelle. Veille technologique : Maintenir une expertise à jour en matière de vision par ordinateur afin d’intégrer les dernières innovations dans nos solutions.
Mission freelance
Data Analyst (1 ETP)
Signe +
Publiée le
Business Analyst
8 mois
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique ---- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique --- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique
Offre d'emploi
Consultant SAP Data Migration (H/F)
Scalesys
Publiée le
1 mois
55k-75k €
700-1 200 €
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Offre d'emploi
Data Engineer
Codezys
Publiée le
Azure DevOps Services
Python
24 mois
47 260-53 560 €
450-500 €
Saint-Denis, Île-de-France
Poste : Data Engineer Nombre de postes : 1 Expérience : > 7 ans TJM d’achat max : 500€ Localisation : Île-de-France Deadline réponse : 10/02/2026 Démarrage : 09/03/2026, mission longue durée Type de contrat : Salarié ou Freelance 1) Descriptif de la mission La mission se déroule au sein d’une équipe dédiée au développement d’outils, de méthodes et d’industrialisation pour un acteur majeur du secteur ferroviaire. L’objectif est de soutenir un périmètre spécifique concernant un outil d’analyse de la régularité des circulations, basé sur un ensemble de flux issus du système d’information de l’opérateur. Ce périmètre comprend l’accès à des données consolidées et prêtes à l’analyse, permettant aux équipes métier d’utiliser des données fiables. La mission concerne notamment : Assurer la continuité d’alimentation des flux de données pour l’outil et l’équipe technique, Adapter, développer, corriger et déployer des processus ETL lors de migrations de données, Intégrer de nouveaux flux de données en garantissant l’absence de régression, Maintenir ces flux en production et garantir leur disponibilité, Définir des formats d’échange pour alimenter l’outil, Mettre en place des indicateurs de supervision, Accompagner l’équipe dans l’exploitation des nouveaux flux. 2) Livrables attendus Le cahier des charges précise une liste de livrables avec des délais indicatifs : Recette de l’API : Document de validation, comparaison entre anciennes et nouvelles données issues du nouveau format. Déploiement : Paquets SSIS / SQL déployés, paramétrage automatique, documentation d’intégration. Processus de rattrapage simple : Documentation, industrialisation, déploiement, artefacts dans un environnement de gestion de versions. Documentation des nouvelles données : Note explicative sur la nature et l’utilisation des nouvelles données. Format d’échange : Documentation complète du schéma d’échange de données. Déploiement des flux : Projets SSIS / SQL, documentation du chargement, déploiement en environnement de production. Processus de rattrapage complexe : Développement, déploiement et documentation complète. KPI BI : Mise en place d’un tableau de bord avec suivi de l’intégration, des erreurs et de la disponibilité des flux en production.
Offre d'emploi
Data Engineer Cloud H/F
FED SAS
Publiée le
55k-65k €
France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
Mission freelance
Change Manager Data & Cloud – Secteur Assurance (H/F)
CAPEST conseils
Publiée le
Business Object
Conduite du changement
Dataiku
3 mois
Paris, France
Dans le cadre d’un programme de transformation data d’envergure chez un acteur majeur du secteur de l’assurance, nous recherchons un Change Manager Data & Cloud afin d’accompagner les équipes métiers dans l’adoption des nouveaux usages liés à la donnée. Le programme vise à moderniser l’écosystème data, notamment via la migration d’applications vers des environnements cloud et SaaS , et à favoriser une culture data-driven au sein des différentes directions métiers. Vous interviendrez à l’interface entre les équipes data, IT et métiers , avec un rôle clé de vulgarisation et d’accompagnement au changement. Vos missionsAccompagnement à la transformation data Définir et déployer la stratégie de conduite du changement autour des nouveaux outils et usages data. Identifier les impacts organisationnels et métiers liés aux migrations vers des solutions cloud et SaaS . Mettre en place des plans d’adoption pour favoriser l’appropriation des solutions data. Acculturation et vulgarisation de la data Traduire les sujets techniques en messages accessibles pour les métiers . Promouvoir la culture data et les usages analytiques dans les différentes directions. Concevoir et animer des ateliers, démonstrations et formations utilisateurs . Produire des supports de communication et de pédagogie (guides, newsletters, webinars). Adoption des outils analytiques Accompagner les métiers dans l’utilisation des solutions data et BI : Business Objects Tableau Dataiku Objectif : démocratiser l’accès à la donnée et faciliter l’autonomie des métiers dans l’analyse. Coordination avec les équipes techniques Assurer le lien entre les équipes data, IT et les utilisateurs métiers . Contribuer à l’amélioration de l’expérience utilisateur autour des outils data. Participer à la structuration des bonnes pratiques et de la gouvernance data . Profil recherchéExpérience 5 ans ou plus d’expérience en conduite du changement, transformation digitale ou data . Expérience dans des environnements BI, analytics ou data platforms . Une connaissance du secteur assurance ou financier est appréciée. Compétences Capacité à vulgariser des sujets techniques complexes . Bonne compréhension des environnements cloud, SaaS et data analytics . Expérience avec des outils de data visualisation ou BI . Excellentes capacités de communication, animation d’ateliers et gestion des parties prenantes . Qualités attendues Sens du service et orientation métier. Leadership et capacité à embarquer les équipes. Autonomie et esprit d’initiative. Forte appétence pour les sujets data et transformation digitale . Environnement de la mission Secteur : Assurance Environnement : Transformation data et migration cloud Outils : Business Objects, Tableau, Dataiku Mode de travail : interaction forte avec les équipes data, IT et métiers Quelques déplacements à prévoir occasionnellement en province.
Mission freelance
Développeur & Concepteur Progiciel Kelia – Domaine Épargne Salariale / Retraite
CAT-AMANIA
Publiée le
Agile Scrum
Angular
Azure DevOps
5 mois
400-510 €
Île-de-France, France
Dans le cadre du lancement d'un programme majeur de refonte du Système d'Information (New ES SI), nous renforçons l'équipe en charge des API et du progiciel KELIA. Vous interviendrez sur les solutions AGE et OAK pour répondre aux évolutions stratégiques du métier de l'Épargne Salariale. Vos Missions : Analyse & Conception : Contribution aux spécifications générales, réalisation des études techniques détaillées et prototypage. Développement & Paramétrage : Réalisation des modules et composants logiciels, assemblage et paramétrage de l'ERP Kelia. Qualité & Tests : Mise en place de tests unitaires et d'intégration (méthodologie TDD) et traitement des anomalies. Maintenance & Évolution : Pilotage de la maintenance corrective et évolutive, documentation technique et administration des composants réutilisables. Profil recherché : Expertise confirmée sur Angular (v18 minimum) . Maîtrise des environnements CI/CD (Jenkins, GitLab CI ou Azure DevOps). Compétences solides en bases de données (MySQL, MariaDB, MongoDB). Capacité à évoluer dans un environnement Agile (Scrum) avec une forte culture DevOps. Une expérience dans le domaine de l'assurance, de la retraite ou de l'épargne collective est un atout majeur.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5710 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois