L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 544 résultats.
Offre d'emploi
Analyste d’exploitation OPEN – Nuits & Week-end (H/F)
Publiée le
30k-36k €
Montpellier, Occitanie
Vous aimez résoudre des incidents, automatiser les tâches et garantir la performance d'un SI critique ? Rejoignez SEA TPI à Montpellier et contribuez à la fiabilité de systèmes qui tournent 24/7. Nous recherchons des Analystes d'Exploitation Nuits/We passionnés par la technique, souhaitant évoluer dans un environnement exigeant où la performance et la fiabilité du SI sont au cœur des priorités. Vos missions principales s'articuleront autour des axes suivants : • Gestion des incidents : Identifier, diagnostiquer et résoudre les incidents techniques dans le respect des SLA. • Exploitation courante : Traiter les demandes de travaux et assurer la continuité opérationnelle du SI. • Maintenance et optimisation : Réaliser les maintenances préventives et correctives afin d'optimiser les performances et la fiabilité des systèmes. • Amélioration continue : • Rédiger et mettre à jour la documentation technique d'exploitation et d'incident. • Proposer et mettre en œuvre des actions d'amélioration des processus. • Développer et maintenir des scripts d'automatisation et de remédiation automatique pour fiabiliser les opérations. • Collaboration inter-équipes : Travailler en synergie avec les équipes techniques pour garantir la disponibilité et la performance du SI. Les missions énumérées ne sont pas exhaustives, il s'agit des missions principales. - Jours ouvrés (lundi au vendredi) : 20h00 – 6h20 - Week-ends et jours fériés : 7h00–19h00 ou 19h00–7h00 Référence de l'offre : zpf0m3ywpt
Mission freelance
[SCH] Data Engineer Spark / Scala - 1047
Publiée le
10 mois
350-390 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Mission freelance
Product Owner I.A & DATA - LLM - Collibra
Publiée le
Confluence
IA
JIRA
12 mois
550-600 €
Paris, France
Télétravail partiel
La prestation consistera à : · Du Product Ownership et de la coordination entre autres pour poursuivre un projet concernant la mise en place de modèle des User needs sur les offres d’information intégrant des solutions d'intelligence artificielle (IA), depuis la R&D jusqu’à la mise en production. · Un cadrage du périmètre fonctionnel, la définition et le suivi de la roadmap /release plan, la définition des KPI produit et son suivi, sa réalisation de la conception jusqu'à la mise en production, dans le respect des obligations réglementaires, des procédures, des budgets et des normes de qualité tout en s’assurant d’une parfaite documentation des fonctionnalités développées Livrables attendus durant la prestation : · Identification, priorisation et spécification des besoins utilisateurs · Rédaction des spécifications fonctionnelles et des tests d’acceptation. · Rédaction des User Stories, mise en place & et suivi du backlog produit · Rédaction et maintien de la documentation sur les sujets d’IA liés à sa mission (Confluence) · Coconstruction des objectifs et de la roadmap avec les Product Manager et les équipes · Priorisation & suivi des développements dans le respect de la roadmap · Animation ou coanimation des ateliers de conception, en collaboration avec un UX designer si nécessaire · Recette fonctionnelle des développements sur la plateforme, en lien avec le responsable qualité de l’équipe ou en autonomie le cas échéant · Propositions d’évolutions dans le respect des objectifs et des KPIs · Interface avec tous les interlocuteurs du projet (équipes techniques, graphiques, journalistes, équipes marketing et partenariats, équipes support, équipes juridiques, partenaires, etc) · Participation aux cérémonies agiles avec les différentes équipes intervenant sur le projet (rétrospective, démo, refinement, tres amigos, sprint planning, etc.) · Participation à la sélection de solutions adéquates avec l’équipe technique · Communication au reste de l’équipe et aux sponsors sur l’avancement des développements et la planification des évolutions autour, entre autres, du projet User needs sur le scope des offres d’information · Instruction des alertes (avec proposition de mise en place de plans de correction ou contournement) pour tout événement susceptible de remettre en cause les objectifs, le planning ou le budget · Livraison du projet ou des itérations produit et garantie de sa conformité · Réalisation de documents support (règles métier, roadmaps, présentations, benchmarks, etc) · Veille technologique et concurrentielle
Mission freelance
Développeur Python
Publiée le
GenAI
Google Cloud Platform (GCP)
Python
3 mois
400-430 €
Lille, Hauts-de-France
Télétravail partiel
OBJET DE LA MISSION : Nous recherchons un développeur expérimenté passionné par l'IA qui rejoindra une équipe agile (3 devs, 1 PO) et travaillera en collaboration avec nos experts Data et Ops. Au delà des compétences techniques, ce développeur doit être curieux car l'écosystème GenAI change chaque semaine. Veille technique et expérimentation de nouvelles approches sont nécessaires. De plus, nous attendons de la pro-activité et de la débrouillardise. En résumé, son rôle est de développer, industrialiser et maintenir la couche backend qui propulse nos agents virtuels: - Développement Applicatif & Architecture : Concevoir et développer les microservices en Python qui orchestrent les conversations. Nous attendons du code propre, testé et maintenable. - Intégration GenAI (LLM) : Implémenter et optimiser les workflows d'IA Générative utilisant les modèles Google Gemini. Vous travaillerez sur la construction des prompts, la gestion du contexte et la récupération d'information (RAG). - Qualité & Évaluation IA : Mettre en place des pipelines d'évaluation automatique des réponses du LLM (LLM-as-a-judge, métriques de pertinence) pour garantir la fiabilité du bot en production. - Observabilité & Run : S'assurer que ce que vous codez tient la charge. Vous serez responsable de l'instrumentation de votre code (via Datadog) pour monitorer les latences, les coûts de tokens et les erreurs en temps réel. - DevOps Culture : Gérer vos déploiements et votre infrastructure sur Google Cloud Platform (GCP) et utiliser les incontournables Git, CI/CD, tests unitaires L'usage de l'anglais est indispensable pour cela. DEMARRAGE : Dès janvier 2025. Travail en présentiel 2 jours par semaine (mercredi et vendredi).
Offre d'emploi
Product Owner
Publiée le
BI
Data Warehouse
12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Mission freelance
Dev back-end sénior (Java/Springboot) - H/F - 93
Publiée le
API REST
Java
RabbitMQ
1 an
Saint-Denis, Île-de-France
La mission consiste à participer activement à la mise en œuvre et à l’évolution d’une application nationale de gestion en temps réel, dans le cadre d’une refonte complète déjà planifiée pour 2026. Le projet présente un haut niveau de complexité, tant sur le plan fonctionnel que technique, en raison de son périmètre étendu et de son intégration avec de nombreux systèmes métiers stratégiques. L’architecture applicative, en cours de modernisation, repose sur plusieurs sources de données critiques, ce qui impose des exigences fortes en matière de performance et de fiabilité. Parallèlement, le prestataire devra également assurer la maintenance évolutive et corrective de la version actuelle de l’application, toujours en production, afin de garantir la continuité du service et le traitement des anomalies ou évolutions mineures. Ce contexte requiert une expertise technique confirmée en développement back-end. Objectifs de la mission Dans le prolongement du contexte précédemment décrit et des enjeux techniques identifiés, la mission vise à renforcer l’équipe de développement par l’intégration d’un développeur back-end senior. Ce renfort a pour but de garantir la réussite du plan de travail prévu pour 2026, incluant à la fois la refonte complète de l’application (version 2) et la maintenance opérationnelle de la version actuelle (version 1). Description détaillée des activités Le prestataire aura pour principales responsabilités de : Participer aux travaux d’architecture et aux décisions techniques dans le cadre de la refonte de l’application ; Contribuer à la compréhension et à la traduction des besoins fonctionnels en solutions techniques ; Réaliser les développements back-end nécessaires à la modernisation du code ; Garantir la qualité, la performance et la fiabilité du code produit ; Accompagner éventuellement un développeur junior dans le cadre d’un stage ou d’un appui technique ; Participer à la mise en place et à l’amélioration continue de la chaîne d’intégration et de déploiement ; Assurer la maintenance corrective et évolutive de la version actuelle de l’application.
Offre d'emploi
Cloud OPS Engineer - H/F
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)
3 ans
50k-55k €
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu. Contexte de la mission : Vous rejoindrez une équipe "Workspace" d'envergure internationale, dédiée à la transformation digitale de l'expérience utilisateur pour plus de 2000 sites physiques à travers le monde. L'objectif est d'accompagner l'évolution des solutions IT sur quatre périmètres majeurs : l'End User Computing, l'Authentification, la Green Tech et les outils de collaboration. Descriptif de la mission : Au sein de ce pôle technologique, vos missions principales seront : Gestion du Run N3 : Assurer le support de niveau 3 (environ une semaine par mois) pour traiter les incidents complexes et les demandes de services (SR). Support & Conseil Cloud : Accompagner et conseiller les utilisateurs dans leurs actions sur les environnements Cloud (AWS/GCP). Amélioration Continue : Être force de proposition sur l’automatisation et l’industrialisation des processus du support Cloud. Lien N3/N4 : Assurer l'interface technique entre le support opérationnel et les équipes d'ingénierie (N4) ainsi que les Product Owners. Projets & Build : Participer activement aux projets Cloud (outillages, développements, déploiements) et garantir leur bon déroulement technique. Documentation : Créer et maintenir la documentation technique liée au Run et au Build.
Offre d'emploi
Chef de Projet Gestion Financière et Comptabilité
Publiée le
Gestion de projet
1 an
40k-45k €
400-660 €
Paris, France
Télétravail partiel
Descriptif de la Mission Gestion de projet avec des connaissances en comptabilité (FAP, CCA…), immobilisations (norme IAS 38) et DATA (Power BI, Power Query etc…). La mission a pour objectif de : Reprise du projet d'harmonisation des fichiers de collecte et y intégrer un portefeuille projet exhaustif. Digitalisation & enrichissement de la modélisation du prebudget. Digitalisation du processus des fiches IAS. Poursuite du projet TVA pour les fonctions. Suivi et anticipation des impacts du déploiement de PWise sur l'activité du service.
Offre d'emploi
Developpeur Java (+3 ans d'xp)
Publiée le
API REST
Java
Springboot
3 mois
40k-45k €
400-440 €
Brest, Bretagne
Télétravail partiel
🧩 Description du poste Au sein d’une équipe agile et en étroite collaboration avec la MOA, tu participes à l’évolution d’une plateforme à forts enjeux métiers et techniques, dans le cadre d’une mission longue durée (jusqu’à 4 ans) . Tes missions principales : Collaborer étroitement avec la MOA sur les besoins fonctionnels Être force de proposition sur les améliorations techniques et fonctionnelles Participer à la conception et aux choix techniques en lien avec les architectes du domaine Développer des API REST robustes et performantes en Java / Spring Boot Concevoir et maintenir les couches backend (services, règles métier, accès aux données) Réaliser les tests unitaires et d’intégration Garantir la qualité, la performance et la sécurité des livrables Assurer l’accompagnement lors des mises en production et le support aux utilisateurs Maintenir l’application en condition opérationnelle (MCO) Partager tes savoir-faire et contribuer activement au collectif Assurer le reporting auprès du manager (avancement, alertes, risques)
Mission freelance
Data Engineer Expert - Infogérance - Lille (H/F)
Publiée le
Microsoft Fabric
Python
6 mois
550-600 €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre d'un projet ambitieux de transformation digitale, notre entreprise spécialisée dans les technologies de l'information et des télécommunications, située à Lille, cherche à renforcer son équipe avec deux Data Engineers experts. Notre mission : offrir des solutions robustes et évolutives basées sur Microsoft Fabric pour répondre aux besoins stratégiques de nos clients. Vous rejoindrez une équipe dynamique et collaborative, composée de Data Analysts et de spécialistes IT, où votre expertise sera cruciale pour la réussite de projets multicanaux et l'intégration de données complexes. Dans cette mission critique, vous serez un maillon essentiel de notre département Data Operations, travaillant sur des projets à fort impact business. Urgent : un Data Analyst doit rejoindre nos équipes sous 2 semaines, et le staffing global est prévu pour décembre, en vue de démarrer les lots en janvier pour une durée de 6 mois renouvelables, jusqu'à 12 mois selon l'évolution des projets. Missions - Implémenter et optimiser les composants Microsoft Fabric pour répondre à des cas d’usage prioritaires. - Concevoir et industrialiser des pipelines ETL/ELT, APIs et modèles de données avancés. - Assurer l'observabilité, la qualité des données, les tests rigoureux, ainsi que la mise en place des pratiques CI/CD. - Optimisation des coûts/performance, renforcer les aspects sécurité et conformité. - Assurer une collaboration étroite et efficace avec les Data Analysts et les équipes métiers.
Offre d'emploi
Poste de Business Analyst en Belgique (ayant des compétences secteur médical / hospitalier)
Publiée le
Business Analyst
Conduite du changement
1 an
38k-48k €
360-590 €
Belgique
Contexte de la mission Dans le cadre de projets d’implémentation de solutions informatiques au sein d’établissements hospitaliers en Belgique, nous recherchons un consultant pour accompagner le déploiement de logiciels métiers, principalement le Dossier Patient Informatisé (DPI) XCare de Zorgi . La mission implique des déplacements réguliers sur l’ensemble du territoire belge . Durée et démarrage Démarrage : début janvier 2026 Durée : mission couvrant l’ensemble de l’année 2026 Type de mission : consulting (freelance ou assimilé) Le consultant interviendra sur des projets d’implémentation de logiciels hospitaliers, avec les responsabilités suivantes : Analyse des besoins des utilisateurs Recueil et formalisation des besoins métier Rôle de Business Analyst auprès des équipes hospitalières Paramétrage du logiciel Configuration du DPI XCare en fonction des processus et contraintes des établissements Collaboration avec les équipes techniques et fonctionnelles Gestion du changement et accompagnement des utilisateurs Préparation et animation d’actions d’accompagnement Support à l’adoption des outils par les équipes Cette dimension représente environ 50 % du temps de la mission et est considérée comme critique pour la réussite des projets
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Offre d'emploi
Responsable du service Essais et Prototypes H/F
Publiée le
Data analysis
54k-70k €
Saverne, Grand Est
Télétravail partiel
Les missions : En tant que Responsable de l’Équipe Essais & Prototypes, rattaché(e) directement au service R&D, vous prenez en charge le pilotage opérationnel et managérial des équipes et jouez un rôle clé dans l’évolution des méthodologies de validation des machines. Vous êtes le garant de la cohérence, de l’efficacité et de la fiabilité des essais réalisés. Votre profil fera la différence par les caractéristiques suivantes: Piloter et animer les équipes Essais & Prototypes, en adaptant votre approche managériale aux besoins et profils de chacun. Développer et optimiser les processus d’essais mécaniques, grâce à vos compétences techniques et scientifiques. Proposer, défendre et porter un plan d’amélioration des méthodes et outils de test auprès de la direction (analyse financière, impacts, enjeux, gains attendus). Accompagner les chefs de service dans le renforcement de leur posture managériale et de leur management d’équipe. Assurer une présence terrain régulière, garantissant la bonne remontée d’informations vers les services internes et externes (commerce, marketing, achats, SAV, partenaires…). Analyser les pratiques existantes, définir des règles claires, en assurer l’application et accompagner l’adhésion des équipes. Installer un climat de confiance, de motivation et de performance, permettant à chacun de s’engager avec conviction et ambition. Veiller au respect strict des règles de sécurité sur le terrain et en être le référent.
Mission freelance
Architecte Entreprise SI (Secteur Energie / Industrie)
Publiée le
Amazon S3
Apache Kafka
API
12 mois
700-810 €
Paris, France
Télétravail partiel
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. 🧱 Missions principales1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats
Mission freelance
DataOps / Ops GCP
Publiée le
Ansible
BigQuery
Google Cloud Platform (GCP)
1 an
400-500 €
Paris, France
Télétravail partiel
Notre client, recherche un Ingénieur DataOps / Ops GCP confirmé (H/F) dans le cadre d'une longue mission. Renforcement de l’équipe Data dans le cadre d’un fort accroissement de la charge projet. Le consultant interviendra sur l’ensemble des environnements GCP en lien avec les équipes Architecture, Infra et Études. - Exploitation et mise en production des projets sur Google Cloud Platform (GCP) - Diagnostic, résolution d’incidents et suivi opérationnel quotidien - Définition et pilotage de plans d’actions pour améliorer la qualité de service, sécuriser la production et optimiser la productivité - Amélioration continue des performances des environnements GCP - Participation aux projets techniques et métiers : mise en place d’environnements, déploiements, automatisations - Contribution à l’industrialisation et à l’évolution des outils d’automatisation - Collaboration régulière avec les équipes Architecture - Rôle orienté delivery projet (pas de RUN centré)
Offre d'emploi
Business analyste
Publiée le
Business Analyst
12 mois
42k-45k €
380-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
- Contribuer au découpage et affinage des besoins en lien avec le Métier (via le Business Coverage le cas échéant) en soutien du Product Owner - Participer, le cas échéant, au suivi du Backlog et à la priorisation des demandes, sur mon périmètre d’activité - Rédiger ou contribuer à la rédaction de la déclinaison de la Feature en stories - Challenger les stories puis estimer avec l’équipe de réalisation et les clarifier par discussion - Aider à mettre à jour le Backlog Produit et intégrer les éléments spécifiés en réunion dont les critères d’acceptation, les cas de test associés… - Accompagner le Testeur dans la phase de test et, le cas échéant, réaliser les tests de la User Story - Participer à l’identification des impacts Métier engendrés par la solution, et à l’élaboration des plans d’actions. - Partager ses connaissances sur son domaine d’expertise et assurer le support fonctionnel - Participer aux différentes cérémonies de la Squad et plus largement si nécessaire. - Accompagner la conduite du changement fonctionnel et l’insertion opérationnelle Compétences métier et/ou techniques • La connaissance du métier de la mobilité est un plus • Connaissances informatiques • Relations IT/ Business • Développement commercial et relation client • Expérience utilisateur (UX) et approche parcours client • Analyse du risque • Connaissances produits crédit et Assurance • Connaissance des processus métier et règle de gestion • Maitrise de l‘anglais opérationnel Qualités requises • Compétences en gestion de projet : Compréhension des méthodes agiles (Scrum, Kanban) et capacité à coordonner les différents acteurs d’un projet. • Esprit critique : Capacité à poser les bonnes questions et à proposer des améliorations concrètes en se basant sur les données. • Qualités relationnelles : Bonnes compétences en communication pour interagir avec les équipes métiers, techniques et marketing. • Curiosité et adaptabilité : En veille constante sur les évolutions du secteur e-commerce et prêt à s’adapter aux changements rapides de ce domaine.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
2544 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois