L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 184 résultats.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Télétravail partiel
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
Accompagner Le déploiement MDM SEMARCHY
Publiée le
Semarchy
SQL
12 mois
Paris, France
Télétravail partiel
Métiers et Fonctions : Ingénierie en Études & Développement, spécialisé dans le développement. Spécialités technologiques : Cloud, Cartographie, AKS, Data management, MDM. Type de facturation : Assistance Technique facturée au taux journalier. Compétences techniques : SQL Server (3 ans) Excel Soft skills : Leadership, Travail en équipe, Rigueur. Langues : Anglais, Français. Secteur d’activité : Énergie. Description de la prestation : En tant que Tech Lead MDM, responsable du déploiement d’une solution de Master Data Management (SEMARCHY xDM). Les livrables incluent : Documentations techniques Spécifications Suivi d’exploitation Principales responsabilités : Définir l’architecture cible et déployer la solution dans un environnement cloud containerisé (AKS ou équivalent). Accompagner la mise en place des premiers cas d’usage et assurer le Maintien en Condition Opérationnelle (MCO) dans le respect des engagements en qualité de service et sécurité. Piloter les demandes de services, gérer les incidents complexes, et accompagner les utilisateurs et équipes opérationnelles. Superviser le fonctionnement quotidien des applications : traitements, interfaces, performance. Coordonner fournisseurs et prestataires externes (TMA/TME), définir les priorités et contrôler la qualité des livrables. Conduire des projets d’évolution : recueil des besoins, rédaction de spécifications, pilotage de développement. Analyser performance et satisfaction pour améliorer la sécurité et la performance des applications. Activités et tâches principales : Modéliser processus métiers, flux et cas d’usage, proposer des optimisations. Accompagner métiers dans l’expression, la collecte et l’analyse de leurs besoins. Proposer des solutions applicatives adaptées. Analyser et définir périmètres fonctionnels, rédiger spécifications fonctionnelles générales et détaillées. Superviser développements et demandes d’évolution. Définir les stratégies de recette fonctionnelle et suivre leur déroulement. Participer à la conduite du changement, former et soutenir les utilisateurs lors du lancement.
Offre d'emploi
ML Ops
Publiée le
BigQuery
Google Cloud Platform (GCP)
MLOps
12 mois
40k-59k €
400-600 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Ops pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience en tant que ML Ops/Data Scientist ; tu maîtrises MLflow ou outils similaires ; tu as déjà travaillé dans un environnement GCP/BigQuery ; tu as un anglais professionnel. Tes missions … ✨ Définir et mettre en œuvre un cadre de bonnes pratiques ML Engineering (tests, qualité, versioning, monitoring…) ✨ Concevoir, construire et maintenir des modèles de Machine Learning en lien avec les Data Scientists ✨ Industrialiser les modèles via des pipelines de ré-entraînement, d’évaluation et de déploiement automatisés ✨ Contribuer à la roadmap produit ML : arbitrages techniques, exploration technologique, priorisation ✨ Développer des systèmes de monitoring en temps réel pour la supervision des modèles et des flux de données ✨ Enrichir la plateforme ML avec de nouveaux outils et composants (frameworks, patterns, modules d'observabilité…) ✨ Participer activement à la vie agile de l’équipe (rituels, pair programming, veille technologique) ✨ Porter les bonnes pratiques ML en transverse auprès des autres entités du groupe, en France et à l’international ✨ Accompagner les Data Scientists dans la montée en maturité technique, notamment sur les pratiques de software engineering ✨ Garantir la qualité du code produit et participer à son amélioration continue TT: 2 jours par semaine. Démarrage: rapide. Relation: CDI ou freelance. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Mission freelance
Consultant Biztalk N1/N2 Intégration & DevOps
Publiée le
Azure
Biztalk
3 ans
La Défense, Île-de-France
Télétravail partiel
Contexte Dans le cadre du renforcement de notre pôle Intégration & DevOps, nous recherchons un(e) consultant(e) Biztalk support N1/N2 capable d’accompagner notre Tech Lead Integration dans l’exploitation, le suivi et la résolution d’incidents sur nos plateformes d’intégration (BizTalk, Azure, MuleSoft). Ce poste est idéal pour quelqu’un souhaitant évoluer sur des technologies modernes d’intégration et progresser vers un rôle N3 / Ingénierie / DevOps. Missions principalesSupport N1 Assurer la supervision quotidienne des flux d’intégration (BizTalk, Azure Logic Apps, API MuleSoft). Effectuer la première qualification des incidents : analyse, reproduction, collecte des logs. Gérer les demandes simples : relances de traitements, vérifications des statuts, mises à jour basiques. Appliquer les procédures standards de Run (ITIL). Escalader vers le N2/N3 lorsque nécessaire. Support N2 Réaliser des analyses techniques approfondies : logs, traces, monitoring, AppInsights. Corriger les incidents récurrents ou connus (redéploiement léger, configuration simple). Maintenir la documentation opérationnelle (runbooks). Participer à l’ amélioration continue des outils et scripts d’exploitation. Contribuer à la stabilité des environnements : redémarrage de services nettoyage de messages ajustement de configurations non critiques Compétences techniques recherchées Indispensables : Compréhension des architectures d’intégration (ESB, APIs, middleware). Bases en Azure (Logic Apps, Service Bus, Functions, AppInsights). Notions sur BizTalk ou tout autre ESB (MuleSoft apprécié). Lecture de logs et diagnostic (HTTP, REST/SOAP, XML, JSON). Connaissance d’un pipeline CI/CD (Azure DevOps, Git, GitHub Actions…). À l’aise avec PowerShell ou un autre langage de scripting (bash, python). Serait un plus : Connaissance MuleSoft (Anypoint, flows, monitoring). Expérience Run/Support applicatif. ITIL Foundation. Notions en API Management (Azure APIM).
Mission freelance
Senior Ops Engineer - Lille
Publiée le
AWS Cloud
Docker
Github
6 mois
350-450 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Tu intégreras l’équipe Ops du domaine. Notre mission est d’accompagner les équipes sur : l’architecture, le capacity planning, la sécurité, la Finops, le build, l’observabilité et l’automatisation de leurs projets. Nos enjeux sont mondiaux et nos plateformes ne dorment jamais. Objectifs et livrables TES RESPONSABILITES Assurer la bonne santé des infras techniques du domaine Accompagner les équipes dans les nouveaux besoins Accompagner les équipes dans le RUN quotidien Accompagner les équipes sur l’amélioration continue des projets Aider à la résolution des incidents de production Assurer la mise en place d’automatisation Accompagnement à la mise en place des DRP Assurer la montée en compétence des développeurs sur les sujets Ops Environnement technique de la BU : Java - Framework Spring Boot, Quarkus, Angular, Python PHP - API Platform, Symfony Industrialisation de l’hébergement (Docker, Kubernetes) Monitoring de la solution et de son infrastructure (Datadog) Kubernetes, Helm, Flux Kafka Outils collaboratifs: Confluence, Jira
Mission freelance
Ingénieur Data / BI
Publiée le
Azure Data Factory
Databricks
Scala
12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Data Engineer Hadoop – Secteur Assurance
Publiée le
Big Data
Hadoop
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Mission freelance
Data Analyst / Data Quality
Publiée le
Azure
Data quality
SQL
24 mois
Paris, France
Télétravail partiel
Profils et Métiers : Métiers : Data Management Fonctions : Data Analyst Spécialités technologiques : Reporting MDM (Master Data Management) Cartographie des données Data quality (qualité des données) Type de facturation : Assistance Technique (taux journalier) Compétences techniques : Technologies et outils : Azure (4 ans), SQL (4 ans), Power BI, GCP Méthodes / Normes : KPI Soft skills : Rigueur Secteur d'activité : Énergie Description et livrables de la prestation : Le prestataire intervient dans le cadre du déploiement d’un référentiel centralisé des identités pour garantir la qualité, l’intégrité et la fiabilité des données issues de systèmes variés, support aux processus IAM/IGA. Il couvre : Données RH et organisationnelles, interfaces, flux et pipelines d’ingestion Interactions avec les équipes Data, RH, Sécurité et Métiers Les prestations incluent : Collecte et intégration : cartographie, amélioration des flux, contrôle de conformité, transformation et enrichissement Analyse de la qualité : détection anomalies, rapports, causes racines, actions correctives Mise en qualité et gouvernance : règles de qualité, golden records, dédoublonnage, remédiations Reporting et indicateurs : tableaux de bord KPI, suivi de la qualité, rapports consolidés Contribution au projet IGA : alignement des données, tests, mise en production Livrables attendus : Documentation systèmes sources et flux Catalogue de données et dictionnaire des attributs Règles de qualité et d’unicité Rapports d’analyse (initial et périodiques) Données nettoyées, normalisées et documentées Tableaux de bord Data Quality (Power BI) Documentation technique et fonctionnelle Rapports d’avancement et d’activité
Offre d'emploi
Chef de Projet Technico-Fonctionnel ou Product Lead,
Publiée le
Agile Scrum
API REST
Confluence
3 ans
40k-55k €
400-420 €
Île-de-France, France
Télétravail partiel
Piloter la roadmap globale du programme IS/IT en garantissant la cohérence des évolutions, la bonne priorisation des sujets et l’alignement des équipes métiers et techniques. Vous serez le référent de la vision produit et le garant du rythme d’avancement. • Mettre en place, suivre et optimiser les interfaces entre les systèmes en vous appuyant sur les API REST et les outils tels que Postman ou Bruno. Vous accompagnez les équipes dans la conception, la validation et la qualité des flux d’échanges de données. • Faciliter le travail des équipes projet en assurant la coordination transverse, l’animation des rituels, la bonne tenue des comités de pilotage et le respect des jalons. Vous jouez un rôle de facilitateur pour fluidifier la collaboration et lever les blocages. • Contribuer à la stratégie de tests end-to-end , en participant à la définition, la préparation et la validation des scénarios de tests entre les systèmes du groupe, l’ERP et les autres applications. Vous veillez à la qualité fonctionnelle et technique de bout en bout. • Assurer une documentation claire, structurée et centralisée sur Jira et Confluence : roadmap, flux, décisions, spécifications, comptes rendus… Vous garantissez la traçabilité et la qualité du patrimoine projet. • Accompagner la conduite du changement , notamment via la communication, la préparation de supports, les sessions de formation et l'adoption des nouveaux processus métiers. Vous aidez les équipes à s’approprier les nouveaux outils et méthodes. • Identifier en continu les risques, dépendances et axes d’amélioration , en proposant des solutions concrètes pour optimiser l’organisation, sécuriser les jalons et renforcer l’efficacité opérationnelle des équipes.
Offre d'emploi
Ingénieur OPS
Publiée le
Dynatrace
Linux
1 an
40k-45k €
400-530 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Prestation d'Ingénierie OPS afin de participer à des projets métier en mode équipage. La mission requiert une très forte capacité à maitriser les aspects techniques et en garantissant le respect des exigences de la Production et la bonne exploitabilité des produits mis en œuvre. L'automatisation via les toolchain et les outils XL Release sont attendus ainsi que la mise en supervision End to End du parc applicatif via Dynatrace en complément des évolutions applicative / technique à gérer dans une équipe produit Cloud. HNO et astreinte demandée. Anglais courant. Missions principales Réalisation les installations sur les différents environnements (Réaliser passage en production (mep, cab...)) Facilité de déploiement des solutions Mettre à disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : le monitoring des services et Les environnements techniques (Prod et hors Prod) Conduction ou vérification des revues de sécurité de l'équipe Évolution des infras et les outils Remonte les propositions d'amélioration des services de production applicative dans une démarche d'amélioration continue Représentant de la Production dans l'équipe projet (Squad) (TOOLCHAIN - Ansible A/R) Promotion des solutions basées sur les produits et services existants, intégrant par nature les exigences de production et de sécurité (résilience, monitoring, …) afin de réduire le délai de mise en œuvre Définir, piloter et garantir les SLOs (Gestion des problèmes (récurrence incidents)) Assemblage des produits et services de production et d'infrastructure au profit des applications, en conseillant sur l'adoption des technologies en ligne avec les besoins applicatifs Support des équipes de développement pour sécuriser et accélérer la livraison des projets Implémentation des user stories techniques Suivi de l'Exploitabilité du Delivery - (PACT, PCR, Exigence de prod, normes et standards) Identification des points de blocage d'exploitation (flux, sécurité, réseau…) puis alerter et proposer des plans d'action Contribution à la définition des niveaux de service et des indicateurs de Production Veille à l'existence et au test d'un plan de bascule en backup (ICP) Définition de l'architecture technique Participation aux réunions de définition de l'architecture (SATS/CASA) Contrôl de la traçabilité des accès aux machines (OS, Espace de stockage, routeurs…) et remédier si nécessaire Vérification de l'exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Anticipation des problématiques de conformité aux règles et standards d'architecture, de sécurité, de délais de livraisons et de mise à l'échelle des solutions proposées Veille à l'ajout des exigences d'infrastructures et d'exploitation dans le Product Backlog, ainsi que toute User story technique jugée nécessaire (industrialisation, gestion de l'obsolescence, …) Monitoring et supervision Définition et mettre en place/faire évoluer le Monitoring Mettre en place la surveillance et la supervision de la Solution mise en production Disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : Le monitoring des services et Les environnements techniques (Production et hors Production) Documentation et pilotage Mettre en place les consignes (Pilotage applicatif) et AEL Référentiel Documentation & GED Veille de la disponibilité d'une documentation Rôle consultatif De part son expertise et son rôle il donne son avis : Le manuel utilisateur (fonctionnel) Gestion des incidents – Assistance en cas de blocage ou d'incident sur les versions mises en production La continuité applicative (ICP/Backup Restore/DR) - Restauration des bases de données La guilde technique Compétences techniques attendues (maîtrise) Linux / Windows / Docker / Kubernetes / Ansible Pratiques d'automatisation "as code" s'appuyant sur une culture DevOps et Agile Technologies / Langages : Cloud (Docker, Kubernetes) / Oracle / MongoDB / CFT, Control M, Liberty Core - Websphere / MongoDB, SGBD Oracle Monitoring : Dynatrace OS Linux et Windows, AIX Langages : YAML, Python, Shell Toolchain et automatisation : GitLab, Ansible Tower, Ansible Galaxy, Artifactory, Jenkins, GitLab-CI, XL Release La certification éditeur peut être un critère différenciant. Connaissances en architecture cloud Modèles de services Cloud : IaaS, PaaS, SaaS Grandes familles de cloud (privé, public, hybride) Concepts liés aux conteneurs (micro-services) Concepts liés aux machines virtuelles (para-virtualisation, émulation) Enjeux de l'Infrastructure as Code Concepts du Cloud Computing Environnement DevOps et Agile
Mission freelance
Tech Lead H/F
Publiée le
AWS Cloud
Azure DevOps
Azure Kubernetes Service (AKS)
2 ans
550-600 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Tech Lead H/F à Paris, France. Contexte : Au sein de l’équipe technique, la mission consiste à coordonner les actions techniques entre les phases de BUILD (conception et déploiement) et de RUN (exploitation et maintenance) afin d’assurer la fluidité des opérations et la qualité des livrables. Description détaillée des tâches qui constituent la mission Vous serez en responsabilité sur le domaine technique de certaines des applications citées ci-dessus. La mission se divise en deux grands aspects : • Phase BUILD : o Initier, piloter et relancer les sujets techniques de construction d’application (MAJ DAT, création d’environnements, ouverture de flux, création de DNS/certificats, …) o Assurer la communication entre les équipes (TMA, TRA, Exploitants, Métiers, Architectes techniques, …) o Garantir la conformité des livrables aux exigences techniques o Préparer, piloter et réaliser les déploiements applicatifs des releases techniques et/ou fonctionnelles sur les environnements o Gestion de l’obsolescence des composants techniques utilisés par les applications • Phase RUN o Coordonner et maintenir techniquement les applications : gestion d’incident, exploitation courante, fiabilisation, mise à jour des versions et proposition d’actions préventives o Coordonner et gérer techniquement les différents environnements (Recette, intégration, préprod, prod) o Suivre et optimiser les performances des systèmes en production. o Documenter les processus et les bonnes pratiques pour garantir la continuité des services. o Industrialiser l’exploitation applicative La mission nécessite les compétences suivantes : • Comportementales : o Excellentes capacités de communication et de coordination o Rigueur et sens de l’organisation o Capacité à travailler en transverse avec différentes équipes o Esprit d’analyse et de résolution de problèmes/incidents o Gestion des priorités • Techniques : o Maîtrise des architectures techniques et des systèmes d’information o Expérience en intégration continue et en gestion des déploiements o Maîtrise des outils de monitoring et de supervision o Connaissance des environnements Cloud, DevOps et des méthodologies Agile
Offre d'emploi
Développeur Full-Stack
Publiée le
Angular
Google Cloud Platform (GCP)
Java
38k-45k €
Lille, Hauts-de-France
Télétravail partiel
Ce que nous offrons : - La chance de travailler avec des technologies de pointe telles que Java, Javascript, Node.js, Vue.js, Spring, React, CI/CD, Kafka, Kubernetes, Cerberus, GCP, et bien plus encore. - Un rôle crucial dans une équipe qui valorise l'innovation, l'apprentissage continu et le développement professionnel. - Une position basée dans la métropole lilloise, au coeur d'une communauté technologique dynamique. Missions pour le Développeur Fullstack : - Conception et développement d'applications web fullstack en utilisant Java, Spring pour le backend et React ou Vue.js pour le frontend. - Intégration et déploiement continu (CI/CD) en utilisant des outils modernes et des plateformes cloud comme GCP. - Collaboration étroite avec les équipes de développement, QA et opérations pour optimiser le code, résoudre les problèmes et améliorer la performance et la sécurité des applications. - Participation active à la phase de conception produit, en apportant des idées innovantes et en travaillant sur des prototypes. - Gestion et mise en oeuvre de Kafka pour le traitement des flux de données en temps réel et Kubernetes pour l'orchestration des conteneurs. - Veille technologique continue pour rester à jour sur les nouvelles tendances et meilleures pratiques dans le développement Fullstack.
Mission freelance
Développeur / Data Engineer Observabilité h/f
Publiée le
Azure
DevOps
Grafana
6 mois
400-600 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client recherche un Développeur Senior disposant d’une double expertise en développement backend et en ingénierie des données, pour rejoindre son équipe dédiée à l’observabilité. Concevoir, développer et maintenir des services backend (Python, PySpark) et des APIs orientées observabilité Construire et orchestrer des pipelines de données robustes (Airflow, Spark, Python) Garantir la qualité, la sécurité et la gouvernance des flux (tests, lineage, monitoring) Gérer les données via PostgreSQL, ADLS, Blob Storage, ElasticSearch Développer des dashboards et visualisations avancées (Grafana, ELK) Collaborer étroitement avec les équipes produit et développement (Agile/Scrum)
Offre d'emploi
Architecte d'entreprise H/F
Publiée le
65k-75k €
75001, Paris, Île-de-France
Télétravail partiel
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client ( banque privée) basé à Paris 1er un Architecte d'entreprise H/F dans le cadre d'un CDI. Rattaché au DSI, l'Architecte d'entreprise H/F doit définir, maintenir et gouverner la trajectoire d'architecture (métier, data, applicative, intégration, technique/cloud, sécurité) afin d'assurer un SI cohérent, résilient, auditable et conforme, notamment au regard des attentes ACPR/BCE/EBA et du règlement DORA, avec un focus sur l'inventaire, la cartographie, et les dépendances des actifs TIC supportant les fonctions critiques/importantes. Missions principales A. Stratégie d'architecture d'entreprise * Définir et maintenir la cible d'architecture (Target Architecture) et la trajectoire (roadmap) en alignement avec la stratégie de la banque. * Construire/maintenir la Business Architecture : modèle de capacités, cartographie processus/fonctions, analyses de maturité. * Réaliser les analyses d'impact pour cadrer les évolutions et arbitrages. B. Gouvernance, standards et revues d'architecture * Mettre en place et animer la gouvernance d'architecture : principes, standards, patterns (API, intégration, data, IAM, cloud, etc.). * Conduire les revues d'architecture des projets majeurs pour assurer la conformité aux standards et à la stratégie, ainsi que la gestion des risques (sécurité, résilience, conformité réglementaire). C. Référentiels, cartographies et exigences DORA * Maintenir un dispositif « audit-ready » d'inventaires et cartographies du SI (applications, données, flux, dépendances, actifs critiques). * Assurer l'alignement avec les exigences réglementaires, notamment DORA Art. 8, en matière de résilience et de continuité. D. Rationalisation et modernisation du portefeuille * Piloter l'évaluation et la rationalisation du portefeuille applicatif. * Promouvoir des trajectoires de modernisation alignées avec la stratégie de la DSI de la banque. E. Innovation et amélioration continue * Effectuer une veille technologique et proposer des pistes d'innovation adaptées aux services financiers de la banque. * Animer des ateliers avec les parties prenantes pour aligner besoins, risques, architecture et planning. 3. Livrables attendus * Cartographie du SI à jour (applications, données, flux, tiers). * Modèle de capacités (capability map métier et IT) et trajectoire pluriannuelle. * Dossiers d'architecture (HLD/LLD, standards et patterns). * Avis d'architecture + registre des dérogations et plans de remédiation. * Exigences d'exploitabilité (« Architecture Run Readiness »). * Référentiel DORA Art. 8 : inventaires, actifs critiques, interdépendances, configurations. 4. Indicateurs de performance (KPI/KRI) KPI : * Taux de couverture des cartographies (applications, flux, tiers) et délais de mise à jour post-changement. * % de projets majeurs validés en revue d'architecture avant Go-Live. * Réduction de la redondance applicative et de la complexité. KRI : * Zones non cartographiées du SI sur les périmètres critiques. * Nombre de dépendances critiques non maîtrisées. * Nombre de dérogations sans plan de remédiation ou exceptions permanentes. Compétences requises Compétences techniques : * Vision transverse : business, data, applicatif, intégration, infrastructure, cloud/hybride. * Expertise en urbanisation SI, architecture API/événementielle, data governance. * Maîtrise des concepts de résilience (PRA/PCA, observabilité, SRE). * Connaissance des exigences réglementaires (notamment DORA Art. 8). Compétences comportementales : * Excellente communication orale et écrite, capacité de synthèse et de vulgarisation. * Leadership d'influence, capacité à challenger de manière constructive. * Rigueur, sens du risque et exigence de traçabilité « audit-proof ». * Capacité à arbitrer valeur vs risque vs coût vs délai.
Mission freelance
Développeur Intégration BizTalk / Azure – Senior (H/F)
Publiée le
.NET
Azure
Biztalk
3 mois
Suresnes, Île-de-France
Télétravail partiel
Nous recherchons un Développeur Intégration expérimenté , maîtrisant BizTalk Server 2020 et Azure Integration Services , pour intervenir au sein de la Direction Technique d’un grand groupe. Vous participerez à : la maintenance des flux existants, le développement de nouvelles interfaces d’intégration , et la migration d’une plateforme BizTalk vers Azure . Il s’agit d’un rôle stratégique dans un environnement dynamique et exigeant. Vos missions Maintenance & Support Diagnostiquer et résoudre les incidents sur les flux BizTalk existants Gérer les messages bloqués, relances, tracking et monitoring Traiter les petites évolutions techniques Développements & Intégration Concevoir et développer de nouvelles interfaces d’intégration inter-applicatives Implémenter les transformations (XSLT, XML, JSON) Écrire ou adapter des Logic Apps, API, pipelines d’intégration Projet de Migration BizTalk → Azure Participer à l’analyse de l’existant Reprendre / transformer les orchestrations BizTalk vers Azure Développer les nouveaux composants Azure (Logic Apps, Service Bus, Event Grid, APIM) Assurer la recette et la mise en production des nouveaux flux
Mission freelance
228728/Architecte GCP - Île de France
Publiée le
Google Cloud Platform (GCP)
3 mois
Île-de-France, France
Télétravail partiel
Architecte GCP - Île de France Compétences attendues Expertise technique GCP (indispensable) : Google Cloud Composer (orchestration des workflows). Google Cloud Storage (gestion et sécurisation des données). Google BigQuery (data warehouse et analytics). En tant qu’expert Google Cloud Platform (GCP), l'expert accompagnera l’équipe projet sur l’ensemble des phases – conception, réalisation et déploiement – afin de garantir l’atteinte des objectifs stratégiques : Centraliser, fiabiliser et standardiser les données RH essentielles. Faciliter la gestion des processus et ressources humaines. Améliorer la qualité et la pertinence des analyses RH et des reportings. Assurer une cohérence et une intégrité des données à l’échelle du groupe. Méthodologie projet Le projet est conduit selon une approche agile, privilégiant : L’adaptabilité face aux besoins métier, La collaboration transverse, L’amélioration continue. 👉 Une expérience dans un contexte agile (Scrum, SAFe ou équivalent) est donc un atout recherché. Compétences attendues Expertise technique GCP (indispensable) : Google Cloud Composer (orchestration des workflows). Google Cloud Storage (gestion et sécurisation des données). Google BigQuery (data warehouse et analytics). Compétences complémentaires : Power BI : visualisation et analyse des données RH. Data engineering / ETL : conception et optimisation de flux de données. Sensibilité à la qualité et gouvernance des données . Profil recherché Expérience confirmée sur des projets de migration, intégration ou fiabilisation de données sous GCP. Capacité à accompagner les équipes projet dans un rôle à la fois technique et conseil . Bon relationnel et capacité à vulgariser les aspects techniques auprès des métiers RH. Objectifs et livrables Architecture GCP qui répond aux attente du contexte Livrables techniques : DAT, DEX, etc. Accompagnement des développements Compétences demandées Compétences Niveau de compétence Google Cloud Composer Expert Google Cloud Storage Expert BIGQUERY Expert Apache Airflow Expert
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
184 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois