L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 461 résultats.
Mission freelance
Expert Technique – SSDLC & Solutions IA
Publiée le
Python
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Infrastructure, Cloud, QA, API, Automatisation des tests Au sein d’un environnement international, la mission consiste à co-définir, expérimenter et déployer un cadre de développement logiciel sécurisé (SSDLC) intégrant les apports récents de l’intelligence artificielle et de l’automatisation. Le rôle requiert une solide expérience technique, une compréhension fine du cycle de vie logiciel et une capacité à accompagner la transformation des pratiques d’ingénierie logicielle dans un contexte complexe et distribué. MISSIONS Responsabilités principales 1. Co-définition et consolidation du SSDLC - Collaborer avec les équipes sécurité, développement et architecture pour co-construire le futur cadre SSDLC. - Intégrer des outils d’assistance au codage (Copilot, etc.) et des pratiques de sécurité automatisées dans les différentes phases du cycle. - Définir les contrôles de sécurité et mécanismes de validation pour le code généré par IA. - Rédiger la documentation, les playbooks et supports de formation pour faciliter l’adoption du SSDLC.* - Contribuer à l’amélioration continue des processus de développement et de validation. 2. Expérimentation et innovation autour de l’IA et des agents logiciels - Piloter des proof-of-concepts sur les assistants de codage, la génération de code et les workflows agentiques. - Concevoir et exécuter des expérimentations pour mesurer les gains de productivité, l’impact sur la qualité du code et les implications sécurité - Construire des prototypes intégrant l’IA dans tout le cycle de développement (planification, codage, test, déploiement, maintenance). - Analyser les données issues de ces expérimentations et formuler des recommandations stratégiques. - Participer activement à la communauté interne des développeurs IA et au partage de connaissances. 3. Évolution et support des plateformes internes - Faire évoluer l’assistant de code interne en y intégrant des fonctionnalités avancées et des garde-fous de sécurité. - Intégrer les outils dans les IDE et pipelines CI/CD existants pour une adoption fluide. - Contribuer à l’évolution de la plateforme d’orchestration de sécurité : détection de vulnérabilités, automatisation des tests, Intégration IA. - Développer des mécanismes d’évaluation automatisée de la qualité du code et des tableaux de bord d’excellence technique. - Collaborer avec les équipes cloud et sécurité pour aligner les solutions sur les standards internes (AWS, Azure, Kubernetes, OpenShift/RedHat). Expertise souhaitée - Excellente maîtrise du développement web moderne (JavaScript/TypeScript, Python, Node.js, React/Vue/Angular). - Connaissance approfondie de plusieurs langages (Java, Go, C#, etc.) et des architectures microservices et cloud-native. - Maîtrise des pipelines CI/CD, du déploiement sur AWS et Azure, de la containerisation (Kubernetes, OpenShift) et de l’Infrastructure as Code. - Expérience avec les outils de sécurité : SAST/DAST, gestion des dépendances et des secrets, pratiques de codage sécurisé. - Familiarité avec les cadres de sécurité (NIST, OWASP SAMM, ISO 27001) et les outils de productivité développeur. - Connaissance pratique des LLM, frameworks d’agents IA, prompt engineering, et intégration de modèles via API. - Expertise ML appliquée à l’ingénierie logicielle (détection de vulnérabilités, analyse de code, scoring de qualité). - Compétences fonctionnelles et comportementales Une certification QA constitue un atout. Profil recherché - Tech Lead ou Expert Software Engineering avec une solide expérience du développement sécurisé et de l’intégration de l’IA dans les pratiques d’ingénierie. - Familiarité avec les outils d’assistance au développement (Copilot, CodeWhisperer, etc.). - Expérience dans la conception d’applications, le déploiement et la gestion du cycle de vie logiciel complet. - Capacité à interagir avec de multiples parties prenantes, à la croisée du développement, de la recherche et de la sécurité. Compétences Technologies et Outils React C# Angular AWS JS Python CI/CD TypeScript Azure Redhat JavaScript Kubernetes Méthodes / Normes ISO 27001
Offre d'emploi
Architecte calcul/Stockage et plateformes DATA
Publiée le
Architecture
Cloud
12 mois
40k-45k €
400-550 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Missions principales Architecture et trajectoire technologique • Concevoir des architectures de calcul, stockage et plateformes DATA (On-premise, Cloud ou hybrides). • Élaborer la cible d’architecture DATA : catalogage, gouvernance, sécurité, interopérabilité. • Formaliser les patterns d’architecture, standards et bonnes pratiques. 1. Collecte et formalisation des besoins métiers et techniques • Animer des ateliers avec les directions métiers et laboratoires pour recueillir et qualifier les besoins. • Réaliser des cartographies techniques et fonctionnelles. • Identifier les contraintes et les gains attendus. 2. Analyse et ingénierie des systèmes existants • Réaliser du reverse engineering sur les systèmes existants, y compris non gérés par la DTI. • Identifier les redondances, obsolescences et pistes d’optimisation. 3. Proposition et priorisation de projets • Construire un plan d’action priorisé des projets techniques. • Appuyer la priorisation stratégique en lien avec la gouvernance DATA et le SDSI 2030 (qui reste à construire). 4. Pilotage et accompagnement technique des projets • Coordonner les travaux techniques, tests de performance et intégration. • Contribuer directement à la mise en œuvre technique et au transfert RUN. 5. Contribution à la gouvernance DATA • Participer aux instances du Programme DATA et du SDSI. • Contribuer à la définition des standards techniques et à la documentation des services. 4. Missions secondaires • Participation à des projets de plateformes mutualisées (MFT, ETL, forges logicielles, calcul). • Étude et éventuel déploiement de solutions cloud ou hybrides selon arbitrages stratégiques. • Veille technologique sur les infrastructures et technologies data. • Capitalisation documentaire et accompagnement à la montée en compétence des équipes. 5. Compétences requises 5.1 Compétences techniques • Architecture des systèmes de stockage : NAS, SAN, Object Storage, archivage. • Environnements de calcul : clusters Linux/Windows, HPC, Slurm, conteneurisation (Docker, Singularity), GPU, orchestration.Systèmes et virtualisation : VMware, Hyper-V. • Réseaux et sécurité : segmentation, performance, supervision, monitoring. • Plateformes DATA/Analytics : architectures DATA, interopérabilité technique, …. • Outils de transfert et d’intégration : MFT, ETL, pipelines CI/CD (GitLab CI, Jenkins). • Cloud et hybridation : connaissance d’Azure, OVHcloud, Scaleway ou équivalents publics. • Outils de supervision et d’observabilité : Grafana, Prometheus. • Documentation technique : rigueur rédactionnelle, utilisation d’outils tels que PlantUML, Mermaid ou Visio. 5.2 Compétences transverses • Gestion de projet technique : planification, suivi, priorisation et reporting. • Capacité d’analyse et d’arbitrage technique, sens de la décision et de la fiabilité opérationnelle. • Aptitude à dialoguer avec des interlocuteurs variés (chercheurs, ingénieurs, équipes métiers, directeurs, CDO, RSSI). • Autonomie, curiosité, rigueur documentaire et esprit de synthèse. • Sens du service public et respect de la confidentialité scientifique.
Mission freelance
Consultant Senior SAP PP (H/F)
Publiée le
SAP
12 mois
Paris, France
Dans le cadre du lancement d’un nouveau core model de fabrication pour un déploiement dans un nouveau pays , nous recherchons un Consultant Senior SAP PP pour intervenir sur un projet structurant orienté production. La solution SAP en place repose sur un environnement SAP ECC sur base HANA , intégrant les fonctionnalités FMS , déployées depuis 2018. Le consultant interviendra principalement sur le périmètre SAP PP / Production , avec un cadrage spécifique autour des processus de réparation , dans un contexte de fabrication Retail. Le rôle implique une forte contribution aux ateliers de cadrage, à la définition des processus cibles, ainsi qu’à l’accompagnement des équipes métier dans le déploiement du core model. Missions principales Cadrer et analyser les processus de réparation en environnement SAP PP. Contribuer au lancement du core model fabrication pour un nouveau pays. Intervenir sur les processus de planification et de production (PP). Participer aux ateliers de conception et à la définition des processus cibles. Accompagner les équipes métier et sécuriser les choix fonctionnels.
Mission freelance
Architecte Cloud & On-Premises (anglophone) – Expertise FinOps
Publiée le
Architecture
Azure
Cloud
12 mois
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Cloud & On-Premises anglophone , intervenant sur l’optimisation des coûts d’un environnement multi-cloud et d’infrastructures on-premises. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/FIN/4975 dans l’objet de votre message La prestation consiste à optimiser les coûts Cloud et On-Premises dans un environnement multi-cloud global, en produisant des rapports détaillés, en mettant en œuvre la gouvernance, en soutenant les équipes internes et en fournissant des recommandations structurées. . Gouvernance Cloud & On-Premises Contribuer à la définition de la gouvernance pour les environnements Cloud et On-Premises. Participer à la mise en œuvre opérationnelle de cette gouvernance. 2. Production et amélioration des rapports Cloud & On-Premises Produire des rapports pertinents sur la consommation et les coûts Cloud & On-Premises. Améliorer en continu ces rapports pour les rendre exploitables par le management. Fournir des rapports permettant de piloter la conformité, la consommation et les coûts. 3. Collaboration avec des équipes transverses globales Collaborer avec des équipes multifonctionnelles basées dans plusieurs pays. Comprendre leurs besoins et contribuer à l’analyse des données. Établir des partenariats de travail permettant d’atteindre des résultats FinOps tangibles. 4. Support aux équipes Infrastructure & Operations (I&O) Accompagner les équipes I&O dans la définition d’objectifs et de KPI pertinents. Participer à la récupération, structuration et modélisation des données nécessaires au pilotage des coûts. 5. Cartographie des flux de données Cartographier, avec les équipes I&O, les flux de données relatifs aux environnements Cloud et On-Premises. Aider à construire un modèle de données supportant les travaux FinOps. 6. Analyse et prévision des coûts d’hébergement Analyser les coûts d’hébergement Cloud & On-Premises. Élaborer des prévisions (forecast) pour anticiper l'évolution des dépenses. 7. Recommandations d’optimisation Formuler clairement des recommandations d’optimisation des coûts. Accompagner et suivre la mise en œuvre de ces recommandations. 8. Appui à la prise de décision via les données Utiliser des outils et technologies permettant des décisions data-driven. Contribuer à l’amélioration de la capacité analytique et du reporting FinOps. 9. Contribution aux projets et programmes Aider projets et programmes à réaliser des estimations de coûts. Construire et formaliser des modèles de coûts et de financement. Contribuer à l’élaboration de business cases internes.
Offre d'emploi
Consultant·e Data Analyst / Splunk ITSI – Dashboards & Data Infrastructure
Publiée le
Splunk
2 ans
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil spécialisé dans les transformations technologiques et organisationnelles. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour de la Data, du Cloud, du DevOps et du numérique responsable , dans des secteurs tels que la finance, l’énergie, l’IT et les télécommunications . Nous recherchons un(e) Consultant·e Data Analyst / Splunk ITSI pour accompagner les équipes dans la construction de dashboards et la mise en place d’une structure de données dédiée à la supervision des infrastructures. Vous interviendrez au cœur d’un projet long terme visant à renforcer la visibilité, la performance et la fiabilité des environnements techniques via Splunk et ITSI. Vos missions principales Concevoir et développer des dashboards Splunk ITSI pour le suivi et la supervision des infrastructures. Construire et structurer la donnée d’observation (logs, métriques) afin d’alimenter les tableaux de bord analytiques. Configurer et administrer Splunk et ses composants ITSI pour répondre aux besoins de reporting et d’exploitation. Analyser les données et traduire les résultats en indicateurs clairs et exploitables . Participer à l’ industrialisation des traitements de données et à la standardisation des processus analytiques. Collaborer avec les équipes techniques et métiers pour assurer la cohérence et la qualité des données. Fournir un appui analytique aux équipes de pilotage et de décision.
Offre d'emploi
Business Analyst Data Management - Nantes
Publiée le
Business Analyst
Data management
JIRA
1 an
40k-45k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons un consulant(e) Business Analyste Data confirmé(e) pour intervenir chez notre client dans le secteur bancaire à Nantes. Informations sur la mission Tâches Recueil et analyse des besoins Déclinaison des besoins en récits Préparation des supports Animation des ateliers avec différents interlocuteurs (pôle utilisateur / pôle produit...) Embarquement sur les données essentielles Gestion du run Communication sur les produits Attendu : Qualité des récits Adapatabilité du discours en de l'interlocuteur Transcription claire pour la fabrication des besoins collectées Ecoute active Sens des responsabilité
Offre d'emploi
Data architect senior H/F
Publiée le
50k-60k €
Strasbourg, Grand Est
Télétravail partiel
Au sein de la DSI, vous intégrez une équipe pluridisciplinaire et jouez un rôle stratégique dans la définition, la structuration et l'évolution des architectures data. Vous êtes garant de la cohérence, de la performance et de la sécurité des systèmes de données. Concevoir et faire évoluer l'architecture data globale (modélisation, flux, stockage, sécurité) Définir les standards et bonnes pratiques en matière de gouvernance des données Superviser la mise en place des pipelines de données (Databricks, Power Automate) Piloter la modélisation des bases de données SQL et NoSQL Collaborer avec les équipes métier et techniques pour aligner les besoins fonctionnels et les solutions data Assurer la qualité, la traçabilité et la fiabilité des données dans un environnement cloud Participer au suivi et à la maintenance de l'exploitation
Mission freelance
Web / Data Analyst Piano Analytics H/F/NB
Publiée le
Analyse
Google Cloud Platform (GCP)
Microsoft Power BI
210 jours
400-580 €
Île-de-France, France
Télétravail partiel
Leader des médias français , notre client recherche un Data Analyst expérimenté pour accompagner la transformation digitale de ses offres numériques. Rejoignez la Direction Data et contribuez à faire de la donnée un levier stratégique de croissance. 🚀 Vos missions : Pilotage & Reporting Créer et automatiser des dashboards Power BI pour les équipes Growth (CRM, Acquisition, Social) Recueillir les besoins métier et rédiger les cahiers des charges techniques Superviser la qualité des données et optimiser les performances des rapports existants Analyse & Insights Analyser les données Piano Analytics, Nielsen/eStat Streaming Étudier les parcours utilisateurs et la consommation vidéo (Web/App/TV) Produire des analyses mensuelles et recommandations actionnables Collaborer avec l'équipe Études pour approfondir la connaissance utilisateur Formation & Accompagnement Former et coacher les équipes internes sur Piano Analytics et les outils d'analyse Sensibiliser à l'intégration de la data dans les processus de décision Vulgariser les concepts techniques pour des équipes non-techniques Stratégie Data Définir et harmoniser les KPIs transverses pour les équipes Growth, Produit et Métiers Spécifier les prérequis de tracking pour les analyses futures Contribuer au déploiement du marqueur interne sur de nouveaux produits
Mission freelance
Analyste designer Data migration (H/F)
Publiée le
Business Analyst
GED (Gestion Électronique des Documents)
Migration
12 mois
550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Analyste designer Data migration H/F pour l'un de ses clients qui opère dans le secteur pharmaceutique Description 🎯 Votre Mission En tant qu' Analyste Designer Data Migration , vous faites le lien entre les besoins Métier (Regulatory / AMM) et la "Factory" de développement (Centre de service Talend ). Votre but est de concevoir et garantir l'extraction des documents et données pour alimenter le nouveau système. Vos responsabilités clés : Recueil & Analyse : Organiser les ateliers avec le Métier et les équipes BSS/RUN pour définir les règles d'extraction des documents et métadonnées. Analyser les besoins de migration documentaire (Regulatory). Conception & Spécifications : Rédiger les spécifications fonctionnelles et techniques (High Level & Low Level Design). Concevoir les flux d'extraction GED en collaboration avec les architectes. Pilotage de la Factory & Delivery : Transmettre les spécifications au centre de service Talend et superviser les développements. Valider les prototypes et les livrables techniques. Test & Validation (Qualité) : Élaborer la stratégie de test (SIT), préparer les jeux d'essais et superviser l'exécution. Supporter la phase de recette (UAT) et garantir l'absence de défauts majeurs avant la migration. Coordination : Assurer l'interface avec les équipes Infrastructure, GED et Migration. Contribuer au planning projet et aux arbitrages de priorisation. 🛠 Environnement Technique & Fonctionnel Outils : ETL (Talend), Solutions GED/DMS, Veeva (Vault RIM). Contexte : Migration de données massives, Middleware, API. Domaine : Affaires Réglementaires, AMM (Autorisation de Mise sur le Marché).
Offre d'emploi
Développeur Python/DevOps & Chatbot IA
Publiée le
Chatbot
DevOps
Kubernetes
3 ans
40k-73k €
400-580 €
Île-de-France, France
Prestations demandées Missions DevOps / Backend 1. : API et services principaux Développer l’API centrale permettant l’interfaçage entre le chatbot, les assistants métiers et les services de gestion de fichiers. Implémenter le service de gestion des conversations : historique, anonymisation/suppression, continuité conversationnelle. 2. Gestion des fichiers : Concevoir le traitement et le stockage sécurisés des fichiers utilisateurs (txt, PDF, docx, pptx, xlsx). Intégrer des mécanismes d’analyse et d’enrichissement des fichiers pour l’exploitation dans les assistants. 3. Contexte et personnalisation : Développer un module d’analyse et d’enrichissement du contexte (user/entity) pour optimiser la pertinence des réponses. Gérer les prompts : création de templates, favoris, personnalisation par entité ou collaborateur. 4. Orchestration et assistants : Mettre en place un service d’orchestration multi-assistants (agents spécialisés, fallback, exécution d’actions). Développer un système de gestion des widgets et actions (web search, rendu mermaid, outils interactifs). 5. Monitoring et conformité : Implémenter le feedback utilisateur, la collecte de KPIs et le suivi des délais de réponse. Administrer les mécanismes de contrôle d’accès, garde-fous et politiques d’usage (policy-based). Mettre en œuvre les logs applicatifs, l’audit des actions et les traces conformes aux exigences du Groupe (sécurité, conformité, confidentialité).
Mission freelance
Data Engineer Sénior (5 ans d’expérience minimum)
Publiée le
Azure
12 mois
380 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer autonome disposant d’au moins 5 ans d’expérience, capable de collecter, analyser et exploiter les données pour améliorer le pilotage des activités et identifier les leviers de création de valeur. Le consultant accompagnera également les équipes métier dans le développement, le déploiement et l’exploitation de solutions data afin d’atteindre leurs objectifs. Missions principales : – Collecter, préparer et structurer les données pertinentes pour les besoins des utilisateurs. – Construire et optimiser des pipelines ETL/ELT robustes et performants. – Analyser les données et produire des visualisations accessibles via les outils décisionnels. – Proposer des recommandations et lignes directrices pour créer de la valeur au sein des activités métier. – Accompagner l’optimisation des offres, services et processus grâce à l’analyse et l’évaluation des données. – Garantir la conformité aux règles d’éthique et de gouvernance du groupe. – Présenter les fonctionnalités des produits data et faciliter leur maintenance. – Réaliser des tests conformément à la stratégie définie. – Maintenir à jour le catalogue des produits data (datasets). – Fournir des kits de formation et des outils pour les utilisateurs. Résultats attendus : – Identification et sélection des données pertinentes pour les besoins opérationnels. – Optimisation du temps, des ressources et des outils dédiés à l’analyse de données. – Production de jeux de données et visualisations compréhensibles et accessibles. – Mise à disposition de recommandations métier génératrices de valeur. – Amélioration des processus, services et offres grâce aux analyses. – Application stricte des règles de gouvernance et d’éthique data. – Tests réalisés et conformes aux exigences. – Catalogue des datasets à jour. – Mise à disposition de supports et kits de formation pour les utilisateurs. Compétences requises en Data Engineering : – Modélisation de données : modèles relationnels, dimensionnels, Data Vault. – ETL / ELT : conception, optimisation et gestion des dépendances. – Gouvernance et qualité de données : data lineage, qualité, catalogage, gestion des métadonnées. – Architecture data : maîtrise des patterns modernes (Data Lakehouse, Data Mesh…). Langages : – SQL avancé – Python avancé – PySpark avancé Outils et technologies : – Dataiku – Power BI – Databricks – Azure Data Factory – Azure Logic Apps
Offre d'emploi
MOA – Application ATHENES Bilingue sur Paris
Publiée le
CSS
Data Lake
Java
3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un MOA – Application ATHENES sur Paris Pour l’application ATHENES le périmètre couvre : application est dédiée à l'activité de gestion des participations o La prise en charge des éléments du backlog d’ATHENES : Backlog éditeur Interfaçage CDC (flux) DataLake / Tableau Développement de Proximité Bureautique, etc. au travers de la maintenance corrective et évolutive : expression des besoins, analyse, configuration, recette o Le support utilisateur o La gestion des incidents de production, en relation avec les équipes métiers o La documentation des points ci-dessus o Suivi de KPI éditeurs o Relation avec l’éditeur, comitologie en interne et avec l’éditeur Compétences • Forte expérience en maîtrise d’ouvrage et en support sur les métiers liés au franchissement de seuil (seuils, types, déclarations, etc.) et OPA. • Connaissance approfondie de l’outil Signal de CSS/Confluence (paramétrages, configuration des règles d’alertes, ETL Studio, etc.) • Connaissance approfondie sur l’implémentation de Signal chez d’autres clients • Connaissance des règles de franchissements de seuils règlementaires et statutaires sur plusieurs juridictions (EU, USA, G20), OPA, règles sur l’actionnariat (loi Florange) • Connaissance approfondie de l’anglais (éditeur anglophone) • Connaissance approfondie du langage SQL. • Connaissance approfondie d’Excel (VBA, TCD, etc.) et la programmation (Python). • Connaissance des marchés et des instruments financiers • Connaissance des plateformes (Refinitiv) Démarrage: ASAP Durée Longue
Offre d'emploi
Expert TECHNIQUE Cyber & DevSecOps – IA / GenAI & Azure (N3)
Publiée le
Azure
Azure AI Foundry
DevSecOps
3 ans
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un expert technique cyber & DevSecOps spécialisé IA / GenAI pour renforcer une équipe sécurité déjà structurée (GRC + pilotage en place). Mission orientée mise en œuvre technique , pas du pilotage. 🎯 Votre rôle Intégrer l’équipe sécurité et prendre en charge la sécurisation avancée de la stack Azure IA / GenAI : Azure AI, Cognitive Services, Azure Machine Learning, Azure OpenAI M365, Power Platform, Fabric Intégrations data (Snowflake…) Vous intervenez comme référent technique auprès des devs, data engineers & data scientists. 🔧 Missions techniques Design & déploiement des contrôles de sécurité Azure / IA RBAC, Conditional Access, MFA, PIM Réseau, identité, isolation des environnements Sécurisation des services IA et des données exposées DevSecOps – CI/CD sécurisés Scans, policy-as-code, sécurité IaC (Terraform / Bicep) Configuration avancée des solutions Microsoft Security : Sentinel, Defender for Cloud, Purview Revue de code, pipelines, IaC Mise en place d’automatisations : PowerShell / Python 🧠 Expertise IA / GenAI attendue Capacité à challenger, corriger, sécuriser des implémentations GenAI : prompt injection data/model poisoning fuite de données risques agentiques / escalade via LLM bonnes pratiques de gouvernance et isolation des données 📦 Livrables Blueprints & architectures de sécurité GenAI sur Azure Configurations sécurisées + règles Sentinel / Defender / Purview Analyses de risques & mesures de mitigation Reporting technique : posture, vulnérabilités, remédiations
Mission freelance
Architecte Réseau Sénior – Environnement Bancaire
Publiée le
BGP (Border Gateway Protocol)
Cisco IOS
DNS
36 mois
Guyancourt, Île-de-France
Télétravail partiel
Nous recherchons un Architecte Réseau sénior pour intervenir sur la conception et l’évolution d’infrastructures réseau critiques au sein d’un environnement bancaire de grande envergure. Vous serez responsable des choix d’architecture, du cadrage technique et de l’accompagnement des équipes projets. Concevoir des architectures réseau performantes, sécurisées et scalables Analyser les besoins métiers et rédiger des études techniques de cadrage Définir et chiffrer les scénarios d’architecture Sélectionner les solutions techniques et fournisseurs Rédiger la documentation d’architecture et les schémas Participer aux phases de build, tests et déploiements Assurer l’interface avec les équipes d’ingénierie, d’exploitation et les autres architectes Environnement technique Cisco NX-OS / IOS-XR, VXLAN EVPN, MPLS SR, BGP, OSPF, SDN (ACI, NSX-T), F5, DNS, NFV, OpenShift (Cilium).
Mission freelance
Data Analyst Informatica
Publiée le
Azure
ETL (Extract-transform-load)
Informatica
1 an
300-460 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Offre d'emploi
Chef de projet Data
Publiée le
Business Object
Microsoft Power BI
Shell
1 an
Paris, France
Pour un client du secteur bancaire , nous recherchons un Chef de Projet Data avec 8 à 10 ans d’expérience . Démarrage ASAP – URGENT Compétences clés Connaissance du domaine Finance Expérience bancaire Power BI, Business Objects, Shell Missions principales Pilotage et coordination de projets Data / BI Encadrement et coordination d’équipes techniques Recueil et analyse des besoins métiers Suivi des développements, gestion des risques, planning et reporting Animation des comités et communication projet Garantie de la qualité des livrables (SFG/SFD, tests, MEP, documentation)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
5461 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois