Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 692 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer Big Data

Signe +
Publiée le

24 mois
45k-50k €
322-500 €
Saint-Denis, Île-de-France
Contexte: Nous recherchons un Data Engineer Expérimenté/Senior spécialisé en environnement Big Data OnPremise pour une mission dans le cadre de l'exploitation, du maintien en conditions opérationnelles et des évolutions du Data Lake OnPremise (DataStore). Le collaborateur s'intégrera dans une équipe de 14 développeurs et contribuera également aux travaux liés à la migration progressive du Data Lake vers GCP. Missions : Exploitation et maintenance des traitements Big Data : supervision, intégration des données, contrôle qualité. Développements et évolutions sur les pipelines existants (Spark, Kafka, NIFI). Optimisation des performances et maintien des services DataStore. Gestion des incidents niveau 3 : diagnostic, correction, suivi JIRA/ITZMI. Participation aux évolutions applicatives, aux travaux transverses et aux actions préparatoires à la migration Cloud. Profil : Data Engineer Tech Lead Compétences techniques requises : Spark Kafka NIFI HDFS HBase Airflow Python SQL Technologies complémentaires : Java Scala BigQuery
Freelance

Mission freelance
POT8989 - Un consultant DevSecOps PKI / Sécurité Sur Lyon

Almatek
Publiée le
Ansible

6 mois
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients ,Un consultant DevSecOps PKI / Sécurité sur Lyon. Description de la mission Projet MCO / RUN sur produit PKI (Public Key Infrastructure) dans zones sécurisées Mise à plat des gestes d’exploitation (MCO et MCS) pour former un infogérant Finalisation des outils d’exploitation (supervision, logs…) Mise à jour de la documentation et intégration dans le catalogue de service ENEDIS Poursuite de l’automatisation des gestes d’exploitation Équipe actuelle : 3 équipiers PKI, 1 référent technique, 1 Scrum, 1 PO Profil recherché DevSecOps orienté PKI / Sécurité, confirmé (pas junior) Expérience précédente chez ENEDIS appréciée Compétences techniques PKI / Hashicorp Vault Sécurité / durcissement des systèmes Administration HSM Thales Administration point de distribution CRLs Linux (RedHat, Debian) et Windows Server Automatisation déploiements : Ansible, Jenkins Python OpenStack Grafana GitLab CI Apache / Nginx Processus internes ENEDIS Méthodologie & autres Agilité : Spring planning, Sprint review, rétrospective, Daily Rédaction de documentation technique et utilisateur Mobilité : déménagement possible pour Lyon
Freelance

Mission freelance
Lead Developpeur Full Stack (H/F)

Insitoo Freelances
Publiée le
Angular
AWS Cloud
Entreprise Java Bean (EJB)

2 ans
500-700 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Lead Developpeur Full Stack (H/F) à Lyon, France. Contexte : Dans le cadre du changement et de l'évolution des produits, nous cherchons des lead développeurs certifiés Les missions attendues par le Lead Developpeur Full Stack (H/F) : Piloter techniquement l’équipe de développement. Garantir la qualité des livrables techniques Assurer la cohérence de l’architecture logicielle et des pratiques de développement Contribuer activement à la conception, au développement et au maintien en conditions opérationnelles du produit Définir la stratégie de développement du produit (architecture, technologies, bonnes pratiques) Accompagner techniquement les développeurs : revue de code, pair programming, aide à la montée en compétences Participer activement au développement des fonctionnalités du produit (BUILD) Intervenir sur les activités de maintenance et de correctifs applicatifs (RUN) Veiller à la qualité du code, au respect des bonnes pratiques (tests, CI/CD, sécurité) Certification OBLIGATOIRE AWS Developer Associate & AWS Solution Architect Associate Profils LYONNAIS OU ENVIRON OBLIGATOIRE 2 jours non consécutifs sur site ET 3 jours de télétravail Back-end : Java 21 Spring Boot 3.5 Liquibase 5 Front-end : Angular 20 TypeScript
Freelance

Mission freelance
Un Expert Dynatrace sur Nanterre

Almatek
Publiée le
Big Data
Dynatrace
Hadoop

6 mois
Nanterre, Île-de-France
Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R
Freelance

Mission freelance
Cash Management - Project Management - Business Analyste KYC Industrialisation

NOVAMINDS
Publiée le
Data management
Know your customer (KYC)

9 mois
500-690 €
Paris, France
Objectifs Mise en place d'un parcours KYC optimum cross pôles et entités au service de la réalisation des KYC clients Corporate. Initiative logée au sein du programme Groupe. Prestations - Etude de la Cinétique du process KYC E2E - Analyses approfondies des besoins métiers et projeter des améliorations - Product ownership pour prioritiser les fonctionnalités - Aide à l'organisation du projet : planning, roadmap, scope - Préparation et animation des workshops avec le business afin de collecter les besoins fonctionnels - Création du lient avec les contributeurs, Compliance et IT implémenter les solutions - Participation aux tests de validation et coordination des UATs - Aide sur les comminations en français et en anglais - Participation si besoin au steering et partage de statut d'avancement sur le stream Secteur d’activité : Banque Calendrier : du 09/03/2026 au 31/12/2026 Tarif d’achat maximum : 690 €HT Modalité d’intervention : hybride Mode d’engagement : Régie Localisation : Ile de France
Freelance

Mission freelance
Cloud Network & Automation Engineer AWS

Tenth Revolution Group
Publiée le
CI/CD
Datadog
Linux

3 mois
110-550 €
Paris, France
Vous ne serez pas là pour “maintenir des routeurs”. Votre mission : coder, automatiser, sécuriser et scaler une plateforme IoT critique utilisée par des centaines de collectivités. Vos responsabilités principales : Automatisation & développement : scripts et outils réseau en Python / TypeScript, workflows et APIs, IaC (Terraform/CDK), pipelines CI/CD (GitHub Actions). Réseau cloud & scalabilité : VPC, routing, firewalling, VPN, peering, diagnostic d’incidents réseau à grande échelle, gestion de routeurs IoT 4G/5G. Sécurité by design : rotation automatique de certificats, hardening cloud et réseau, conformité cloud souverain. Observabilité & fiabilité : dashboards, alerting, SLO, automatisation de la détection et remédiation d’incidents, amélioration de la fiabilité globale. ✨ Pourquoi ce poste est unique : plus de code que de configuration, impact direct sur un produit utilisé par des centaines de collectivités, sujets souveraineté, sécurité et performance, équipe qui automatise tout.
Freelance

Mission freelance
Data Manager / Data Steward

Codezys
Publiée le
Data management
Data quality
Lean

12 mois
Rennes, Bretagne
Nous recherchons un profil capable de renforcer notre équipe de Data Management afin de soutenir la réalisation de nos engagements concernant nos offres de services dans ce domaine. Cette personne accompagnera également nos parties prenantes métier dans leurs projets liés à la gestion des données. ENJEUX La mission vise à garantir le succès des initiatives métier portant sur le catalogage des données et leur nettoyage, en particulier lors de projets de transformation majeurs. OBJECTIFS Contribuer à l’enrichissement et au renforcement de notre offre de services en Data Management (méthodologies, outils, formations, accompagnement au changement…) Faciliter la collaboration entre les équipes (Data, IT, architecture, métier) autour de la gestion des données (catalogage, qualité, documentation, sécurité, modélisation…) Professionnaliser et accompagner la montée en compétences des Data Owners, Data Stewards et Data Custodians concernant leurs rôles liés à la qualité des données Participer à l’amélioration de la culture Data au sein de l’organisation Le périmètre technique englobe : Data Gouvernance Data Management Data Quality DAMAS Méthodologies Lean et Agile Outil Blueway MyData Catalogue Tout le système d’information, incluant SIO et legacy Intelligence artificielle Objectifs et livrables Les prestations attendues, non exhaustives, comprennent : Cataloguage de données : réalisation de projets de documentation métier et technique, intégration dans l’outil My Data Catalog Data Quality Management : audits de qualité, propositions de plans de remédiation Accompagnement au changement, formation et sensibilisation Data : formation à l’utilisation de My Data Catalog, accompagnement individuel ou collectif (1 à 1, ateliers) Communication : création et diffusion de newsletters, publications sur l’intranet Participation à des réunions de communauté : Data Owners, Data Stewards, Data Custodians Les livrables attendus comprennent : Les catalogues de données dans l’outil My Data Catalog Les résultats des audits de qualité des données Supports de formation sur les outils et méthodologies de Data Management Newsletter ou autres publications destinées à la communication interne
Freelance
CDI

Offre d'emploi
Lead DevOps (CKAD)

Craftman data
Publiée le
Argo CD
Docker
FLUXCD

1 an
46k-60k €
500-700 €
Le Havre, Normandie
Rôle attendu Référent technique opérationnel de la squad DevOps, responsable de l’implémentation des pipelines CI/CD et de la démarche GitOps. Missions principales · Mise en œuvre et maintien des pipelines CI/CD · Déploiement d’une approche GitOps (ArgoCD / FluxCD) · Industrialisation des builds, tests, déploiements et rollbacks · Structuration des repositories GitOps · Supervision technique des ingénieurs DevOps Compétences requises · Jenkins, GitHub Actions, GitLab CI · ArgoCD, FluxCD · Docker (multi-stage builds) · Helm (charts, templating, hooks) · Vault, External Secrets · SonarQube, tests automatisés GitLab CI, Nexus, Root-Ceph
Freelance

Mission freelance
MLOps / Tech Lead Plateforme IA

Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake

12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance
CDI

Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort

EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis

3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Freelance
CDI

Offre d'emploi
Développeur Java Spring F/H

ADDIXWARE
Publiée le
Java
Springboot

1 an
38k-41k €
350-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte & Missions Dans le cadre de notre croissance, nous recherchons un Développeur Java / Spring confirmé pour renforcer notre équipe de développement. Vous interviendrez sur des projets applicatifs à forte valeur ajoutée, alliant performance, qualité de code et innovation technique. Vos principales responsabilités : - Concevoir, développer et maintenir des applications Java / Spring Boot - Participer à la définition de l'architecture et aux choix techniques - Mettre en oeuvre des API REST robustes, performantes et sécurisées - Contribuer aux revues de code, à la qualité logicielle et à la mise en place de bonnes pratiques - Collaborer étroitement avec les équipes Produit, QA et Ops - Participer à l'amélioration continue : optimisation, refactoring, automatisation - Travailler en méthodologie Agile (Scrum) au sein d'une équipe dynamique Stack technique Java 11+, Spring Boot, Spring MVC, Spring Data, Hibernate API REST, JSON Maven ou Gradle Docker, CI/CD (GitLab, Jenkins...) PostgreSQL / MySQL / Oracle Outils : Git, Jira, Confluence Connaissances appréciées : microservices, Kubernetes, cloud (AWS / Azure)
Freelance

Mission freelance
Ingénieur Sécurité Réseau Confirmé / Expert – Secteur Retail

LINKWAY
Publiée le
Administration réseaux
Ansible
AWS Cloud

6 mois
Île-de-France, France
Dans un contexte de transformation numérique accélérée et de sécurisation accrue des infrastructures critiques, nous recherchons pour l'un de nos clients majeurs du secteur Retail un Ingénieur Sécurité Réseau Confirmé/Expert . Intégré(e) au sein de la Direction des Systèmes d'Information, et plus spécifiquement au cœur de l'équipe Infrastructure et Sécurité en Île-de-France, vous jouerez un rôle pivot dans le maintien, l'évolution et la protection du patrimoine numérique de l'entreprise. Vos responsabilités s’articuleront autour de cinq axes stratégiques majeurs : Architecture et Ingénierie Complexe : Vous serez en charge de concevoir, planifier et déployer des architectures réseaux robustes et sécurisées. Cela implique une maîtrise parfaite des environnements hybrides. Vous devrez garantir la cohérence des flux entre les infrastructures On-Premise et les environnements Cloud (Public et Privé). Vous travaillerez sur la segmentation réseau, la sécurisation des "Landing Zones" dans le Cloud Public (AWS, GCP, Azure) et l'optimisation des architectures existantes pour répondre aux exigences de scalabilité du métier. Maintien en Condition Opérationnelle (MCO) et Sécurité Périmétrique : Vous assurerez l'administration avancée des équipements de sécurité. Votre expertise sur les firewalls (Palo Alto, Fortinet, Forcepoint) sera sollicitée quotidiennement pour la gestion des règles, les mises à jour de firmware et l'analyse des logs de sécurité. De plus, vous gérerez les solutions de répartition de charge (F5 LTM/GTM) pour assurer la haute disponibilité des applications critiques du groupe, ainsi que les services d'accès distants (VPN) et l'infrastructure DNS, vitale pour la connectivité des magasins et du siège. Approche "Service Oriented" et Projets Métiers : Au-delà de la technique, vous agirez comme un partenaire pour les équipes métiers. Vous participerez activement aux phases de cadrage des nouveaux projets applicatifs pour intégrer les contraintes de sécurité et de réseau dès la conception ("Security by Design"). Votre capacité à vulgariser les contraintes techniques pour les interlocuteurs non-techniques sera un atout majeur pour fluidifier les déploiements. Automatisation et Modernisation (NetDevOps) : L'un des enjeux clés de cette mission est la réduction du RUN et des tâches chronophages à faible valeur ajoutée. Vous serez moteur dans l'adoption de pratiques d'automatisation. En vous appuyant sur des outils comme Ansible, Netbox ou Nautobot, vous développerez des scripts et des workflows pour industrialiser la configuration des équipements et la gestion des inventaires, permettant ainsi à l'équipe de se concentrer sur l'ingénierie. Expertise, Support et Amélioration Continue : En tant que référent technique, vous apporterez votre expertise lors d'incidents complexes (niveau 3) nécessitant une analyse fine des paquets et des flux. Vous serez également force de proposition pour l'amélioration continue de l'infrastructure : veille technologique, identification des dettes techniques, et proposition de plans d'action correctifs. Enfin, vous garantirez la pérennité du savoir en produisant une documentation d'exploitation (DAT, DEX, modes opératoires) rigoureuse et à jour.
Freelance

Mission freelance
[LFR] Expert sécurité Cloud AWS/GCP à Guyancourt - 1253

ISUPPLIER
Publiée le

10 mois
300-545 €
Guyancourt, Île-de-France
Vous travaillerez en lien étroit avec l’équipe d’expertise Cyber et les équipes qui gèrent les offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Ceci afin d’accompagnerez la révolution #devops #Cloud des entreprises du groupe Crédit Agricole avec la mise en place sécurisée de briques technologiques innovantes autour des patterns d'architecture #Container, #Hybridation, #Cloudpublic. Vous participez à la mise en place de mesures et de pratiques de cybersécurité liées aux évolutions du système d’information ou à sa règlementation. Au jour le jour, votre rôle sera d’assister CA-GIP sur les missions Run Sécurité suivantes : Lutter contre les vulnérabilités Cloud : • Administrer l’outil CNAPP qui permet de gérer les vulnérabilités, les audits de configuration et les comportements à risque de nos environnements cloud publics. • Assurer l’adoption de l’outil auprès des utilisateurs : Documentation, formation, accès, amélioration, suivi des bugs, suivi des licences • Aider à maintenir tous les contrôles, politiques et procédures à jour en fonction des normes de l'industrie dans un objectif d'amélioration continue. Bâtir une gouvernance sécurité transverse : • Assurer le pilotage global des risques opérationnels détectés sur ce périmètre par les différents outils en place. • Coordonner les parties prenantes (dev, secops, infra, référents sécurité) • Produire des indicateurs de suivi de la sécurité opérationnelle afin d’apporter de la visibilité et de la confiance. • Surveiller, gouverner et valider le niveau de maturité et de conformité aux référentiels (ISO, NIST, RGPD, IA Act.) Accompagner les équipes techniques : • Animer des atelier pour aider les équipes techniques à qualifier les vulnérabilités et à répondre aux alertes sur leurs actifs projets. o Contextualiser les vulnérabilités découvertes selon l’environnement CA-GIP o La participation et le soutien technique à la résolution des vulnérabilités o L’assistance des équipes techniques à la mise en place des bonnes pratiques de cybersécurité pour les clouds publics o L’affectation des vulnérabilités aux bonnes équipes, automatiquement ou manuellement • Former les développeurs et data scientists aux bonnes pratiques de sécurité Participer à la vie de l’équipe sécurité : • Analyser les risques liés aux projets. • Rédiger des expressions de besoins de sécurité • Transmettre la connaissance et montée en compétence de la sécurité cloud des équipes. • Coopérer avec les pairs et la communauté de la cybersécurité au sein de CA-GIP pour établir une relation de travail collaborative globale, créer une adhésion et une base solide pour les décisions des parties prenantes. Compétences recherchées Compétences métiers :  Création, intégration & administration d’infrastructure Cloud Public (AWS/Google Cloud Platform) de façon sécurisée.  Familier de la méthodologie de déploiement en continu (Gitlab, infrastructure as code, CI/CD, Terraform) [DevOps]  Compétences système et en développement (Linux, Python, Javascript, ..)  Connaissance dans l’intégration des contrôles de sécurité dans la chaine de développement et les plateformes d’exécution cloud native (audit de code, security as code).  Outils de protection des applications cloud natives (CNAPP, KSPM, CWPP, Dome9, Wiz, ...)  Connaissances des normes et technologies propres à la cyber sécurité  Connaissances des bonnes pratiques d’audit IT  Connaissances des normes liées à la gestion des risques de conformité réglementaire.  Vous êtes capable de promouvoir les bonnes pratiques sécurité sur les sujet Cloud.  Capacité à créer et présenter des sujets complexes à différentes populations de personnes (Techniques, Manageurs…) Compétences comportementales : • Autonome et organisé ; • Bonne capacité à travailler en équipe ; • Bon relationnel et réactif; • Capacité à fédérer et entraîner derrière soi ; • Une bonne gestion des priorités ; • Force de proposition et amélioration continue ; • Un grand sens de l'analyse afin de gérer les projets de transitions, et d'anticiper les problèmes techniques potentiels. • Aptitude à s’adapter à ses interlocuteurs dans la communication Langues Anglais opérationnel
Freelance
CDI

Offre d'emploi
Mission freelance - Cloud Service Manager - Gouv AWS - Nantes 3j sur site - Freelance ou Portage

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Contract Management
FinOps

3 ans
Nantes, Pays de la Loire
Bonjour Pour un client basé à Nantes je recherche un Cloud Service Manager Pilotage et Gouvernance Cloud 🎯 Objectif Garantir la qualité la conformité et l optimisation des services cloud privé et public Travailler en binôme avec le Service Manager pour piloter la prestation cloud Être l interface entre fournisseurs équipes IT et métiers 🚀 Missions • Challenger les fournisseurs cloud AWS Azure cloud privé sur la technique la sécurité la conformité et la performance • Analyser l impact des services cloud sur le SI interne et améliorer la qualité de service • Accompagner les équipes IT sur les bonnes pratiques cloud • Coordonner les demandes entre équipes internes et partenaires • Suivre les consommations produire des reportings optimiser les coûts logique FinOps • Veiller aux contrôles conformité sécurité audits obsolescence • Assurer le backup du Service Manager 🛠 Compétences • Bonne maîtrise AWS ( important ) et cloud privé • Connaissance gouvernance IT FinOps sécurité cloud ITIL • Expérience gestion fournisseurs • Capacité à échanger avec technique et métier • Esprit analyse synthèse priorisation 👤 Profil • 5 à 8 ans expérience cloud ITSM ou architecture • 3 à 5 ans pilotage fournisseurs infrastructure • Certifications AWS ITIL FinOps Cloud Security appréciées • Profil senior orienté gouvernance pilotage optimisation coûts sécurité AWS • Capable de faire le lien entre technique et métier 📍 Freelance ou portage 📅 Disponibilité sous 1 mois max 🏠 Basé à Nantes ou prêt à se rapprocher ( 3 jours sur site) à bientôt
CDI
Freelance

Offre d'emploi
Data Pipeline Analyst - NL / FR

AEROW
Publiée le
Data analysis
Data management
Data visualisation

2 ans
Bruxelles, Bruxelles-Capitale, Belgique
Attention, le poste est basé à Bruxelles, avec une présence de 2 jours minimum sur site. La mission combine analyse de données , modélisation sémantique (Linked Data) , compréhension des data pipelines et pilotage de petits projets data , en lien étroit avec les équipes métier , Data & Digital et ICT . Objectif : garantir la cohérence, l’interopérabilité et la réutilisabilité des données et livrer des analyses et dashboards exploitables. Responsabilités clés Cadrage & pilotage : recueil/analyse des besoins, définition du scope, objectifs, livrables et planning pour projets data de petite à moyenne envergure ; suivi d’avancement, coordination fonctionnelle et communication vers les parties prenantes ; respect du scope, délais et qualité. Analyse de données & pipelines : analyse des sources/flux/transformations et modèles ; contribution à la définition/optimisation des data pipelines ; identification d’axes d’amélioration (qualité, fiabilité, performance, réutilisabilité). Modélisation sémantique : conception/évolution de modèles RDF/OWL (Linked Data) pour l’interopérabilité. Livrables analytiques : réalisation d’analyses pour cas d’usage opérationnels ; développement de rapports, KPI et tableaux de bord ; validation avec les utilisateurs. Coordination transverse : interface fonctionnelle entre Business, Data & Digital et ICT ; animation d’ateliers et facilitation de la décision ; alignement avec la roadmap Data & Digital et les standards. Documentation & transfert : documentation des analyses, choix fonctionnels et modèles via Sparx Enterprise Architect ; formalisation des bonnes pratiques ; transfert de connaissances vers les équipes internes
5692 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous