Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 554 résultats.
Freelance

Mission freelance
Architecte Fonctionnel/Technique

Publiée le
AWS Cloud
Azure DevOps
Gitlab

1 an
400-590 €
Paris, France
Contexte : Au sein du département Architecture Technique, nous recherchons une expertise en architecture technique pour une mission visant à accompagner les projets métiers et IT, en apportant un haut niveau de compétence et de conseil en matière d’architecture technique. Architecture fonctionnelle et/ou technique : Elaboration de l'architecture fonctionnelle globale du SI et de sa trajectoire de mise en œuvre à partir des orientations métiers et stratégiques de l'entreprise. Déclinaison de l'architecture fonctionnelle globale du SI pour les différents projets contribuant à son évolution, avec prise en compte de la vision transversale et de la cohérence entre projets et domaines métiers. Définition de l’architecture technique de tout ou partie de l'infrastructure des systèmes d’informations (bases de données, réseaux, téléphonie, postes de travail, outils et systèmes ...), en s'assurant de la cohérence et de la pérennité de l’ensemble des moyens informatiques et en respectant le plan d’urbanisme de l’entreprise. Cohérence globale de la cartographie au niveau technique, des référentiels et de l’architecture infrastructure cible. Périmètre détaillé : Stratégie : Contribue à l’élaboration du plan stratégique SI. Contribue aux choix de nouvelles solutions répondant aux besoins de l’entreprise, en cohérence avec les recommandations et solutions en place, et plus globalement avec la stratégie SI. Effectue une veille technologique du marché et promeut des solutions innovantes adaptées à l’entreprise. Conception du SI : Construit et maintient les normes et les principes d’architecture du SI et pilote la documentation idoine et met à jour le référentiel de l’entreprise. À partir des stratégies et des besoins des directions Métiers : Analyse, les impacts des nouvelles solutions sur le SI. Propose des évolutions pour les différents produits et services Métier. Propose des évolutions de l’architecture du SI en tenant compte des différents modèles de services. En assurant un SI d’entreprise cohérent et performant, élabore des recommandations pour pouvoir intégrer en toute sécurité de nouvelles solutions SI au sein de l’entreprise. Amélioration continue : Promeut les orientations liées à l’architecture du SI. De manière pédagogique, faciliter le transfert de connaissance, d’expérience et de bonnes pratiques au sein des équipes responsables de l’architecture du SI. Gestion de la connaissance : Communique et partage les principes d’architecture, les standards SI et l’innovation SI avec les communautés des architectes SI. Livrables : Le référentiel d’architecture d’entreprise (normes & standards, cartographie, processus, vocabulaire.)
Freelance

Mission freelance
Data Engineer (IA/Géospatial) (H/F)

Publiée le
MLOps
Python

6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
CDD
Freelance
CDI

Offre d'emploi
Expert Centreon Cloud

Publiée le
Centreon
Cloud

90 jours
50k-70k €
400-550 €
Saint-Ouen-sur-Seine, Île-de-France
Télétravail partiel
Nous recrutons un Expert Centreon pour piloter un projet stratégique de migration vers Centreon Cloud . Si vous maîtrisez la supervision IT et souhaitez relever un défi technique majeur! Description du poste : En tant qu’ Expert Centreon , vous serez responsable de la conception, de la migration et de l’optimisation des environnements de supervision vers Centreon Cloud , garantissant performance, sécurité et continuité de service. Responsabilités : ✔ Analyser l’infrastructure actuelle et définir la stratégie de migration. ✔ Préparer et configurer l’environnement Centreon Cloud . ✔ Migrer les configurations (hôtes, services, templates) et les données historiques. ✔ Mettre en place les collecteurs distants et optimiser la supervision hybride. ✔ Assurer la sécurité, la conformité et la haute disponibilité. ✔ Former les équipes et rédiger la documentation technique. ✔ Assurer le support post-migration et le suivi des performances. Compétences requises : Expertise Centreon (On-Premise & Cloud). Maîtrise des environnements Linux et bases MySQL/MariaDB. Connaissance des protocoles SNMP, SSH, API. Compétences en scripting (Bash, Python) pour automatisation. Bonnes notions de sécurité et réseau.
Freelance

Mission freelance
Product Owner Technique

Publiée le
AWS Cloud
FinOps

210 jours
580-600 €
Paris, France
L’entreprise recherche un Product Owner Technique pour piloter une plateforme d’outils et services orientés résilience, performance et optimisation des coûts à destination des équipes de développement. Le rôle se situe au cœur des enjeux SRE, FinOps et Cloud AWS , avec un fort niveau d'interaction avec Tech, SRE, Ops et les équipes de dev. Vos responsabilités s'articuleront autour de cinq axes majeurs : 1. Piloter les produits orientés « Résilience / Robustesse / FinOps » de la plateforme • Identifier les besoins prioritaires en appliquant les méthodologies adaptées (story mapping, etc.) • Organiser le backlog en fonction de la valeur apportée (User Stories techniques, Epics), en tenant compte des critères de fiabilité, sécurité et coût, tout en garantissant une capacité de développement réaliste • Assurer le suivi de la construction et des services de la plateforme via les différentes instances d'équipe (Daily Stand-up Meeting, affinage du backlog, etc.) 2. Piloter le niveau de performance du produit (Plateforme) • Être l'interlocuteur privilégié des équipes de développement (vos parties prenantes) sur ces sujets • Assurer le suivi des anomalies (incidents, bugs de plateforme) pour garantir rapidement les corrections nécessaires lors des déploiements post-mortem • Co-construire et suivre les indicateurs de performance des services (SLOs/SLIs) et mesurer le succès des releases (tracking, métriques DORA et DevEx, KPI FinOps, OKRs) • Proposer des améliorations (optimisations SRE, recommandations FinOps) basées sur les données et insights collectés 3. Partager la vision et les ambitions de la plateforme • Participer et contribuer aux points de suivi réguliers avec les parties prenantes (Lead Devs, Architectes, Staff Engineers, Management) • Recueillir les besoins des stakeholders pour faire évoluer la plateforme au quotidien 4. Participer à l’émergence des ambitions stratégiques (Roadmap) • Définir les orientations qui guideront nos enjeux Produit (fiabilité, scalabilité, maîtrise des coûts), en s'appuyant sur les objectifs de l'entreprise et de la Direction Technique • Contribuer à la définition et à la proposition de valeur de la plateforme ainsi qu'aux critères de succès (KPIs SRE & FinOps), en s'appuyant sur la démarche Accelerate et en déclinant la vision tech partagée par le CTO. 5. Être moteur de l'amélioration des pratiques internes • Promouvoir l'amélioration continue des pratiques (REX, benchmark des outils SRE/Cloud)
Freelance

Mission freelance
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble

Publiée le
ETL (Extract-transform-load)

6 mois
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
Freelance

Mission freelance
DATA MANAGER

Publiée le
Data cleaning
Data governance
Data quality

3 ans
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Gouvernance des données Définir les standards de gestion et gouvernance des données. Assurer la mise en conformité avec les réglementations (RGPD, CCPA). Qualité et sécurité Mettre en place des contrôles automatisés et surveiller la qualité des données. Sécuriser les accès et protéger les données sensibles. Exploitation et partage Standardiser les processus d’accès aux données. Accompagner les équipes métiers dans leur exploitation des données. Éthique et conformité Vérifier la conformité des analyses et modèles. Sensibiliser les équipes à l’éthique des données. Compétences Gouvernance : Standards, gestion des métadonnées. Sécurité : Chiffrement, contrôle des accès. Architecture : Structuration des modèles de données en couche Business, Solution et Exposition, Collaboration : Formation, animation de workshops Expérience utilisateur : Storytelling, recueils feedback Indicateurs de performance Taux de conformité aux standards. Qualité des données et réduction des erreurs. Performance des processus de gouvernance. Sécurisation et protection des données.
Freelance

Mission freelance
DATA MANAGER / REF GOUVERNANCE DE DE DONNEES

Publiée le
Collibra
Data governance
Gouvernance

1 an
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Référent Gouvernance de Données / Data Steward pour une mission freelance au sein d’une équipe transverse Data. Ce rôle stratégique consiste à accompagner les équipes produits digitaux dans l’exposition et la qualité de leurs données, en garantissant le respect des règles de gouvernance définies au niveau groupe. Le consultant sera le point de référence sur la gouvernance des données , travaillera en autonomie et interagira régulièrement avec les autres référents data des différentes plateformes pour harmoniser les pratiques et contribuer à l’amélioration continue. Missions principales : Accompagner les équipes produits dans l’exposition de leurs données selon les standards de gouvernance. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques et des modèles de données. Contribuer à la modélisation des données et à la valorisation des données de référence. Livrables attendus : Données exposées selon les règles de gouvernance définies. Règles de qualité déployées et respectées. Évaluation du respect des standards de gouvernance.
Freelance

Mission freelance
Data Automation Engineer Confirmé

Publiée le
CI/CD
Dataiku
DevOps

6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
CDD
CDI

Offre d'emploi
Ingénieur DevOps Confirmé Projet CKISA - Sophia Antipolis(H/F)

Publiée le
CI/CD
GED (Gestion Électronique des Documents)
Jenkins

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte & Mission Dans le cadre du lancement d’un nouveau logiciel destiné à la gestion de crise dans le secteur médical, nous recherchons un Ingénieur DevOps Confirmé pour intégrer une équipe de 5 à 10 personnes . La solution inclura plusieurs modules : Communication en situation de crise Gestion des patients Services bureautiques Consultation & GED Services applicatifs innovants Le DevOps sera fortement sollicité au début du projet pour installer les outils, configurer les environnements et mettre en place les CI/CD. 🛠️ Missions principales Mettre en place les pipelines CI/CD (Jenkins) Automatiser les processus de build, test et déploiement Concevoir et gérer l’orchestration Docker / Kubernetes Gérer les environnements et l’infrastructure technique Contribuer aux spécifications et à la documentation Participer aux cérémonies Agile (Scrum) Surveiller et optimiser les performances Documenter, partager et améliorer les bonnes pratiques DevOps 📦 Livrables attendus Code, scripts & charts Documentation technique Spécifications techniques 🧰 Compétences techniques indispensables 🔥 Impératives Kubernetes – Confirmé Jenkins – Confirmé ⭐ Importantes Docker / Containers – Confirmé Nexus – Junior 🔧 Autres compétences appréciées Git / Maven Splunk – OpenSearch OpenID Connect – Keycloak Bases de données relationnelles Jira – Confluence Agile Scrum Normes qualité & sécurité Expérience dans le domaine médical → plus apprécié 🌍 Langues Français courant (impératif) Anglais lu/écrit 👤 Profil recherché Bac+2/3 à Bac+5 (école d’ingénieur, master) Minimum 4 ans d’expérience en DevOps Expérience déjà prouvée en : Automatisation et pipelines CI/CD Gestion de configuration Infrastructure Docker/Kubernetes Excellent communicant, autonome, collaboratif Esprit agile, adaptabilité, curiosité technique Capacité à monter en compétence rapidement
Freelance

Mission freelance
Consultant Infrastructure

Publiée le
AWS Cloud

6 mois
400-500 €
Villeneuve-d'Ascq, Hauts-de-France
Au sein de la Business Unit Data, les équipes Data Platform sont chargées des outils et des bonnes pratiques pour les différents profils des équipes data. Nous accompagnons au quotidien l’ensemble des acteurs de la Data au sein du groupe et sommes responsables du maintien en condition opérationnelle de l'infrastructure de la DATA. Nous offrons également un accompagnement aux équipes techniques. L’équipe Data InfraOps innove tous les jours pour répondre au mieux aux besoins de notre plateforme. Nos enjeux sont : Une plateforme data entièrement multi-cloud (AWS-GCP) De la haute disponibilité, avec une plateforme résiliente et des technologies innovantes La sécurité au coeur de nos projets Les besoins de nos data scientist, data engineers data analystes, et développeurs traduits en solutions techniques. La mission est d’intervenir sur plusieurs produits de l’équipe. Le premier concerne, l’offre de compute via le service AWS EKS: Faire évoluer le produit à l’état de l’art et automatisation Récolter, comprendre, analyser et challenger les besoins utilisateurs (internes et externes à la plateforme) ; Ajouter et automatiser les nouveaux besoins; Mise à disposition de nouvelles ressources et accès en self service pour les projets; Maintien en condition opérationnelle et Support Assurer le maintien de l’offre en condition opérationnelle; Apporter un support de niveau 3; Suivre les évolutions du produit kubernetes et tout l’environnement CNCF; Sécurité et Observabilité S’assurer de la conformité de la sécurité des clusters Ajouter et maintenir les éléments d’observabilités des clusters Garantir la maintenabilité, l’évolutivité et la fiabilité du produit La deuxième mission concerne l’APIsation de la plateforme. Recenser les problématiques Ops et les traduire en solution technique dans le cadre d’une intercommunication entre les services de la plateforme via des API; Architecturer, Développer et maintenir les API; Assurer l’évolutivité et la maintenabilité des API La troisième mission consiste à animer techniquement l’équipe infraOps sur les bonnes pratiques DevOps : Assurer une automatisation en bout en bout de la chaîne de delivery des services; S’assurer de la qualité des livrables; Automatiser les process consommateurs en temps humain et source d’erreur; Sensibiliser l’équipe aux bonnes pratiques DevOps Les plus pour réussir : Mindset "Owner" et proactif : Ne pas se contenter de répondre aux demandes, mais anticiper les évolutions (technologiques et besoins utilisateurs), proposer des solutions d’amélioration continue et prendre la responsabilité de la qualité et de la performance des produits. Aptitude à la simplification et à l'automatisation totale : Avoir la conviction que toute tâche récurrente ou source d'erreur doit être automatisée. Savoir concevoir des solutions élégantes qui garantissent un véritable "self-service" pour les utilisateurs et une chaîne de livraison "end-to-end" fluide. Excellence en communication technique et pédagogie : Être capable de traduire des problématiques Ops complexes en solutions API claires, de challenger les besoins utilisateurs avec un esprit critique constructif, et surtout, d'animer et de transmettre les bonnes pratiques DevOps à l'équipe. Rigueur sur la sécurité et l'observabilité : Considérer la sécurité et l'observabilité non comme des tâches annexes, mais comme des éléments fondamentaux intégrés dès la conception, notamment dans l'environnement critique des clusters EKS. Veille technologique et innovation : Maintenir une curiosité constante sur l'écosystème CNCF (Kubernetes, etc.) et les tendances AWS, afin de maintenir l'offre de compute à l'état de l'art. Compétences : E
CDD
Freelance

Offre d'emploi
Tech Lead SRE / Site Reliability Engineer (H/F)

Publiée le
Ansible
AWS Cloud
Docker

12 mois
50k-65k €
480-550 €
France
Télétravail partiel
Vous rejoignez la Platform Team au sein de la Tribe Paiement de la Digital Factory en tant que Tech Lead SRE . Votre rôle : piloter la vision technique SRE, garantir la fiabilité des plateformes de paiement, et assurer la performance, la résilience et la scalabilité des environnements cloud. Vous serez le référent technique, le mentor de l’équipe SRE, et un acteur clé dans la définition des standards d’ingénierie, DevOps et SRE. Leadership & Vision technique Superviser l’ensemble des activités SRE de la Platform Team. Porter la vision d’architecture résiliente, scalable et moderne (cloud, conteneurs, automatisation). Définir les standards SRE , bonnes pratiques DevOps et orientations techniques : CI/CD, observabilité, sécurité, gestion des incidents. Encadrer et développer l’équipe SRE (mentorat, pair programming, formation). Architecture & Fiabilité Concevoir et faire évoluer l’architecture cible de la plateforme Paiement avec les architectes et Tech Leads. Définir et maintenir les blueprints d’architecture : réseau, sécurité, déploiement, observabilité. Participer aux choix technologiques et à l’urbanisation cloud (AWS). Exploitation & Automatisation Garantir le maintien en condition opérationnelle (MCO) de l’ensemble des applications Paiement. Optimiser les performances, la sécurité, la stabilité et la scalabilité des environnements. Construire et améliorer les pipelines CI/CD (GitLab CI) : tests, scans sécurité, qualité, déploiements progressifs. Automatiser les opérations répétitives (scripts, jobs, workflows). Support technique & gestion des incidents Analyser, corriger et suivre les tickets (ServiceNow, Jira) de niveau 3. Réaliser les opérations de maintenance, rattrapages d’incidents et opérations bulk. Participer aux handovers des nouvelles fonctionnalités en production. Produire des rapports techniques sur la performance et les incidents. Observabilité & Monitoring Mettre en place, maintenir et améliorer les dispositifs d’observabilité (Splunk Observability). Réagir rapidement en cas de panne, diagnostiquer les causes et proposer des solutions pérennes. Suivre l'état de santé des applications, lever les alertes et réaliser les premières analyses. FinOps & optimisation des ressources Suivre les coûts AWS, détecter les dérives et proposer des optimisations. Contribuer à une démarche FinOps structurée pour un usage maîtrisé du cloud.
Freelance

Mission freelance
Responsable DevOps

Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
400-620 €
Paris, France
Le Responsable DevOps devra encadrer et animer une équipe DevOps. Vous jouerez un rôle clé dans la gestion des produits et plateformes d’infrastructure en assurant leur disponibilité, leur performance, leur évolutivité, leur gestion de l’obsolescence, leur capacité et la maitrise des coûts OnPremise, Cloud ou hybride. Rattaché(e) au responsable de l’entité, vous serez responsable hiérarchique d’une équipe d’une vingtaine de personnes (collaborateurs et prestataires) de profils techniques devops Cloud Public et On Premise. Dans cette évolution organisationnelle, l’organisation hiérarchique est décorrélée de l’organisation opérationnelle. Le responsable DevOps devra donc travailler et s’organiser de façon transverse et étroite avec les Product Owner, le Product Manager et le responsable de l’entité sysops pour assurer le delivery et atteindre les objectifs en fonction des besoins. L’équipe DevOps de l’entité « Plateforme IT » a la responsabilité du build et du run des produits et plateformes d’infrastructures OnPremise et Cloud public.
Freelance
CDI

Offre d'emploi
Tech Lead DevOps

Publiée le
CI/CD
Cloud

3 ans
65k-70k €
520-600 €
Paris, France
Télétravail partiel
Vous managerez les activités de support avancé, de déploiement et d’automatisation. Vous piloterez l’intégration des composants et veillerez à la conformité et à la performance des solutions. Votre rôle Support technique avancé : Superviser l’intégration et la maintenance des solutions techniques en collaboration avec les autres pôles et sections concernés. Gérer les incidents complexes et proposer des solutions adaptées pour assurer la continuité des services. Déploiement des composants : Installer, configurer et valider les éléments d’infrastructure nécessaires aux projets et aux opérations courantes. Garantir la bonne exécution des déploiements dans le respect des délais et des standards définis. Collaboration inter-équipes : Travailler en étroite synergie avec la Section Outillage et Plateforme d’Ingénierie pour exploiter et optimiser les outils standardisés. Coordonner avec les équipes DevOps, architecture et exploitation pour assurer une intégration fluide des solutions. Optimisation des performances : Analyser les retours d’expérience pour améliorer en continu les solutions déployées. Identifier et mettre en œuvre des optimisations techniques en fonction des besoins opérationnels. Conformité technique : Veiller au respect des standards de qualité, de sécurité et de performance établis pour toutes les solutions intégrées. Mettre en place des contrôles et des audits réguliers pour garantir la conformité. Industrialisation et automatisation : Participer activement à l’industrialisation et à l’automatisation des processus d’intégration. Proposer des solutions innovantes pour réduire les interventions manuelles et améliorer l’efficacité globale.
CDI
CDD

Offre d'emploi
Ingénieur DevOps Confirmé Accompagnement Évolution Produit- Sophia Antipolis (H/F)

Publiée le
CI/CD
Kubernetes

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre de l’évolution continue d’un produit stratégique, nous recherchons un Ingénieur DevOps Confirmé pour accompagner la construction, l’automatisation et l’optimisation des environnements techniques. La mission est orientée Kubernetes , CI/CD , Infrastructure as Code et observabilité . 📦 Livrables attendus Construction et maintien des environnements Automatisation complète des chaînes de delivery Documentation technique associée 🛠️ Missions principales Concevoir, déployer et administrer des clusters Kubernetes Intégrer et maintenir les outils de l’écosystème Kubernetes : Istio, Helm, ArgoCD, Prometheus, Grafana… Mettre en place et améliorer les pipelines CI/CD (GitLab CI, Jenkins, ArgoCD…) Surveiller les performances, la sécurité et la disponibilité des infrastructures Automatiser les tâches d’exploitation (Bash, Python, Terraform, Ansible…) Collaborer avec les équipes de développement pour optimiser les déploiements Assurer une veille technique et l’amélioration continue des pratiques DevOps 🧰 Compétences techniques requises (impératives) Kubernetes – Confirmé Jenkins – Confirmé Anglais professionnel – Impératif Compétences complémentaires recherchées Helm, Istio, ArgoCD, FluxCD Monitoring & observabilité : Prometheus, Grafana, Alertmanager, Loki CI/CD : GitLab CI, Jenkins, Argo Workflows IaC : Terraform, Ansible
Freelance

Mission freelance
Cloud Cybersecurity Expert

Publiée le
Cybersécurité
Google Cloud Platform (GCP)

3 ans
Île-de-France, France
Cloud Cybersecurity Expert, Freelance, 3 ans de contrat initial, IDF, 65% de remote Opportunité attrayante pour un(e) expert en cybersécurité cloud avec plusieurs expériences sur GCP afin de rejoindre notre client final qui accompagne des millions de particuliers et de professionnel à travers le monde sur l’un des programmes de move to cloud les plus importants de son marché et de son histoire ! Vous rejoindrez une équipe en plein développement pour intervenir dans un contexte multi cloud exigeant et complexe où vous pourrez proposer votre propre vision de la sécurité du cloud appliquée à l’IA. Principales missions : · Suivi, évolution et maintien de la sécurité d’une Landing Zone Google Cloud · Études & design de solutions de cybersécurité · Implémentations en IaC (Terraform) · Analyses de services Google Cloud (Agentspace, VPC-SC, PSC, Gemini Code Assist, etc.) · Documentation sous Confluence (validation interne obligatoire) · Participation à la comitologie Cloud & Cyber (réunions hebdo) · Support ponctuel RUN / réponse à incident
Freelance
CDI

Offre d'emploi
Lead Data Engineer (H/F)

Publiée le
Apache Spark
Big Data
Data management

3 ans
40k-71k €
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Lead Data Engineer / Data Engineer Senior pour renforcer une équipe data travaillant sur une plateforme moderne Azure / Databricks . Votre rôle : concevoir, industrialiser et optimiser des pipelines Big Data, tout en jouant un rôle de référent technique auprès de l’équipe. Compétences indispensables Big Data : Spark, Databricks Ingestion / Streaming : Kafka, Apache NiFi Cloud : Microsoft Azure Langages : Scala ou Java + Python + SQL Orchestration : Airflow CI/CD & DevOps : Azure DevOps, Git Compétences appréciées Dataiku Ansible Connaissance Data Lake / architectures medallion Vos missions Concevoir et industrialiser des pipelines Big Data (batch & streaming). Développer des flux d’ingestion avec NiFi, Kafka, Spark. Optimiser performance, qualité et scalabilité. Participer à l’architecture et aux choix techniques. Encadrer techniquement l’équipe (guidelines, bonnes pratiques, code review). Contribuer aux automatisations et à l’orchestration (Airflow, Ansible, DevOps).
3554 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous