Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 696 résultats.
Freelance

Mission freelance
Ingénieur IA – Google Cloud (GenAI / LLM)

COEXYA
Publiée le
Agent IA
Google Cloud Platform (GCP)
Large Language Model (LLM)

6 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Agent Engineer spécialisé sur l’écosystème Google Cloud afin de contribuer au développement d’agents conversationnels basés sur l’intelligence artificielle générative. La mission s’inscrit dans un programme stratégique visant à enrichir l’expérience client grâce aux LLM et à automatiser certaines interactions du centre de relation client. Le consultant interviendra sur des cas d’usage concrets mêlant voicebot intelligent et agents conversationnels d’auto-diagnostic , avec un objectif clair : améliorer la compréhension des demandes clients et augmenter le taux de résolution au premier contact. Le rôle implique à la fois des compétences d’ingénierie IA, d’architecture technique et d’industrialisation des modèles . Rôle attendu Concevoir et développer des agents conversationnels basés sur des LLM au sein de l’écosystème Google Cloud Participer à l’évolution d’un voicebot existant en intégrant des capacités d’IA générative Concevoir un agent d’auto-diagnostic conversationnel permettant aux utilisateurs de diagnostiquer certaines pannes de manière autonome Mettre en place des architectures RAG (Retrieval-Augmented Generation) afin d’enrichir les réponses des agents Implémenter et optimiser les solutions sur Vertex AI et Dialogflow CX Contribuer à l’industrialisation des modèles : évaluation des LLM, tests de robustesse, métriques de performance et bonnes pratiques AIOps
Freelance

Mission freelance
Business Analyst Data & Paiements | SQL Expert | Power BI | Agile

CAT-AMANIA
Publiée le
Azure
Confluence
Google Cloud Platform (GCP)

6 mois
470-530 €
Île-de-France, France
Nous recherchons un Business Analyst Data pour rejoindre une Squad Data au sein d'un grand groupe financier de premier plan. Votre mission principale sera de piloter la chaîne de valeur de la donnée de paiement, de la collecte à la restitution décisionnelle. Vos missions : Recueillir et analyser les besoins des équipes métiers et des autres squads data. Traduire ces besoins en spécifications fonctionnelles et techniques détaillées (User Stories) dans un environnement Agile. Assurer la qualité et l'intégrité des flux de données de paiement via des requêtes SQL avancées. Concevoir, générer et diffuser des reportings et tableaux de bord via Power BI pour le pilotage des activités. Réaliser les tests de recette des traitements d'intégration et de transformation de données. Accompagner et former les utilisateurs finaux dans l'exploitation de leurs données de paiement. Profil recherché : Expertise confirmée en SQL (indispensable pour l'exploration et la validation de données). Solide connaissance du domaine des Moyens de Paiement ou de la Monétique. Maîtrise des outils de Data Viz (Power BI) et de la rédaction de documentation projet (Jira, Confluence). Expérience en environnement Big Data ou Cloud (Azure, GCP). Capacité à travailler en méthodologie Agile (Scrum). Excellente communication et capacité à vulgariser des sujets techniques complexes.
CDI

Offre d'emploi
EXPERT RESEAU et SECURITE

NETSEC DESIGN
Publiée le
AWS Cloud
Azure
Fortinet

40k-72k €
Paris, France
Réalisation de tâches de BUILD : Architecture et Ingénierie Élaboration d’une roadmap et d’un plan d’investissement à 3 à 5 ans pour l’évolution des infrastructures et des solutions, en fonction des enjeux de sécurité et du maintien en condition opérationnelle. Réalisation d’études complexes permettant de définir les solutions de sécurité adéquates en termes de réponse aux besoins de la Direction Informatique, de faisabilité, de performance, de risques et de coûts. Élaboration et présentation des dossiers de décision associés auprès des instances de gouvernance. Élaboration des cahiers des charges techniques, en lien avec les acheteurs, et contribution au choix des prestataires et fournisseurs. Supervision et coordination de la mise en œuvre et de l’administration des architectures matérielles et logicielles (systèmes, outils et architectures de sécurité), notamment via le pilotage de chantiers et projets techniques. Définition des règles de bonne gestion et des indicateurs clés des infrastructures et des solutions de sécurité. Contribution à la mise en œuvre et à la gestion du référentiel technique des infrastructures et des solutions de sécurité. En escalade des équipes d’administration, gestion des incidents complexes ou nouveaux en lien avec des interlocuteurs internes et externes (éditeurs, etc.), ainsi que coordination des actions de remise en service et de mise en œuvre des mesures correctives. Réalisation du transfert de compétences et de l’assistance technique sur son périmètre.
CDI
Freelance

Offre d'emploi
Data Analyst Sénior

Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse

1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Freelance

Mission freelance
Développeur Front-end Senior - React & Next.js

CAT-AMANIA
Publiée le
Docker
Google Cloud Platform (GCP)
Javascript

1 an
100-500 €
Lille, Hauts-de-France
Une nouvelle plateforme est le pilier de notre stratégie de contenu et d'expérience. Nous souhaitons exploiter un CMS Headless pour alimenter nos interfaces, ce qui nous permet d'innover rapidement et de proposer des expériences riches et flexibles à nos utilisateurs. Objectifs et livrables En tant que Développeur Front-end Expert, vous serez référent technique sur l'ensemble de la stack Front-end. Vos missions principales incluront : Conception et développement des composants et des pages de notre nouvelle plateforme en utilisant Next.js et React . Intégration avancée et optimisation des données provenant de Contentstack et d'autres APIs, en assurant la performance (Core Web Vitals) et la maintenabilité du code. Définition et mise en place des meilleures pratiques de développement (qualité de code, tests, documentation, revue de code) au sein de l'équipe. Encadrement technique des développeurs plus juniors et contribution active à l'architecture Front-end (Micro-Frontends, Monorepo si applicable). Garantir l'industrialisation des applications dans un contexte de fort trafic et de haute disponibilité.
Freelance

Mission freelance
DevSecOps AWS

Cherry Pick
Publiée le
AWS Cloud
Cybersécurité
Kubernetes

12 mois
600-630 €
Paris, France
Afin de renforcer son équipe sécurité et infra, notre client, expertu du domaine des médias recherche un profil Expert en sécurité cloud et devops. Dans un environnement où la visibilité est maximale (pics d'audience lors d'événements live), vous intervenez sur des produits à fort impact direct. Le défi consiste à garantir la haute disponibilité et la sécurité des plateformes de vidéo online, tout en évoluant dans une culture "Cloud Native" agile et exigeante. Missions principales Sous la responsabilité du responsable sécurité, vos missions s'articulent autour de cinq piliers opérationnels : Opérations Sécurité (RUN) : Gestion quotidienne du SI (monitoring des alertes, analyse des métriques de sécurité) et réponse aux incidents pour garantir la résilience des plateformes. Expertise Sécurité Vidéo : Pilotage de projets spécifiques à la diffusion (mise en œuvre de DRM , URL signing, Green headers) pour protéger les droits et les flux de streaming. Pilotage de Projets Structurants : Déploiement de solutions de sécurité de pointe, de la phase de veille (état de l'art) au passage en production : SIEM, SSO, CNAPP, Workload Protection . Audit et Remédiation : Réalisation d'audits techniques internes ou pilotage de prestataires externes pour identifier les vulnérabilités et définir les plans de correction globaux. Amélioration Continue & DevSecOps : Modernisation de la sécurité du SI (refactoring infrastructure, filtrage réseau, compliance AWS , sécurisation des chaînes CI/CD ).
Freelance

Mission freelance
Expert Datadog

Tenth Revolution Group
Publiée le
AWS Cloud
Datadog
Kubernetes

3 ans
530-640 €
Paris, France
Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support) Profil recherché Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Environnement de travail Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Freelance

Mission freelance
CONSULTANT OBSERVABILITE DATADOG

PARTECK INGENIERIE
Publiée le
AWS Cloud
Datadog
Kubernetes

12 mois
400-650 €
75000, Paris, Île-de-France
Dans le cadre de l’amélioration de la supervision et de la fiabilité des plateformes , nous recherchons un Expert Observabilité Datadog pour accompagner l’un de nos clients dans la structuration et l’optimisation de son écosystème de monitoring. L’objectif de la mission est d’améliorer la qualité de l’observabilité, la détection des incidents et l’exploitation des données de monitoring dans un environnement Cloud / DevOps / SRE . Vos missions 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier les axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les équipes Optimiser l’usage de la plateforme (volumétrie des logs, sampling APM, gestion des coûts, rétention) Définir et diffuser les bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus et Grafana 2. Supervision, observabilité et fiabilité (SRE) Concevoir et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, corrélation des incidents) Définir des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et le service management Améliorer la détection proactive des incidents Assurer la cohérence entre les métriques Prometheus/Grafana et l’observabilité Datadog 3. Accompagnement des équipes et adoption Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir la documentation des standards et bonnes pratiques Profil recherché Expérience significative sur Datadog (Logs, APM, RUM, Monitors) Bonne compréhension des pratiques DevOps / SRE / Observabilité Expérience sur les outils de monitoring tels que Prometheus et Grafana Capacité à travailler en transverse avec des équipes Dev, Ops et Produit Sens de la pédagogie et capacité à structurer des standards Environnement technique Datadog – Observabilité – Monitoring – APM – Logs – RUM – Product Analytics – Prometheus – Grafana – DevOps – SRE – Cloud AWS +++ Kubernetes ++ Terraform +++
Freelance

Mission freelance
Développeur Salesforce (H/F)

Insitoo Freelances
Publiée le
CI/CD
CRM
Salesforce Sales Cloud

2 ans
400-460 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Salesforce (H/F) à Lyon, France. Contexte : Dans le cadre de l'exécution des feuilles de route et des projets du périmètre SI Client (Salesforce Core, Sales, Community, Service, ...) et en lien avec l’organisation d'autres SI, nous recherchons un Développeur Salesforce pour réaliser les travaux de : - Conception technique Salesforce - Développement & paramétrage Salesforce Les missions attendues par le Développeur Salesforce (H/F) : La mission au sein de la DSI consiste à délivrer les activités ci-dessous en rendant compte au Scrum-Master ou au manager opérationnel : 1. Conception technique Salesforce : Accompagner les équipes Métiers et les BA IT dans la traduction des besoins en solution technique Contribuer à la définition des solutions techniques en faisant ressortir le standard du spécifique Contribuer à la phase de grooming en fournissant notamment des évaluations de chiffrages Rédaction de documentations techniques Contribuer à la gestion de tous les environnements de développement et au processus de déploiement jusqu'à la production Proposer des améliorations sur les processus et implémentations Contribuer au diagnostic des incidents de Production et de Recette 2. Développement & paramétrage Salesforce : Participer aux instances de gestion de la Backlog en mode Agile Effectuer le paramétrage avancé Salesforce (workflows, ...) Effectuer les développements en APEX, composants Lightning, Visual Force, triggers, interfaces, workflows, API Coder les tests automatiques nécessaires à l'application Tagguer le code en lien avec la documentation JIRA Versionner les composants avec Git Déployer les composants dans le cycle de vie avec le process CI/CD Accompagner les BA et métiers dans la Recette et apporter les correctifs nécesssaires Environnement technique : Développement : APEX, composants Lightning, Visual Force, Triggers, interfaces, workflows, API Salesforce : Core, Sales Cloud, Community Cloud, Service Cloud
Freelance
CDI

Offre d'emploi
Senior Machine Learning Engineer (MLE) - H/F

AMD Blue
Publiée le
AWS Cloud
Machine Learning
PySpark

3 ans
60k-65k €
650-730 €
Paris, France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Data . Contexte de la mission : Notre client développe et maintient des modèles de prévision de la demande et des ventes à l'échelle internationale. L'enjeu de 2026 est d'étendre la couverture de ces pipelines de production à de nouvelles zones géographiques mondiales (SEA, LATAM, NA et MEA). Dans ce cadre, nous recherchons un(e) Senior Machine Learning Engineer pour industrialiser, déployer et fiabiliser ces modèles de forecast à grande échelle. Descriptif de la mission : Les missions sont : Industrialisation et déploiement : Transformer les prototypes Data Science en pipelines robustes, orchestrer la mise en production et optimiser les performances de run. MLOps & Robustesse : Renforcer la CI/CD ML, versionner les modèles/datasets et implémenter le monitoring (drift, stabilité). Collaboration technique : Challenger la conception des modèles pour faciliter l'industrialisation et améliorer la qualité du code (structure, tests). Scalabilité internationale : Adapter les pipelines pour supporter de fortes volumétries multi-régions. Coordination : Structurer et prioriser les activités de Run & Stabilisation dans un environnement Agile (Scrum).
Freelance

Mission freelance
Consultant Support CRM Salesforce N2

COEXYA
Publiée le
Salesforce

8 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Consultant Support CRM Salesforce N2 afin d’assurer la continuité et la qualité de service des applications CRM Marketing. Vous intervenez au sein du périmètre SI Commercial / Client dans un environnement structuré et exigeant, reposant principalement sur Salesforce (Sales, Service, Community, Marketing Cloud). Rôle attendu : Prendre en charge les incidents CRM Marketing de niveau 2 et en assurer le diagnostic complet Résoudre les incidents lorsque cela relève du périmètre N2 ou escalader vers les équipes N3 appropriées Rédiger les tickets correctifs (JIRA) à destination des équipes de développement lorsque nécessaire Assurer le suivi rigoureux des incidents dans l’outil de ticketing (Easyvista), dans le respect des délais et des SLA Documenter les procédures de résolution et enrichir la base de connaissances Produire un reporting régulier et fiable sur l’activité (incidents, correctifs, indicateurs de service) Participer aux instances liées à la gestion des incidents et des changements (MCO, CAB – contribution opérationnelle) La mission est majoritairement orientée run. Il ne s’agit pas d’un rôle projet ou d’implémentation, mais bien d’un rôle de support applicatif confirmé, nécessitant une excellente compréhension fonctionnelle des environnements CRM et une forte rigueur opérationnelle. Le contexte implique des interactions régulières avec les équipes DSI, les équipes techniques et les métiers. Une communication claire, structurée et professionnelle est attendue.
Freelance
CDI

Offre d'emploi
Data Engineer - GCP / BigQuery (H-F)

K-Lagan
Publiée le
Big Data
BigQuery
Dataiku

1 an
45k-50k €
500-550 €
Niort, Nouvelle-Aquitaine
🚀 Chez K-LAGAN, nous parions sur vous ! Vous recherchez un projet data structurant , dans un environnement moderne et orienté cloud & analytics ? Vous souhaitez évoluer sur des sujets à forte valeur ajoutée au sein d’une Data Platform ambitieuse ? Alors cette opportunité pourrait vous intéresser 👇 🔍 Nous recrutons un·e Data Engineer (F/H) confirmé Pour rejoindre l’un de nos clients et contribuer activement au développement de sa Data Fabrik , dans un environnement innovant et orienté performance. 🎯 Vos missions Définir les pré-requis techniques nécessaires aux nouveaux cas d’usage data Participer à la conception et l’implémentation de nouveaux modèles de données Développer, optimiser et maintenir les pipelines de transformation Contribuer à l’évolution des outils et bonnes pratiques Data Engineering Garantir la qualité, la fiabilité et la performance des traitements Collaborer étroitement avec les équipes Data, BI et Métiers
Freelance
CDI

Offre d'emploi
Senior Software Engineer Java – Spring Boot & AWS

KLETA
Publiée le
AWS Cloud
Java
Springboot

3 ans
Paris, France
Nous recherchons un Senior Software Engineer Java pour concevoir, développer et faire évoluer des applications cloud natives sur AWS dans un environnement industriel et à forte exigence de qualité. Vous interviendrez sur des architectures modernes basées sur Spring Boot, microservices et API REST, en intégrant nativement les services AWS (ECS/EKS, Lambda, S3, RDS, SQS/SNS, EventBridge). Vous serez responsable de la qualité du code, de la performance et de la maintenabilité des applications, en appliquant des bonnes pratiques de conception (DDD, Clean Architecture, tests automatisés, observabilité applicative). Vous travaillerez en étroite collaboration avec les équipes DevOps et SRE pour intégrer les applications dans des pipelines CI/CD, garantir une exploitation fiable et optimiser la résilience en production. Vous participerez aux choix d’architecture, aux revues de code et à l’amélioration continue des pratiques de développement. Vous serez également amené à analyser des incidents, proposer des améliorations techniques et accompagner des développeurs plus juniors dans leur montée en compétence.
Freelance

Mission freelance
Responsable d’Applications Supply Chain

ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
SQL

1 an
Lille, Hauts-de-France
Contexte de la mission Dans un environnement international, nous recherchons un Responsable d’Applications expérimenté afin d’assurer la maintenance et l’évolution de plusieurs produits digitaux liés aux activités Transport et Entrepôts au sein d’un périmètre Supply Chain. Vous interviendrez au sein d’une équipe Build & Run en collaboration étroite avec les utilisateurs métiers, les équipes IT (développement, architecture, sécurité, infrastructure) ainsi que différents partenaires externes. L’objectif principal est de garantir la disponibilité, la performance et la qualité de service des applications tout en accompagnant leur évolution. Vos missions Assurer le maintien en conditions opérationnelles (MCO) des applications du périmètre. Suivre et piloter l’activité via des indicateurs de performance , et mettre en place des plans d’actions préventifs et correctifs. Gérer les demandes d’évolution et de service dans le respect des engagements de service (SLA). Collaborer avec les équipes IT (Product Owner, développeurs, autres responsables applicatifs). Mettre en production les nouvelles versions et participer aux projets de sécurisation du SI. Garantir la qualité de service et la satisfaction des utilisateurs . Maîtriser le paramétrage, les flux applicatifs et les plans de production des solutions maintenues. Maintenir une documentation technique et fonctionnelle à jour . Proposer et mettre en œuvre des améliorations continues pour optimiser les solutions et les processus. Compétences techniques requises Talend et SQL (niveau confirmé – impératif). Connaissance des métiers Transport et Entrepôts (confirmé – impératif). Environnements data et cloud : GCP, BigQuery, Kafka, DataDog, Ordonnanceur AWA (confirmé – important). Connaissances en Java et Python (niveau junior – apprécié).
Freelance
CDI

Offre d'emploi
Architecte Cloud Azure - Migration

KLETA
Publiée le
Azure
GitLab CI
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud Azure pour accompagner nos clients dans leurs projets de migration et de modernisation vers Microsoft Azure. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes, identifierez les risques et proposerez des solutions optimisées en matière de performance, de sécurité, de coût et de résilience. Vous participerez à la conception de Landing Zones Azure, à la structuration des environnements multi-souscriptions et à la mise en place de bonnes pratiques de gouvernance et de conformité. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements via Terraform ou Bicep et à l’adoption des principes cloud native. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur Azure, en partageant des bonnes pratiques d’architecture et en facilitant l’acculturation au cloud.
Freelance

Mission freelance
DevSecOps Cloud AWS (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
DevOps

2 ans
450-530 €
Lyon, Auvergne-Rhône-Alpes
Fonctionnement : 2 jour sur site à Lyon Les missions attendues par le DevSecOps Cloud AWS (H/F) : Dans le cadre de l’industrialisation des technologies cloud à l’échelle, nous recherchons un(e) Ingénieur DevSecOps / Cloud pour accompagner la structuration, la sécurisation et l’automatisation du cycle de vie des produits numériques. L’objectif : garantir performance, sécurité, résilience et fluidité des livraisons dans une logique DevSecOps et Cloud native . 🎯 Vos missions1️⃣ Industrialisation des livraisons (CI/CD) Mettre en place et maintenir les pipelines CI/CD Automatiser les tests (unitaires, intégration, non-régression) Gérer les pipelines de build et de déploiement Faciliter le delivery produit de bout en bout 2️⃣ Sécurité – Security by Design Intégrer des scans de sécurité automatisés dans les pipelines Piloter la gestion des vulnérabilités (détection, remédiation, suivi) Contribuer à l’architecture sécurisée du produit avec les équipes cybersécurité Promouvoir les bonnes pratiques de développement sécurisé 3️⃣ Infrastructure as Code & automatisation Automatiser la gestion des infrastructures (IaC) Gérer la configuration cohérente des environnements (test, recette, production) Optimiser les ressources cloud 4️⃣ Monitoring, observabilité & performance Mettre en place des outils de supervision et de logs Mettre en place des alertes proactives et des dashboards Collaborer avec les équipes exploitation et performance pour le suivi en production 5️⃣ Amélioration continue & résilience Participer aux diagnostics type Accelerate Identifier des leviers d’amélioration (qualité, rapidité, stabilité) Contribuer aux Gamedays RUN pour tester la résilience Capitaliser sur les retours d’expérience (Post-Mortem, Incident Review) 6️⃣ Culture & collaboration DevSecOps Travailler en étroite collaboration avec développeurs, PO, sécurité et exploitation Acculturer les équipes aux pratiques DevSecOps Documenter outils, processus et incidents Contribuer à la communauté DevSecOps interne (guildes, rituels, veille)
1696 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous