Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 706 résultats.
Mission freelance
Ingénieur sécurité
Signe +
Publiée le
AWS Cloud
CI/CD
6 mois
350-400 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un Ingénieur sécurité. Secteur d'activité client final : média et audiovisuel Description détaillée : Rejoindre la Direction des Technologies Digitales du client, c'est intégrer une équipe technique au cœur des sujets mêlant la puissance et la visibilité d'un média, au monde des nouvelles technologies. Vous travaillerez sur des produits impactant directement l'audience et sur des sujets liés à la vidéo online ou encore à la haute disponibilité. Votre rôle au sein de l’équipe Vos missions ? - RUN Sécurité : Suivi et gestion de la sécurité́ du SI d’eTF1 au quotidien (suivi des alarmes et des métriques sécurités existantes, répondre aux incidents de sécurité́, etc.), - Sécurité Vidéo : Suivi et gestion de projets de mise en place d’outils de sécurité de diffusion vidéo (DRM, URL signing, green header…) - Suivi de projets sécurité : Suivi et gestion de projets de mise en place d’outils de sécurité́ (SIEM, SSO, CNAPP, Workload Protection, etc.), - Audits : Auditer régulièrement les produits eTF1 afin d’alimenter un plan de remédiation global (audit technique à effectuer ou à piloter en cas de sous-traitance), - Amélioration continue : Améliorer la sécurité́ du SI de l’entreprise en se basant sur le plan de remédiation défini (refacto on-premise, amélioration du filtrage réseau, compliance AWS, sécurisation de la chaîne CI/CD, sécurisation de la diffusion vidéo, etc.). Qui êtes-vous ? - Autonomie complète sur l’organisation de la sécurité (définition du plan de remédiation, accompagnement des équipes à la correction ou corriger soit même), - Une expérience significative dans la sécurisation et la mise en place de solutions AWS et sur la technologie Kubernetes (k8s) - Capacité de gérer des projets de mises en place d’outils de sécurité de A à Z (état de l’art, choix de solutions, PoC, configuration, intégration, mise en production), - Utilisation d’outils d’IAC (terraform, terragrunt, etc..) - Connaissance des outils de gestion de développement et de projets Atlassian (Jira, Confluence, Statuspage) - Expérience dans les tests d’intrusion et dans la cybersécurité technique - Expérience avec le cloud AWS et ces outils de sécurité - Expérience et connaissance des architectures de diffusion vidéo et streaming (formats vidéo hls/dash, CDN…)
Mission freelance
Développeur confirmé Python / Fullstack orienté AWS — Startup Biotech | Lyon
Tenth Revolution Group
Publiée le
AWS Cloud
Microservices
Python
6 mois
270-400 €
Lyon, Auvergne-Rhône-Alpes
🏢 Contexte Rejoignez une startup biotech innovante basée à Lyon, en pleine croissance. Vous interviendrez sur le développement et l'évolution d'une architecture microservices à fort enjeu technologique. 🎯 Missions Développement et maintenance d'applications Python dans une architecture microservices Conception et intégration de services AWS (SQS, SNS) Participation à l'amélioration continue de l'infrastructure cloud Collaboration étroite avec les équipes techniques et produit 🧠 Profil recherché Solide expérience en développement Python (80% du poste) Bonne maîtrise d'AWS, notamment SQS et SNS (20% du poste) Expérience en architecture microservices Autonome, rigoureux et à l'aise dans un environnement startup
Mission freelance
Expert Observabilité Datadog
Comet
Publiée le
AWS Cloud
Datadog
Grafana
12 mois
400-550 €
Île-de-France, France
Compétences techniques : Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Offre d'emploi
Production Engineer (K8S / AWS / Datadog) — Lille (59)
NEWRAMA
Publiée le
Datadog
3 ans
Paris, France
Rejoignez une équipe d'experts Ops en charge de l'exploitation d'une plateforme digitale critique à très fort trafic. Au sein d’un domaine orienté RUN, Fiabilité et Performance, vous intervenez sur un environnement technologique de pointe où l'observabilité est la clé de la réussite. Ici, le défi est de garantir une disponibilité sans faille pour des millions d'utilisateurs quotidiens, tout en modernisant l'infrastructure en continu. Vos Objectifs En tant que Senior Production Engineer, vous portez une vision "Reliability" et industrialisez la production : Exploitation (RUN) : Assurer la disponibilité et la performance des applications en production. Observabilité & Pilotage : Utilisation avancée de Datadog pour le monitoring, la supervision de la QoS et le diagnostic. Gestion d'Incidents : Analyse, debug et pilotage des incidents majeurs (approche SRE). Modernisation : Contribuer aux chantiers de rebuild / refactoring (scalabilité et optimisation des coûts Cloud). Automatisation : Industrialiser les processus dans une approche GitOps / DevOps (FluxCD, GitLab CI). Stack Technique Cloud : AWS (Full Cloud) Orchestration : Kubernetes (K8S), Helm, FluxCD Infrastructure as Code : Terraform Observabilité : Datadog (Expertise indispensable) CI/CD / Container : GitLab CI, Docker Ecosystème : Cloudflare, Keycloak, MongoDB, Java
Mission freelance
Data Engineer (1j/ semaine à Toulouse)
Signe +
Publiée le
Google Cloud Platform (GCP)
PowerBI
SQL
1 an
400-450 €
Toulouse, Occitanie
Contexte de la mission : Dans le cadre d’un renforcement d’équipe, notre client recherche un Data Engineer disposant d’une solide expertise en Business Objects (BO) , SQL , Power BI et GCP . La mission s’inscrit dans un environnement international nécessitant un bon niveau d’anglais (oral et écrit). Missions principales : Développer, maintenir et optimiser des rapports et univers sous Business Objects (BO) Concevoir et optimiser des requêtes complexes en SQL Développer des tableaux de bord et reportings interactifs sous Power BI Intervenir sur l’architecture et les traitements de données sur Google Cloud Platform (GCP)
Offre premium
Offre d'emploi
Offre CDI ! Consultant Cybersécurité – Pentester / Auditeur Technique (H/F) - CDI
ADONYS
Publiée le
Audit
Pentesting
45k-55k €
Hauts-de-Seine, France
Dans le cadre d'une pré-embauche (CDI), nous sommes à la recherche d'un Consultant Cybersécurité – Pentester / Auditeur Technique (H/F) Vos missions: Réaliser des tests d’intrusion internes et externes (réseaux, web, mobile, cloud). Conduire des audits de configuration et d’architecture. Revue de code Identifier et documenter les vulnérabilités découvertes. Rédiger des rapports clairs, assortis de recommandations techniques. Participer à des audits de code source et à des revues de sécurité applicative. Contribuer à la mise à jour des méthodes et scénarios de tests internes.
Mission freelance
Développeur confirmé DATABRICKS (Lyon)
SQLI
Publiée le
Azure Data Factory
Java
1 an
450-560 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un développeur confirmé Databricks. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
Ingénieur conception / développement IA
I-lead Consulting
Publiée le
Azure
Large Language Model (LLM)
Python
6 mois
40k-55k €
400-550 €
Paris, France
Dans le cadre de la mise en œuvre d’un portail IA, notre client souhaite renforcer son équipe dédiée à la gouvernance et au déploiement de solutions d’intelligence artificielle. Les ingénieurs interviendront sur la conception, le développement, l’intégration et l’industrialisation de composants IA dans un environnement Microsoft orienté GenAI. Objectifs de la mission Concevoir, développer et déployer des briques applicatives et services IA répondant aux besoins métier, en cohérence avec l’architecture cible et les standards définis. Responsabilités principales Participer au recueil des besoins et à la conception technique des solutions IA Développer des composants et services autour des usages GenAI Implémenter des architectures LLM de type RAG Concevoir et intégrer des chaînes de traitement avec LangChain et/ou LangGraph Développer des APIs et services backend en Python / FastAPI Intégrer les solutions dans l’environnement Azure Participer au packaging, à la conteneurisation et au déploiement sur Kubernetes Mettre en œuvre les pipelines CI/CD et contribuer à l’industrialisation Réaliser les tests, optimiser les performances et fiabiliser les solutions Produire la documentation technique et contribuer au partage de bonnes pratiques
Offre d'emploi
Ingénieur Devops
NETSEC DESIGN
Publiée le
DevOps
Google Cloud Platform (GCP)
3 ans
45k-70k €
400-600 €
Boulogne-Billancourt, Île-de-France
Nous recherchons, pour notre client final grand compte, un Ingénieur DevOps Digital Backbone afin d’intervenir sur la plateforme Digital Backbone . La prestation s’inscrit dans le cadre du chapitre DevOps , dont le référent est le SDL (Solution Delivery Lead) , et se fera en collaboration étroite avec le Product Owner de l’équipe Digital Backbone . Activités attendues : Déploiement des composants et services liés au projet Digital Backbone à l’aide d’outils d’Infrastructure as Code (Ansible, Terraform). Mise en place de pipelines CI/CD afin d’automatiser le déploiement des services, de l’environnement de développement jusqu’à la production. Contribution au support opérationnel (RUN) et à la résolution des incidents en cas de dysfonctionnement. Implémentation du monitoring et des alertes pour la plateforme Digital Backbone. Rédaction et mise à jour de la documentation technique. Gestion des aspects sécurité et FinOps (optimisation des coûts) des environnements du projet. Garantie de la sécurité des processus de développement et de déploiement, en mettant en place des contrôles appropriés pour protéger les données et les actifs de l’entreprise. Livrables : Scripts et configurations permettant l’automatisation du déploiement des services. Pipelines CI/CD conformes aux exigences de sécurité et aux recommandations du chapitre DevOps. Documentation technique des composants d’infrastructure ainsi que des chaînes CI/CD. Tableaux de bord de monitoring des services Digital Backbone.
Mission freelance
🚀 Développeur Backend Python – Microservices - Lyon
Tenth Revolution Group
Publiée le
API REST
AWS Cloud
FastAPI
12 mois
220-400 €
Lyon, Auvergne-Rhône-Alpes
🎯 Contexte de la mission Dans le cadre d’un renfort urgent, nous recherchons un Développeur Backend Python expérimenté pour intégrer une équipe tech et contribuer activement au développement et à la livraison de microservices en environnement cloud. Objectif : produire, tester et livrer du code robuste , orienté production. Ce n’est pas un poste R&D. On cherche quelqu’un qui exécute, structure et délivre. 🛠️ Missions principales Développement de microservices en Python Conception et implémentation d’ API REST Rédaction de code propre, maintenable et testé Mise en place et exécution de tests (unitaires / intégration) Participation aux choix techniques backend Contribution à l’amélioration continue des pratiques de développement Collaboration avec équipes produit / infra
Offre premium
Offre d'emploi
Data Engineer Python / Azure / Ops
VISIAN
Publiée le
Azure
Azure Data Factory
Python
2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault
CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD
3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Mission freelance
DBA expérimenté SQL / Mongo DB/ AWS (H/F)
ADSearch
Publiée le
AWS Cloud
Mongodb
SQL
3 mois
Île-de-France, France
Contexte du poste Dans le cadre du renforcement de son équipe technique, notre client recherche un DBA expérimenté capable de gérer, sécuriser et optimiser des bases de données relationnelles (SQL) et NoSQL (MongoDB) dans un environnement cloud AWS à forte volumétrie et criticité. Missions principalesAdministration & exploitation Administrer et maintenir les bases de données SQL (MySQL, PostgreSQL, SQL Server, Oracle…) et MongoDB Assurer la disponibilité , la performance et la fiabilité des bases de données Mettre en œuvre les stratégies de sauvegarde, restauration et PRA Gérer les montées de version, patchs et migrations Performance & optimisation Analyser et optimiser les requêtes SQL et les index Surveiller les performances et anticiper les problèmes de capacité Mettre en place des mécanismes de scalabilité (replication, sharding, clustering) Sécurité & conformité Gérer les droits d’accès, rôles et politiques de sécurité Mettre en œuvre le chiffrement des données (at rest / in transit) Garantir la conformité aux bonnes pratiques (RGPD, sécurité cloud) Cloud & DevOps (AWS) Administrer les services AWS liés aux bases de données : RDS, Aurora, DynamoDB, EC2, S3 Automatiser les déploiements et la supervision (Terraform, CloudFormation, scripts) Collaborer avec les équipes DevOps et applicatives Collaboration & support Accompagner les équipes de développement (conseils schéma, requêtes, bonnes pratiques) Participer aux revues techniques et à l’amélioration continue Rédiger la documentation technique Compétences techniques requisesBases de données Excellente maîtrise d’au moins un SGBD SQL Très bonne connaissance de MongoDB Concepts avancés : réplication, haute disponibilité, partitionnement Cloud & outils Solide expérience sur AWS Supervision : CloudWatch, Prometheus, Grafana (ou équivalents) Scripting : Bash, Python Outils CI/CD et Infrastructure as Code appréciés
Mission freelance
Senior Google Workspace, Data & IA
OPTIPARK
Publiée le
BigQuery
Google Cloud Platform (GCP)
Google Sheets
1 an
100-470 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un programme stratégique de transformation digitale, nous recherchons un Expert Senior Google Workspace / Data & IA capable d’assurer l’interface entre l’expertise technique et les enjeux métiers. Il s’agit d’un rôle hybride à forte valeur ajoutée, combinant : Administration avancée de l’environnement Google Workspace Exploitation et analyse des données d’usage (BigQuery / Looker) Développement de solutions d’automatisation (AppSheet / Apps Script) Pilotage et diffusion des usages IA (Gemini, adoption, innovation) Accompagnement des directions métiers dans la transformation numérique Vos missions 🔹 Volet Data & Analytics Concevoir et maintenir des modèles LookML complexes Développer des dashboards stratégiques (adoption, performance, indicateurs RSE) Exploiter les données via BigQuery (SQL avancé) Structurer les tables et optimiser les coûts de calcul et stockage Définir des indicateurs liés à la sobriété numérique et à la qualité de vie au travail 🔹 Volet IA Générative & Innovation Contribuer à la structuration d’un Centre d’Expertise IA Être référent technique et fonctionnel sur les solutions IA (Gemini) Animer une communauté d’ambassadeurs IA Identifier et déployer des cas d’usage métiers à forte valeur ajoutée Concevoir supports de formation et référentiels de prompts 🔹 Volet Google Workspace (Technique & Fonctionnel) Administrer et sécuriser l’environnement Google Workspace (DLP, Context-Aware Access) Développer des applications métiers via AppSheet Créer des automatisations via Google Apps Script Accompagner la migration d’Excel/VBA vers Google Sheets / BigQuery Assister le Product Owner dans la roadmap, les User Stories et la conduite du changement
Mission freelance
Expertise sécurité Azure / Palo Alto / F5
CS Group Solutions
Publiée le
Azure
6 mois
Paris, France
Nous recherchons un Expertise Azure et Palo Alto/ F5 Compétences techniques Azure - Expert - Important Palo Alto - Confirmé - Important F5 - Confirmé - Important Description détaillée Mission d’expertise technique pour l’ouverture urgente d’une application du client sur Internet via l’infrastructure Azure. L’expert doit maîtriser pleinement les composants de sécurité en cours de déploiement : Le livrable est - Compétences techniques Palo Alto (workloads) F5 Azure DNS Azure Firewall Environnement Microsoft Azure
Offre d'emploi
Ingénieur DEVOPS
KUBE Partners S.L. / Pixie Services
Publiée le
Ansible
AWS Cloud
Azure
Lille, Hauts-de-France
Ce que nous offrons : - Un environnement de travail stimulant, où chaque projet est une opportunité de repousser les limites de l'innovation avec des outils comme Docker, Kubernetes, Ansible, Terraform, AWS/GCP, et bien plus. - Une culture d'entreprise qui valorise la formation continue, l'autonomie et la collaboration entre équipes multidisciplinaires. - Un poste basé dans la dynamique métropole lilloise, centre d'innovation et de technologie. Missions pour l'Ingénieur DevOps : - Automatisation des pipelines CI/CD pour accélérer le déploiement des applications tout en garantissant leur fiabilité et leur sécurité. - Orchestration des conteneurs avec Kubernetes, assurant la scalabilité et la gestion efficace des microservices. - Gestion de l'infrastructure as code (IaC) avec Terraform ou Ansible, permettant une gestion cohérente et reproductible des environnements de production, de test et de développement. - Surveillance et optimisation des performances des systèmes en place, en utilisant des outils de monitoring avancés pour prévenir les incidents avant qu'ils ne surviennent. - Collaboration étroite avec les équipes de développement et d'opérations pour instaurer une culture DevOps forte, favorisant l'intégration et la livraison continues (CI/CD). - Sécurisation des pipelines de déploiement et de l'infrastructure cloud via des pratiques de sécurité DevOps (DevSecOps), incluant la gestion des vulnérabilités et la conformité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1706 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois