L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 197 résultats.
Offre d'emploi
Ingénieur DevOps Senior AWS
VISIAN
Publiée le
AWS Cloud
DevOps
Terraform
1 an
Paris, France
Contribuer à la conception, la sécurisation, l’exploitation et l’amélioration continue de la Landing Zone AWS, avec une priorité forte donnée au maintien en condition opérationnelle et au support des clients internes utilisant la plateforme. Principales responsabilités Assurer le run de la Landing Zone AWS et garantir sa stabilité opérationnelle Prendre en charge le maintien en condition opérationnelle de la plateforme Identifier et mettre en œuvre des optimisations techniques et opérationnelles Participer aux rituels Agile de l’équipe Traiter le backlog Jira et contribuer aux User Stories définies par le PO et le PM Produire et maintenir la documentation d’architecture ainsi que les procédures de run Assurer la communication interne avec les équipes du socle Interagir avec les clients internes , pôles, clusters et autres entités du Groupe Contribuer, selon les besoins, à des sujets de build et d’ automatisation Soft skills Esprit d’analyse Rigueur Autonomie Force de proposition Capacité à communiquer et à partager l’information Bon relationnel avec des interlocuteurs techniques et métiers Livrables attendus Documentation technique de la plateforme Documentation des projets hébergés sur la plateforme Procédures de run Contributions aux sujets d’optimisation et de fiabilisation Éléments liés au projet FinOps le cas échéant
Mission freelance
Data Engineer Senior F/H
SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
Mission freelance
Senior DevOps Engineer
Codezys
Publiée le
Azure
Github
Terraform
6 mois
Barcelone, Catalogne, Espagne
Contexte de la mission Détails du projet : Lieu : Europe (Fuseau horaire CET) Mode de travail : Télétravail complet ou hybride (Barcelone, Espagne) Date de démarrage : 1er avril Durée : 6 mois Possibilité de prolongation : Oui, jusqu’à 3 mois supplémentaires Langues : Anglais, Espagnol (souhaité mais pas obligatoire) Résumé du projet Le rôle de Senior DevOps Engineer est axé sur l’observabilité, avec pour mission principale la migration des systèmes de monitoring de Splunk vers New Relic. Il s’agit également de définir, mettre en place et faire respecter les standards, la gouvernance et les bases techniques relatives à l’observabilité à travers diverses plateformes. Objectifs et livrables Responsabilités principales et activités clés : Diriger la migration des outils de monitoring de Splunk vers New Relic Concevoir et mettre en œuvre la gouvernance de New Relic (structure des comptes, tagging, alertes, dashboards, SLOs) Définir et promouvoir les bonnes pratiques en matière d’observabilité au sein des équipes d’ingénierie Implémenter des fonctionnalités d’observabilité (logs, APM, infrastructure, tracing, synthetics, intégrations) Collaborer avec les équipes applicatives pour l’intégration et le instrumentation des services Automatiser les configurations d’observabilité à l’aide de Terraform et les intégrer dans les workflows CI/CD via GitHub Fournir une expertise technique sur Azure, Terraform, GitHub Actions et les pratiques d’observabilité Aligner la surveillance et les alertes avec les SLIs/SLOs Soutenir l’amélioration continue des opérations, de la fiabilité, de la performance et de la sécurité
Offre d'emploi
Data Engineer Azure
VISIAN
Publiée le
Azure
Azure Data Factory
Azure Synapse
2 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Azure avec une très bonne maîtrise d'Azure Data Factory et d'Azure Devops pour la CI/CD Nous recherchons un consultant capable de mettre en place les flux d'interface entre SAP Concur et les différentes applications Finance au travers de l'ETL Microsoft Azure Data Factory et d’en assurer le RUN/ CI/CD avec Azure Devops. Il est nécessaire d'avoir une capacité à être force de proposition et travailler en autonomie.
Mission freelance
Data engineer (aws / talend / power bi)
Signe +
Publiée le
Microsoft Power BI
12 mois
400-440 €
Grenoble, Auvergne-Rhône-Alpes
contexte de la mission intervention chez un client grenoblois sur des sujets data environnement orienté cloud aws avec exploitation d’un datalake besoin d’un profil capable de couvrir à la fois la data ingénierie et une partie data visualisation missions principales conception, développement et maintenance de pipelines data exploitation et optimisation d’un datalake sur aws traitement, transformation et intégration des données via talend mise à disposition des données pour les équipes métiers création de dashboards et reporting sous power bi participation aux choix techniques et à l’amélioration continue des architectures data environnement technique cloud / data : aws (lambda, athena, glue, step functions, rds, s3) etl : talend data visualisation : microsoft power bi profil recherché expérience significative en data engineering bonne maîtrise de l’écosystème aws data (datalake) solide expérience sur talend (obligatoire) capacité à produire des dashboards power bi autonomie et capacité à intervenir en environnement projet
Offre d'emploi
Data Engineer GenAI / Databricks
UCASE CONSULTING
Publiée le
AWS Cloud
Databricks
GenAI
1 an
40k-45k €
400-710 €
Île-de-France, France
Bonjour à tous 😀 🎯 Contexte : Dans le cadre du développement de ses capacités en Intelligence Artificielle Générative , nous recherchons un Data Engineer spécialisé sur Databricks pour intervenir sur des cas d’usage innovants à forte valeur ajoutée. Le poste combine des enjeux de data engineering, machine learning et mise en production dans un environnement moderne. 🛠️ Missions principales Concevoir et développer des modèles de Machine Learning (GenAI) Collecter, préparer et exploiter les données Développer des pipelines d’ingestion et de transformation Assurer la mise en production et le monitoring des modèles (MLOps) Intervenir sur des sujets d’architecture RAG et fine-tuning Conseiller sur les choix techniques et les cas d’usage 🧩 Environnement technique Python / SQL / Pandas Databricks Machine Learning / Deep Learning (LLM, Transformers) Architectures GenAI (RAG, fine-tuning) Cloud AWS MLOps
Offre d'emploi
DevOps Engineer IA
TS-CONSULT
Publiée le
Azure
Terraform
1 an
Île-de-France, France
Bonjour a tous , actuellement je suis a la recherche d'un profil Compétences requises DevOps Engineer IA Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Hard Skills : • 5 ans d'expérience minimum en DevOps/SRE • Expérience démontrée en vibe coding avec utilisation d'outils IA pour générer scripts, configs et diagnostiquer incidents • Expertise en MLOps et déploiement de modèles IA en production • Maîtrise des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud • Expertise en Infrastructure as Code (Terraform, CloudFormation, ARM Templates) • Maîtrise de la conteneurisation et orchestration (Docker, Kubernetes, Helm) • Expertise CI/CD (GitLab CI, GitHub Actions, Jenkins, Azure DevOps) • Connaissance des outils MLOps (MLflow, Kubeflow, Weights & Biases, SageMaker Pipelines) • Maîtrise du scripting (Bash, Python) et automatisation • Expérience en monitoring et observabilité (Prometheus, Grafana, ELK, DataDog) • Connaissance des pratiques de sécurité DevSecOps • Gestion des secrets et configuration (Vault, AWS Secrets Manager) • Un plus : Expérience avec GPUs et optimisation des ressources IA Soft Skills : • Capacité à utiliser l'IA pour diagnostiquer et résoudre rapidement les incidents • Pragmatisme : équilibre entre automatisation et délais de livraison • Rigueur dans la conception et la sécurisation des infrastructures • Esprit d'innovation et veille technologique continue • Autonomie et proactivité dans l'identification des problèmes • Excellent sens du service et support aux équipes de développement • Esprit collaboratif et pédagogue • Réactivité face aux incidents de production Résultats attendus (Livrables) • Conception et mise en place d'architectures Cloud pour solutions IA (scalables, sécurisées, optimisées) • Déploiement et gestion d'infrastructures as Code (Terraform, CloudFormation) • Mise en place de pipelines CI/CD pour applications et modèles IA • Utilisation experte du vibe coding pour générer scripts, configs et automatisations • Automatisation des déploiements et rollbacks (blue/green, canary) • Configuration du monitoring, alerting et observabilité des modèles IA en production • Gestion des environnements (dev, staging, production) et des accès • Optimisation des coûts Cloud et des performances (GPU, compute, stockage) • Support aux développeurs sur l'outillage et les best practices DevOps • Documentation technique des infrastructures et procédures • Mise en place de pratiques DevSecOps et conformité sécurité • Partage des best practices MLOps et vibe coding avec l'équipe Anglais courant
Mission freelance
DEVELOPPEUR(SE) IA
Les Filles et les Garçons de la Tech
Publiée le
Azure
Azure AI Foundry
Copilot
12 mois
400-550 €
Île-de-France, France
En collaboration étroite avec le chef de projet et l'architecte IA, vous aurez pour mission principale de concevoir, documenter et mettre en œuvre les évolutions du portail IA interne. Vos responsabilités couvriront : Développement Front-End : Améliorer l'interface utilisateur pour offrir un accès sécurisé aux assistants IA selon les profils, intégrer un parcours d'accueil, une FAQ et des modules de formation. Développement Back-End & API : Permettre aux utilisateurs de créer et d'exposer de nouveaux assistants (avec gestion des droits d'accès), maintenir les mécanismes de suivi de la consommation d'IA (FinOps) et gérer l'exposition des assistants via API pour les applicatifs métiers. Expertise RAG et Données : Accompagner les utilisateurs dans la création de leurs bases de connaissances en concevant des pipelines d'ingestion optimisés. Vous mettrez en place des outils pour tracer la qualité des données ingérées et des réponses générées. Déploiement et CI/CD : Assurer la livraison des évolutions sur les différents environnements, gérer le versioning , définir les tests de validation, maintenir la documentation à jour et effectuer d'éventuelles corrections à chaud. Création et Support : Concevoir des assistants IA « modèles » préconfigurés pour répondre aux besoins spécifiques des utilisateurs non techniques, et assurer l'assistance technique et la résolution des incidents (support de niveau 2 et 3).
Mission freelance
DBA Oracle - AWS
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Oracle
3 mois
Paris, France
Anglais courant requis!! Dans le cadre d’une mission stratégique pour l’un de mes clients internationaux, je recherche un Database Administrator Senior disponible rapidement. Démarrage : 1er avril 2026 Durée : 3 mois Télétravail : Full remote (2 semaines d’intégration sur site, puis full remote) Rythme : Astreintes prévues Environnement international – anglais courant requis Responsabilités Participation aux projets de migration vers AWS Automatisation des environnements et développement de scripts Gestion et optimisation des bases Oracle et SQL en EMEA Mise en place et suivi des outils de monitoring Gestion des clusters, réplications, sauvegardes, plans de reprise Support incident, changement, migration et DRP
Offre d'emploi
Cloud FinOps Engineer Azure
KLETA
Publiée le
Azure
FinOps
Reporting
3 ans
Paris, France
Nous recherchons un Cloud FinOps Engineer Azure pour piloter et optimiser la performance financière des environnements cloud à grande échelle. Vous serez responsable de l’analyse des coûts Azure via Cost Management, Advisor et des outils de reporting, afin d’identifier les leviers d’optimisation et les axes d’amélioration. Vous travaillerez sur des stratégies de right-sizing, d’autoscaling, de réservations et d’optimisation des services (AKS, App Service, Azure Storage, Azure SQL). Vous contribuerez à la mise en place de modèles de refacturation interne (chargeback/showback) et à la définition de politiques de gouvernance financière. Vous développerez des tableaux de bord de pilotage des coûts et mettrez en place des alertes pour prévenir les dépassements budgétaires. En collaboration avec les équipes DevOps et Architecture, vous participerez à l’intégration des bonnes pratiques FinOps dans les processus d’industrialisation et les pipelines CI/CD. Vous jouerez également un rôle clé dans la sensibilisation et la formation des équipes aux enjeux de maîtrise des coûts et de sobriété cloud.
Offre d'emploi
Développeur Kafka Confluent (H/F)
SAS GEMINI
Publiée le
Apache Kafka
Azure
DevOps
24 mois
La Défense, Île-de-France
Au sein de la DSI d’un grand groupe industriel international, vous intégrez une équipe Data & Streaming en charge de la conception et de l’exploitation de la plateforme de streaming de données temps réel. L’environnement technique est centré sur Apache Kafka (Confluent Platform) déployé sur Microsoft Azure. Missions principales: - Concevoir, développer et maintenir les pipelines de streaming de données basés sur Apache Kafka (Confluent Platform) sous Azure - Assurer la mise en place et l’administration des clusters Kafka : topics, partitions, consumers, connecteurs (Kafka Connect) - Développer des applications de traitement en temps réel avec Kafka Streams ou ksqlDB - Implémenter et gérer les schémas de données via le Schema Registry (Avro, Protobuf, JSON Schema) - Participer à la mise en place de patterns d’intégration événementielle (Event-Driven Architecture) - Monitorer les performances et la fiabilité des flux Kafka (Confluent Control Center, Grafana, Azure Monitor) - Collaborer avec les équipes Data Engineering, DevOps et Architecture dans un contexte Agile - Rédiger la documentation technique en anglais
Offre d'emploi
Responsable Equipe support N1-2
LOMEGARD
Publiée le
Azure
Support utilisateurs
Windows Server
45k-70k €
Hauts-de-Seine, France
Contexte Au sein d’un environnement multi-clients (plus d’une centaine de clients et plusieurs milliers d’utilisateurs), le Responsable Support IT encadre et pilote une équipe d’une 12ainede techniciens Helpdesk N1 et N2. Il assure la qualité de service, le suivi des performances, ainsi que la synergie entre les opérations et les équipes commerciales. Missions principales : Management & Encadrement Encadrement et leadership d’une équipe d’environ 12 techniciens support (N1 & N2). Gestion du personnel et des ressources humaines (planning, suivi, primes, évaluations). Recrutement, intégration et formation des nouveaux collaborateurs. Développement des compétences et accompagnement à la montée en expertise. Pilotage & Organisation Planification, organisation et coordination des réunions avec clients, équipes internes et collaborateurs. Participation aux instances stratégiques (COPIL, COTECH, COMOP). Mise en place de nouveaux comptes et animation des réunions de cadrage. Optimisation des processus (onboarding/offboarding, build-to-run). Suivi des performances & Qualité Mise en place, suivi et analyse des indicateurs de performance (SLA, KPI). Analyse de la qualité de service et détection proactive des incidents. Reporting régulier sur les activités et performances auprès de la direction et des clients. Révision et mise à jour de la documentation interne (conformité qualité & sécurité ISO). Contribution à l’amélioration continue des services et solutions IT.
Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st
WorldWide People
Publiée le
DevSecOps
12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Offre d'emploi
DEVOPS AZURE
Les Filles et les Garçons de la Tech
Publiée le
Azure
Docker
Jenkins
6 mois
10k-50k €
100-460 €
Île-de-France, France
En tant qu'Ingénieur DevOps, vos missions principales consisteront à concevoir, maintenir et optimiser des pipelines CI/CD robustes, avec une attention particulière sur GitHub et GitHub Actions. Vous serez chargé(e) de déployer et de surveiller des applications sur Microsoft Azure en utilisant l'Infrastructure as Code (Terraform), tout en appliquant les meilleures pratiques FinOps. Votre rôle inclura également : • L'assurance de l'automatisation, de la disponibilité et de l'observabilité des solutions en production, via la mise en place d'outils de surveillance des performances. • L'accompagnement actif des équipes de développement (R&D) dans l'utilisation des pipelines CI/CD construits, afin de promouvoir la culture DevOps. • La standardisation et la simplification des outils DevOps avec des configurations prêtes à l'emploi. • La collaboration avec les départements IT et Digital pour sécuriser et maintenir les environnements locaux et cloud. • Une veille technologique pour anticiper les tendances et contribuer à l'évolution de l'écosystème DevOps de l'entreprise.
Offre d'emploi
Data Engineer Senior
LEVUP
Publiée le
AWS Cloud
Snowflake
12 mois
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Mission freelance
Senior Python Engineers orientés Data & Distributed Systems
Comet
Publiée le
AWS Cloud
Numpy
Pandas
6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2197 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois