Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 478 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer TERADATA ET DATAVIZ

WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)

12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions sous technologie Teradata, en étroite collaboration avec les autres membres de la squad et de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage, traitement et usages, mise à disposition : une expérience des environnements Unix, une forte expertise SQL et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous interviendrez à la fois sur des activités projet mais aussi sur du RUN (suite des traitements de production, analyse/résolution d’incidents, optimisations, amélioration continue). Ces interventions sont primordiales, chaque membre de la squad participe au traitement des incidents et à l’amélioration continue du périmètre applicatif.
Freelance

Mission freelance
LILLE - Security Engineer - Network Cloud/Onprem & Cloud Infrastructure

CAT-AMANIA
Publiée le
Google Cloud Platform (GCP)
IAM
LAN

3 mois
400-620 €
Lille, Hauts-de-France
Contexte de la mission En tant qu'acteur majeur de la transformation numérique, notre Groupe a pour ambition de construire des fondations technologiques solides et innovantes. La Cloud Platform Engineering (CPE) , initiative collaborative lancée en 2020, est le moteur de cette transformation. La CPE est une entité transverse à l’ensemble de nos domaines d'activité et de nos implantations internationales. Elle regroupe des experts dédiés à l'expérience développeur, à la stabilité, à la scalabilité, aux réseaux, à l'observabilité et au FinOps. Nos objectifs : Rationaliser le catalogue technique au sein du groupe. Fournir des services "clés en main" permettant aux équipes applicatives de se concentrer sur la création de valeur métier. Mutualiser les compétences pour favoriser la mobilité interne et l'expertise technique approfondie. Aujourd’hui, la CPE est un domaine de près de 200 collaborateurs en pleine croissance. La Sécurité de l’Information étant un pilier stratégique de notre développement, nous recherchons un(e) : Cloud Security Engineer (H/F) Objectifs et livrables En collaboration avec le Security Officer, l'équipe Sécurité globale et les experts de la CPE, vos missions seront les suivantes : Vision & Stratégie : Définir la stratégie de sécurité réseau à moyen et long terme pour l'ensemble du Groupe. Architecture : Co-construire des solutions avec les architectes pour garantir l'intégration native des exigences de sécurité. Gouvernance : Animer la définition et la communication des politiques de sécurité. Gestion des Risques : Identifier les risques sur votre périmètre et piloter leur traitement avec les parties prenantes. Pilotage : Mettre en œuvre et suivre les indicateurs de sécurité (KPIs) pour offrir une visibilité globale. Roadmap : Collaborer avec les Product Owners pour intégrer les enjeux de sécurité dans les feuilles de route produits. Accompagnement : Soutenir les équipes dans la mise en œuvre opérationnelle des actions de sécurisation. Résilience : Garantir la robustesse des produits réseaux en cohérence avec les enjeux métiers. Gestion d'incidents : Analyser et piloter la résolution des incidents de sécurité en collaboration avec les acteurs concernés. Culture Sécurité : Sensibiliser les équipes aux enjeux de risque et de conformité au sein de votre Business Unit. Veille : Assurer une veille technologique constante pour identifier les menaces et proposer des solutions innovantes. Compétences recherchées Domaine de compétenceNiveau attenduIAM Cloud (Portails services, Account factories, Identités users/workload, FinOps)Avancé SI Interne (LAN/WLAN/NAC, SDWAN/Backbones, DNS)Expert Infrastructure (Compute, VM, Kubernetes, Stockage, PaaS, Secrets, Monitoring, APIs)Avancé Accès Distant & Privilèges (PAM, VPN)Confirmé Publication d’application (Cloud Proxy, WAF, Filtering, DNS, Certificats)Expert
Freelance

Mission freelance
Data Engineer GCP H/F

LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)

6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Freelance

Mission freelance
Software Engineer Senior Fullstack — Python / Vue.js / DevOps

Tenth Revolution Group
Publiée le
Angular
Bash
Linux

1 an
350-400 €
Saint-Denis, Île-de-France
Notre client est un grand groupe industriel français qui recherche un Software Engineer Senior pour participer à la refonte d'un module applicatif stratégique et à la mise en place d'une nouvelle architecture logicielle. Vous interviendrez au sein d'une cellule technique en lien direct avec les équipes architecture et le responsable produit. Tes missions Participation à la refonte d'un module applicatif et à la mise en place d'une nouvelle architecture logicielle Choix techniques sur l'architecture en collaboration avec les équipes archi Conception et développement de l'application (backend Python + frontend Vue.js ou Angular) Conseil technique auprès des développeurs et revues de code Appui technique sur les middlewares et bases de données Actions techniques sur les serveurs (commandes Linux, scripts bash) Mise en place et suivi des pipelines DevOps (GitLab CI, Ansible, Maven, Artifactory) Échanges avec le responsable produit pour établir une conception technico-fonctionnelle accessible aux utilisateurs Stack Backend : Python (POO, Pandas, manipulation NetCDF, JSON) Frontend : Vue.js ou Angular DevOps : GitLab, GitLab CI, Docker, SonarQube, Checkmarx, Artifactory, Maven Outils : Jira, Confluence, Ansible Environnement : Linux, scripts bash
CDI

Offre d'emploi
Alternance - Data Engineer Cloud / IA F/H

█ █ █ █ █ █ █
Publiée le
Big Data
DevOps
Python

Rouen, Normandie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Senior / Lead DevOps Engineer (5jrs sur site)

Signe +
Publiée le
DevOps

12 mois
540 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Renfort urgent d’un profil DevOps senior très orienté Ops Mission centrée sur la gestion et la préparation des environnements de déploiement Présence obligatoire sur site 5 jours par semaine Environnement structuré autour des pratiques DevOps et Software Factory Objectifs de la mission Garantir la gestion de configuration des environnements Mettre en place et industrialiser les processus CI/CD Automatiser les releases et sécuriser les déploiements Assurer la stabilité et la fiabilité des environnements techniques Responsabilités principales Mise en place des outils d’intégration et de déploiement continu Packaging et déploiement des solutions en release automation Déploiement des briques de communication et d’intégration (MQ, Pelican…) Construction et gestion des plans batch (Maestro, Etap…) Résolution des incidents liés aux environnements et aux jobs automatisés Mise en place et diffusion des bonnes pratiques DevOps Documentation et capitalisation des connaissances (Wiki) Déploiement des solutions sur l’ensemble des environnements (dev → prod) Compétences techniques requises Expertise DevOps orientée exploitation / opérations Maîtrise impérative d’Ansible Expérience solide en automatisation de déploiement et gestion d’environnements Bonne culture CI/CD, industrialisation et infrastructure Autonomie rapide attendue Compétences appréciées Connaissance du PLM Dassault Systèmes (non obligatoire) Expérience en rôle de Lead ou référent DevOps Profil recherché Senior très expérimenté Capable de structurer, stabiliser et améliorer les processus existants À l’aise en environnement exigeant et fortement industrialisé
CDI

Offre d'emploi
Business Analyst / Software Engineer Mainframe F/H - Informatique industrielle (H/F)

█ █ █ █ █ █ █
Publiée le
COBOL

69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
📩 Data Engineer / DevOps – Data Platform

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Freelance

Mission freelance
Senior Python Engineers orientés Data & Distributed Systems

Comet
Publiée le
AWS Cloud
Numpy
Pandas

6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Freelance

Mission freelance
Lead / Senior Frontend Angular Engineer H/F

ADSearch
Publiée le
Angular
Preuve de concept (POC)
SaaS

3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution du produit InsiderLog , nous recherchons un(e) Lead / Senior Frontend Angular Engineer capable de prendre en charge la conception, l’architecture et la maintenance d’une application frontend scalable, performante et maintenable . Le produit évolue dans un environnement SaaS exigeant , avec de fortes contraintes de qualité, sécurité, performance et évolutivité , ainsi qu’un fort niveau d’interaction avec les équipes Product, Design et Backend . Le/la consultant(e) interviendra sur des sujets à forte valeur ajoutée, en transformant des besoins métiers complexes — notamment autour de la Monetization , du module Advisor , ainsi que des évolutions réglementaires liées à MAR 2026 — en interfaces utilisateurs intuitives, robustes et durables . Au-delà du développement pur, cette mission nécessite une vraie dimension d’ownership technique : la personne attendue devra structurer l’architecture frontend , garantir la qualité du code , contribuer aux choix techniques stratégiques , et accompagner l’équipe dans l’adoption des meilleures pratiques Angular.
Freelance

Mission freelance
Site Reliability Engineer (SRE) – Datadog

ALLEGIS GROUP
Publiée le
Datadog
DevOps

1 an
La Garenne-Colombes, Île-de-France
Dans le cadre du renforcement des pratiques d’ observabilité et de fiabilité opérationnelle , nous recherchons un Site Reliability Engineer (SRE) spécialisé sur Datadog . Vous interviendrez sur des applications critiques afin de fiabiliser le Run, anticiper les incidents et améliorer la performance globale des systèmes. Vous intégrerez les équipes Ops / Plateforme / Production , en collaboration étroite avec les équipes Développement, Cloud et Sécurité . Objectifs de la mission Consolider et industrialiser le monitoring et l’observabilité Améliorer la qualité du Run Anticiper et réduire les incidents récurrents Renforcer la fiabilité et la résilience des applications du périmètre Missions principales Observabilité & Monitoring – Datadog Définir, mettre en place et optimiser les dashboards Datadog Configurer et maintenir l’ APM (Application Performance Monitoring) Implémenter des monitors (alerting, sondes, seuils dynamiques) Créer des dashboards métiers et techniques pour les équipes applicatives Superviser logs, métriques, traces et événements via : Datadog Logs Datadog Metrics Datadog Tracing
Freelance
CDI

Offre d'emploi
Cloud engineer Sénior (530€ MAX)

BEEZEN
Publiée le
Azure
Google Cloud Platform (GCP)

1 an
44k-61k €
400-530 €
Lyon, Auvergne-Rhône-Alpes
3 JOURS SUR SITE Projets Infra France de maintenances, de migrations et de déménagement portant sur les périmètres réseaux, infrastructures legacy (DC historiques), Cloud (Azure, GCP, OCI) ou sur les outils bureautiques France Livrables : ● Cadrage et Note de Cadrage ● Animation Coproj/Copil + compte rendu ● Animation Comité technique + compte rendu ● Suivi projet via outils de gestion de projet (Jira, Gsheet etc.) ● Suivi Budgétaire ● Suivi Plan de Charge ● Suivi des risques ● Document d'architecture des solutions à mettre en oeuvre ● Maîtrise avancée des outils de la Google Suite (Gmail, Sheets, Slides, Google Scripts, Gemini, Looker Studio, Big Query …) ● Diriger des programmes d'envergure nécessitant une maîtrise experte d'un domaine critique pour l'entreprise. ● Solide connaissance des technologies d'infrastructure IT (réseaux, serveurs, stockage, virtualisation, cloud computing, etc.) ● Connaissance des standards et bonnes pratiques ITIL ● Gérer des relations contractuelles complexes avec des partenaires technologiques majeurs et des éditeurs. ● Influencer les décisions stratégiques de l'entreprise grâce à une vision d'expert sur les tendances du marché. ● Valider la cohérence et la pérennité architecturale des solutions déployées au sein du programme spécialisé.
Freelance
CDI

Offre d'emploi
DEVOPS SRE/CLOUD GCP

INFOTEL CONSEIL
Publiée le
Gitlab
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)

3 ans
50k-61k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons pour une entreprise de renommée française, Un Ingénieur Devops SRE/GCP Cloud H/F en CDI sur Nantes. 3 jours sur site/2 jours en télétravail Dans le cadre d’une migration quasi complète vers Google Cloud Platform (GCP) avec un objectif de sortie progressive de l’environnement virtualisé historique, nous renforçons notre équipe SRI / DevOps. L’infrastructure est pensée cloud native , fortement orientée scalabilité, automatisation et fiabilité. Nous recherchons un consultant expérimenté , immédiatement opérationnel, capable d’apporter de la valeur technique rapidement et de s’inscrire dans une dynamique d’optimisation continue. Missions Concevoir, déployer et optimiser des architectures sur GCP Maintenir et faire évoluer les clusters GKE (scalabilité, sécurité, coûts) Industrialiser l’infrastructure via Terraform / Terragrunt Participer activement à l’amélioration continue de la CI/CD Mettre en place et améliorer les pratiques SRE (SLO, error budgets, post-mortems) Être force de proposition sur l’optimisation des performances et des coûts cloud Accompagner les équipes applicatives dans les bonnes pratiques cloud native Expliquer et défendre les choix techniques auprès des équipes et parties prenantes
CDI

Offre d'emploi
Data Engineer (H/F)

OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting

50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data
Freelance
CDI

Offre d'emploi
OPS ENGINEER - CLOUD AWS - CLOUD LEGACY

HEEVOX
Publiée le
AWS Cloud
Azure DevOps
Bash

3 ans
40k-65k €
450-550 €
Île-de-France, France
Ingénieur Système - Cloud - DevOps Démarrage : ASAP Durée : 3 ans Localisation : Ile de France (Proche Paris) Télétravail : 50 % L’Ops, étroitement intégré dans les équipes de développement et en s’appuyant sur les experts techniques, est garant du service qu’il opère, en particulier : De la disponibilité du service Du bon fonctionnement des infrastructures sous-jacentes (Sécurité, Scalabilité…) Du monitoring global de son produit (alerting, monitoring, observabilité) De l’automatisation et de la modernisation des infrastructures (Migration Cloud, mise en place de CI/CD…) Du pilotage et de la résolution des incidents en cas de déclenchement jusqu’à leur résolution L’Ops contribue également très fortement à l’amélioration continue des outils comme des processus afin d’optimiser son travail (Automatisation, gestion des problèmes…) Mission : Être le premier point de contact technique sur les services que vous opérez Assurer ou coordonner un support Niveau 3 pour les équipes de développement (Mise en production, Déploiement, suivi des tâches “Infras”...) Assurer la bonne opérabilité du service en production (monitoring, alerting, documentation…) Optimiser votre travail et celui de vos collègues via l’automatisation (Déploiement, Maintenance, Détection de problèmes, Reporting…) Proposer, implémenter et assurer un bon niveau de sécurité Piloter et Investiguer sur la résolution d’incidents (Communication, Escalade, Animation…) Superviser son/ses services (Disponibilité, Latence, Erreurs, Sauvegardes…) Accompagner les équipes de développement et de TMA pendant les phases de conception et de développement afin d’apporter la vision “Opérationnelle” et détecter le plus tôt possible les “angles mort” Participer à l’amélioration continue des Infrastructures (migration des infrastructures “Legacy” vers le Cloud, Automatisation via d'Infrastructure as Code), de la qualité et des TTMs.
Freelance
CDI

Offre d'emploi
Engineer Cloud Azure Resource Tagging (Luxembourg)

EXMC
Publiée le
Azure
DevOps

1 an
Luxembourg
Manual tagging of Azure Resources linked to Business Applications, Application Services and the integration layer Definition of the azure tagging policies Creation of templates and pipelines to ensure teams can use the predefined tagging aligned with the policies. Enforce the Tagging Policies Étiquetage manuel des ressources Azure liées aux applications métiers, aux services applicatifs et à la couche d’intégration. • Définition des politiques de tagging Azure. • Création de templates et de pipelines afin de permettre aux équipes d’utiliser un tagging prédéfini conforme aux politiques. • Application et contrôle du respect des politiques de tagging.
478 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous