L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 756 résultats.
Offre d'emploi
Architecte Applicatif – Digital Factory (H/F)
Inventiv IT
Publiée le
Architecture
AWS Cloud
DevSecOps
Paris, France
Au sein d’une Digital Factory , vous intervenez sur des projets stratégiques en Build & Run (MCO) dans des environnements complexes et à fort enjeu. Vous êtes garant de la cohérence globale des architectures applicatives , dans une logique de performance, scalabilité et maintenabilité. Missions : Architecture & vision technique Définir et faire évoluer l’ architecture applicative (microservices, APIs, serverless) Garantir la cohérence technique globale des solutions Challenger les choix techniques et orienter les équipes vers les meilleures pratiques Participer aux cadrages techniques et aux choix structurants Accompagnement des équipes Collaborer étroitement avec les Tech Leads, développeurs et PO Accompagner les équipes sur les bonnes pratiques d’architecture Assurer la montée en compétence sur les standards techniques Intervenir sur les sujets critiques (support niveau expert) Delivery & MCO Superviser les projets en Build et Run Garantir la qualité, la performance et la robustesse des applications Anticiper les risques techniques et proposer des plans d’action Contribuer à l’amélioration continue des processus DevSecOps & Cloud Promouvoir les pratiques DevSecOps (CI/CD, sécurité, automatisation) Participer à l’industrialisation des déploiements Optimiser les architectures Cloud (AWS, GCP) Assurer l’observabilité (monitoring, logs, performance) Innovation & transformation Être force de proposition sur les évolutions technologiques Contribuer à la roadmap technique Veiller aux tendances et aux nouvelles pratiques du marché Environnement technique : Backend : Java, Spring Boot Frontend : React Architecture : Microservices, APIs, Serverless Cloud : AWS, GCP DevOps : GitLab CI/CD, Docker, Terraform Data : PostgreSQL, MongoDB
Offre d'emploi
Expert Active Directory & Cloud
TDS
Publiée le
Active Directory
Azure
Azure Active Directory
1 an
50k-70k €
500-650 €
Courbevoie, Île-de-France
Dans le cadre de la modernisation et de la sécurisation d'un système d’information, nous recherchons un Expert Active Directory & Cloud pour piloter plusieurs projets stratégiques autour de l’identité, de la sécurité et des infrastructures. Vos missions principales seront : Refonte DNS & sécurisation AD Pilotage de la refonte de l’infrastructure DNS (séparation DC / DNS) Migration des zones DNS (directes et inverses) Mise en place des ACLs et durcissement des accès Définition d’un modèle RBAC robuste Application d’un modèle de sécurité basé sur le tiering AD Identity & Access Management (Azure / Entra ID) Gestion des identités hybrides via Azure AD Connect Administration des rôles RBAC Azure Déploiement et gestion de la MFA Mise en place des politiques de sécurité (password, accès) Automatisation & IAM Automatisation via PowerShell / Python Implémentation de SailPoint IdentityNow Gestion du provisioning / deprovisioning (HR → AD / Cloud) Mise en place de workflows IAM (Okta, SCIM) SSO & fédération des identités Intégration Okta / Active Directory / Entra ID Déploiement SSO & MFA à grande échelle Gestion des accès adaptatifs Audit & gouvernance des accès Audit des droits Azure & GCP Identification des accès excessifs / comptes orphelins Mise en œuvre des remédiations (Zero Trust) Monitoring (Centreon, Varonis) Résilience & continuité Mise en place d’un PRA Active Directory Déploiement d’environnements de secours sur Azure Tests et documentation des procédures DRP Documentation & coordination Rédaction des procédures (Confluence) Collaboration avec équipes Réseau, SecOps, CISO et Architectes
Mission freelance
Chef de Projet Migration Cloud H/F
AGH CONSULTING
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
300-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Responsable projets Migration Cloud expérimenté pour piloter des programmes de Move to Cloud sur des environnements GCP, Azure et AWS. A ce titre, vos principales missions seront les suivantes : ▪ Piloter des programmes de migration Cloud de bout en bout (de la phase d’appel d’offres jusqu’à la mise en production et l’acceptation) ▪ Définir et sécuriser les stratégies de migration dans des contextes multi-cloud et réglementés ▪ Coordonner l’ensemble des parties prenantes : Project Manager, Product Design Authority, équipes d’architecture, de sécurité, partenaires et sous-traitants ▪ Garantir le respect des coûts, délais, qualité et conformité des projets ▪ Assurer le pilotage global des risques, dépendances et plans d’actions ▪ Mettre en place une gouvernance projet structurée (revues, comités, reporting
Mission freelance
Data Engineer
Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API
1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Offre d'emploi
Senior Looker / LookML Developer
xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio
6 mois
40k-66k €
400-600 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data et de la modernisation des outils de Business Intelligence, un Senior Looker / LookML Developer est recherché afin de renforcer une équipe Data. La mission consiste à intervenir sur la structuration des modèles de données, le développement de dashboards et l’accompagnement des équipes métiers dans l’utilisation de la solution Looker. L’intervention se fera au sein d’une équipe composée de Data Engineers, Data Analysts et Product Owners, dans un environnement international et agile. Missions principales Développement Looker / LookML Conception et développement de modèles LookML (views, explores, dimensions, measures) Mise en place des bonnes pratiques de modélisation Optimisation des performances des requêtes Data Modelling Modélisation des données pour l’analyse et le reporting Collaboration avec les équipes Data Engineering pour structurer les datasets Mise en place de standards de gouvernance des données Data Visualisation Création et maintenance de dashboards Looker Définition et structuration des KPI métiers Amélioration de l’expérience utilisateur des dashboards Accompagnement métier Recueil des besoins auprès des équipes métiers Animation d’ateliers fonctionnels Support et accompagnement des utilisateurs Environnement technique Looker / LookML Google Cloud Platform BigQuery SQL Git
Mission freelance
Conception Python, Angular, AWS - Bordeaux
Signe +
Publiée le
Agent IA
Angular
AWS Cloud
60 jours
370-390 €
Bordeaux, Nouvelle-Aquitaine
🔺Contrainte forte du projet : Python, Angular, AWS Description détaillée Pour un client majeur de l'énergie (eau), expertise autour des solutions Python, Angular, AWS pour le cadrage, la conception, la réalisation, l'intégration, et l'exploitation d'applications dans un environnement DevOps et Agile. Il est également attendu l'accompagnement de la squad pour les enjeux techniques et d'architecture des applications. Le livrable est : Expertise, Conception, Réalisation, Accompagnement Lieu de réalisation : Bordeaux Déplacement à prévoir : non Nombre de jours souhaitables sur site : 2 jours par semaine
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Ingénieur DevOps Senior AWS
VISIAN
Publiée le
AWS Cloud
DevOps
Terraform
1 an
Paris, France
Contribuer à la conception, la sécurisation, l’exploitation et l’amélioration continue de la Landing Zone AWS, avec une priorité forte donnée au maintien en condition opérationnelle et au support des clients internes utilisant la plateforme. Principales responsabilités Assurer le run de la Landing Zone AWS et garantir sa stabilité opérationnelle Prendre en charge le maintien en condition opérationnelle de la plateforme Identifier et mettre en œuvre des optimisations techniques et opérationnelles Participer aux rituels Agile de l’équipe Traiter le backlog Jira et contribuer aux User Stories définies par le PO et le PM Produire et maintenir la documentation d’architecture ainsi que les procédures de run Assurer la communication interne avec les équipes du socle Interagir avec les clients internes , pôles, clusters et autres entités du Groupe Contribuer, selon les besoins, à des sujets de build et d’ automatisation Soft skills Esprit d’analyse Rigueur Autonomie Force de proposition Capacité à communiquer et à partager l’information Bon relationnel avec des interlocuteurs techniques et métiers Livrables attendus Documentation technique de la plateforme Documentation des projets hébergés sur la plateforme Procédures de run Contributions aux sujets d’optimisation et de fiabilisation Éléments liés au projet FinOps le cas échéant
Offre d'emploi
Dev .net / angular / azure / aws
VISIAN
Publiée le
.NET
Angular
3 ans
40k-45k €
400-590 €
Île-de-France, France
Dans un premier temps, le consultant devra acquérir les connaissances nécessaires auprès de l'équipe afin de se familiariser avec notre parc applicatif et notamment être en mesure de prendre en charge des sujets courants, principalement autour de la Supervision du Trading. Par la suite, le consultant évoluera afin de prendre en charge d'autres sujets. · Digital Onboarding : conformité et intégration des utilisateurs · Org Manager : gestion de la structure organisationnelle · Trading Supervision Platform : gestion des mandats et contrôles associés · Déclaration de l'Expected PnL · Processus Cancel & Modify des deals · Reporting (Power BI) variés selon les Data set (AWS) · Gestion des produits autorisés via Cartool (nouveau projet Q2 2026) Quelques éléments importants qui guideront notre choix : *-Nous exposons de nombreuses données à destination de nos clients sur AWS au travers de Power BI. L'appétence du candidat pour nous accompagner sur ce type de sujet, même sans compétence initiale particulière, sera un plus. *-Les développements sont réalisés avec l'assistance de Github Copilot. Cela nécessite donc d'adopter un nouveau type de fonctionnement hybride qui requiert de la curiosité, un sens critique ainsi qu'un recul important afin de conserver une vue d'ensemble du développement. *- chaque développeur doit être en mesure de participer à la collecte du besoin avec le business Analyst mais également supporter ses applications auprès de la population front office *-Une attention particulière sera portée à l'application des bonnes pratiques d'architecture.
Offre d'emploi
Tech Lead Java F/H
Atecna
Publiée le
CI/CD
Domain Driven Design (DDD)
Google Cloud Platform (GCP)
Lille, Hauts-de-France
Une communauté Java qui grandit, des projets à forte valeur technique. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Java, animée par Lamine et une équipe d'experts passionné·es en pleine expansion. ⚡ Ton impact au quotidien Tu interviens sur des projets clients à fort enjeu métier. Architecture & conception Tu conçois des architectures Java 17+ / Spring Boot 3+ robustes et scalables Tu mets en place des architectures Microservices , orientées DDD / Clean Architecture Tu définis des API REST cohérentes (OpenAPI, versioning, sécurité OAuth2) Tu arbitres entre performance, maintenabilité et time-to-market Excellence d’ingénierie Tu imposes des standards clairs : TDD, tests d’intégration (Testcontainers), Sonar, revues de code exigeantes Tu structures la CI/CD (GitLab CI, GitHub Actions ou équivalent) Tu industrialises les déploiements (Docker, Kubernetes) Tu mets en place observabilité & monitoring (Micrometer, Prometheus, Grafana, Datadog) Leadership technique Tu mentors les développeurs pour faire monter l’équipe en compétences Tu sécurises la dette technique Tu es le référent technique auprès du client
Mission freelance
TECH LEAD - AWS DATA ENGINEER
CHOURAK CONSULTING
Publiée le
Amazon Redshift
Amazon S3
Apache Airflow
3 mois
400-700 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Mission freelance
DBA Oracle - AWS
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Oracle
3 mois
Paris, France
Anglais courant requis!! Dans le cadre d’une mission stratégique pour l’un de mes clients internationaux, je recherche un Database Administrator Senior disponible rapidement. Démarrage : 1er avril 2026 Durée : 3 mois Télétravail : Full remote (2 semaines d’intégration sur site, puis full remote) Rythme : Astreintes prévues Environnement international – anglais courant requis Responsabilités Participation aux projets de migration vers AWS Automatisation des environnements et développement de scripts Gestion et optimisation des bases Oracle et SQL en EMEA Mise en place et suivi des outils de monitoring Gestion des clusters, réplications, sauvegardes, plans de reprise Support incident, changement, migration et DRP
Mission freelance
Data Scientist
ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python
1 an
Lille, Hauts-de-France
🎯 Objectif global Concevoir et développer de nouveaux algorithmes de Machine Learning afin d’enrichir et d’améliorer un système de recommandation à fort impact business. 📦 Livrables attendus Développement d’algorithmes ML opérationnels Prototypes (PoC / MVP) validés techniquement Documentation technique associée Mécanismes d’explicabilité des modèles Recommandations d’optimisation et d’industrialisation 🚧 Contraintes du projet Forte exigence de performance et de robustesse Nécessité d’explicabilité des algorithmes Intégration dans un écosystème data existant Collaboration transverse avec équipes produit et techniques 🧠 Missions principales1. Veille & Innovation Suivre les avancées en IA/ML (Deep Learning, Reinforcement Learning, LLM, IA générative) Identifier les technologies pertinentes pour les cas d’usage recommandation Proposer des approches innovantes adaptées aux enjeux métier 2. Conception & Expérimentation Concevoir des Proof of Concept (PoC) Développer des MVP robustes Tester et comparer différentes approches algorithmiques 3. Analyse de données & Modélisation Explorer et analyser des datasets complexes Identifier patterns et signaux exploitables Concevoir, entraîner et évaluer des modèles de recommandation 4. Explicabilité & Qualité Mettre en place des mécanismes d’interprétabilité Garantir la compréhension des résultats par les parties prenantes Documenter les choix techniques et les performances 5. Collaboration & Intégration Travailler en lien étroit avec Product Owners et équipes data Participer à l’intégration des modèles dans les plateformes existantes Contribuer à l’amélioration continue des solutions IA 🌍 Langues Français courant – Impératif Anglais professionnel – Secondaire
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2756 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois