Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 992 résultats.
CDI

Offre d'emploi
Administrateur DevOps Cloud AWS

CONCRETIO SERVICES
Publiée le
AWS Cloud
DevOps
Jenkins

50k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte & Environnement Vous rejoignez une équipe de 5 personnes dans un contexte fortement international impliquant de nombreuses collaborations avec des équipes offshore. Ce poste requiert d'excellentes qualités relationnelles et une capacité à communiquer efficacement en français et en anglais, tant à l'écrit qu'à l'oral. Missions Principales – Administrer et maintenir l'infrastructure Cloud AWS (EC2, ECS, S3, IAM, VPC, RDS…) – Concevoir, déployer et optimiser les pipelines CI/CD avec Jenkins – Diagnostiquer et résoudre les incidents liés aux chaînes de livraison continue – Automatiser les déploiements et la configuration des environnements via Ansible – Superviser les conteneurs applicatifs orchestrés sur Amazon ECS – Collaborer étroitement avec les équipes de développement onshore et offshore – Rédiger la documentation technique et les runbooks en français et en anglais – Participer activement aux rituels Agile et aux réunions de pilotage internationales
Freelance

Mission freelance
Senior Tech Lead Cloud AWS & Azure - full remote

Net technologie
Publiée le
AWS Cloud
Azure
Cloud

3 mois
France
Contexte de la mission : Nous recherchons un Senior Tech Lead pour concevoir, déployer et maintenir des solutions technologiques avancées dans un environnement hybride et multi-cloud (AWS, Azure, on-premise). Le rôle est fortement orienté R&I / environnements de laboratoires, avec des interactions étroites entre applications scientifiques, postes de travail connectés à des instruments, data centers locaux et plateformes cloud. Le consultant travaillera en binôme avec le Domain Solutions Architect et jouera un rôle de référent technique global pour plusieurs sites internationaux. Tâches à réaliser : Piloter la conception et le déploiement de solutions hybrides et multi-cloud (AWS, Azure, on-prem) Être le référent technique global pour les environnements de laboratoires R&I Aligner les solutions avec les stratégies d’architecture d’entreprise et les roadmaps IT Intégrer des briques IA et HPC dans les solutions de recherche Garantir la sécurité, la conformité réglementaire et la cybersécurité (en lien avec les équipes dédiées) Produire et maintenir la documentation technique et opérationnelle Diagnostiquer et résoudre des incidents complexes sur des systèmes distribués Encadrer et faire monter en compétences les équipes d’ingénierie
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance

Mission freelance
CONSULTANT MICROSOFT AZURE AD / ENTRA ID

PROPULSE IT
Publiée le
Azure
microsoft

24 mois
300-600 €
La Défense, Île-de-France
nous sommes à la recherche d'un consultant Entra ID afin de renforcer une équipe actuellement composée de 10 personnes. Le consultant devra avoir un minimum de 6 années d'expérience sur les solutions Microsoft Azure AD/ Entra ID (des compétences AD avec maîtrise du legacy sont déjà en place). Sa mission consistera à participer aux différents projets de reprise de l'activité ainsi qu'à assurer le run Entra ID sur le tenant existant. Run · Participation à la résolution des incidents et demandes de niveau 3 · Participation l'administration courante des solutions Entra ID et Active Directory. Projet · Participe activement aux projets de l'équipe en lien avec les différents acteurs et entités concernées Le lieu de la mission sera situé à La Defense avec une présence sur site de 2 jours. Un démarrage est attendu ASAP sur le mois de Janvier.
Freelance

Mission freelance
DATA MESH PLATFORM MANAGER

Codezys
Publiée le
Azure
Cloud
Data governance

12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Freelance
CDI

Offre d'emploi
Data Engineer (AWS / Databricks)

Hito
Publiée le
AWS Cloud
Databricks
Python

3 ans
40k-45k €
500-750 €
Tokyo, Japon
Pour le compte d’un de nos clients, nous recherchons un Data Engineer AWS motivé pour s’installer au Japon (Tokyo) afin de participer à la construction d’une nouvelle plateforme data. Missions : Dans le cadre de la mise en place d’un Data Hub, vous interviendrez notamment sur : - La construction de pipelines de données - L’intégration et la consolidation de données provenant de différents systèmes - Le mapping des flux de données entre systèmes sources et systèmes downstream - Le nettoyage et la fiabilisation des données - La mise à disposition des données pour des outils d’analyse et de reporting - Les échanges avec les équipes métier afin de comprendre les besoins data Stack technique - AWS - Databricks - Python - ECS - CI / CD - Outils de dataviz (type Tableau) Profil recherché - Expérience solide en Data Engineering - Très bonne maîtrise AWS - Expérience Databricks - Bonne compréhension des architectures data et pipelines Langues - Japonais requis (JLPT N2 dans l'idéal) pour échanger avec les équipes locales - OU Anglais professionnel/bilingue si tout est validé par le client pour la technique Organisation - Poste basé à Tokyo - Présence sur site 2 jours par semaine
CDI

Offre d'emploi
Data Engineer Sénior DBT / SQL

Clostera
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data Engineer DBT / SQL F/H pour intervenir sur la conception et le développement de services digitaux de notre client, visant à transformer et optimiser les fonctions financières du groupe. Ce que vous ferez : Vous rejoindrez l’équipe Flux , composée de profils expérimentés, dans le cadre du remplacement d’un consultant sur des projets à forte criticité liés à la gestion et à l’intégration de flux de données financiers. Les projets portent notamment sur des programmes visant à faciliter l’intégration de flux provenant de systèmes legacy et d’éditeurs externes vers l’écosystème comptable. Vos missions principales : Concevoir et développer des pipelines data pour l’intégration et la transformation de flux financiers. Mettre en place et maintenir des process batch automatisés (alimentation et export de fichiers). Structurer les pipelines et transformations de données via DBT . Manipuler et analyser des volumes importants de données en SQL. Déployer des interfaces génériques via scripts SQL . Contribuer à la mise en production des flux dans un environnement data industrialisé. Participer à l’amélioration continue des pipelines et des processus de traitement des données.
Freelance
CDI

Offre d'emploi
Senior DevOps AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation digitale, nous recherchons un DevOps AWS pour accompagner nos clients dans l’adoption des meilleures pratiques DevOps et Cloud Native. Vous interviendrez sur des missions de diagnostic, d’audit et de mise en œuvre de solutions d’industrialisation des infrastructures AWS. Vous analyserez les environnements existants, identifierez les axes d’amélioration et proposerez des trajectoires d’évolution adaptées aux contraintes techniques et métiers. Vous participerez à la mise en place de pipelines CI/CD modernes, à l’automatisation des déploiements et à la sécurisation des architectures cloud. En parallèle, vous accompagnerez les équipes internes dans la montée en compétence sur AWS et les pratiques DevOps. Votre rôle sera à la fois technique et pédagogique, avec une forte dimension conseil.
Freelance

Mission freelance
Chef de projet Azure Cloud - full remote

Net technologie
Publiée le
Azure
Sécurité informatique

3 mois
France
Dans le cadre de la transformation de sa Data Platform Azure , le client souhaite renforcer la gouvernance, la sécurité et la conformité réglementaire de son environnement cloud afin de garantir une adoption sécurisée et optimale de la nouvelle plateforme. 🛠 Principales responsabilités Mettre en place une gouvernance globale des données et des ressources Azure Définir et appliquer des politiques de sécurité (contrôle d’accès, chiffrement, gestion des identités) Assurer la conformité réglementaire (RGPD et autres normes applicables) Former et accompagner les équipes internes sur les bonnes pratiques de sécurité et de gouvernance Intégrer ces enjeux dans la stratégie globale de migration et de développement
CDI

Offre d'emploi
59-GEN_Développeur_C#/.NET Azure H/F

VIVERIS
Publiée le

35k-45k €
Lille, Hauts-de-France
Contexte de la mission Viveris pilote les programmes de transformation métier et IT à destination du secteur industriel. Dans ce cadre, nous menons la refonte d'un parc applicatif qui pilote et calcule les compositions chimiques du produit final. Vos missions et responsabilités : - Participer à l'architecture technique et au design de la nouvelle solution applicative. - Développer en C# / .NET la nouvelle application destinée à remplacer le système de gestion actuel. - Concevoir et développer les modules permettant le suivi des chaleurs, les corrections chimiques, les algorithmes de calcul d'ajouts et d'ajustement de composition chimique. - Créer et maintenir les API et services permettant l'échange de données avec les systèmes industriels (automates, laboratoire, MES...). - Déployer et exploiter les composants sur Microsoft Azure. - Garantir la fiabilité, la performance et la traçabilité des données de production. - Travailler en collaboration avec les équipes process, production et IT industrielle. - Contribuer aux pratiques DevOps, CI/CD et qualité de code.
CDI
Freelance

Offre d'emploi
Architecte GCP H/F

Le Groupe SYD
Publiée le
Ansible
CI/CD
Git

6 mois
55k-65k €
600-800 €
Bordeaux, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 📍Lieu : 🏠 Télétravail : 📝Contrat : 👉 Contexte client : Tu rejoins un environnement technique moderne et orienté Cloud public, dans lequel les pratiques DevOps, l’automatisation et l’industrialisation des pipelines sont au cœur des enjeux. En tant qu’ Architecte DevOps Cloud Public , tu interviens sur la conception, l’optimisation et la sécurisation des plateformes Cloud tout en garantissant la cohérence des bonnes pratiques DevOps au sein des équipes techniques. Tu auras pour missions de : Définir et mettre en œuvre des architectures Cloud public basées sur GCP . Industrialiser, automatiser et sécuriser les chaînes CI/CD , du développement au déploiement. Mettre en place, maintenir et optimiser l’infrastructure as code via Terraform . Accompagner les équipes techniques dans l’adoption des bonnes pratiques DevOps et Cloud. Déployer et administrer les outils d’automatisation et de configuration, notamment Ansible . Piloter les évolutions, standardiser les environnements et garantir la fiabilité et la performance des plateformes Cloud. Assurer une veille technique proactive autour des services Cloud, de la sécurité et des frameworks DevOps. 🧰 Stack technique : Cloud public : GCP (obligatoire) . DevOps : bonnes pratiques CI/CD, Git. Infrastructure as Code : Terraform . Automatisation : Ansible . Environnements : architectures Cloud public, pipelines CI/CD industrialisés.
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Freelance

Mission freelance
Développeur Full Stack .NET Angular Azure (h/f)

emagine Consulting SARL
Publiée le

1 mois
500-600 €
92400, Saint-Germain-en-Laye, Île-de-France
Résumé: Le rôle principal du Développeur Full Stack .NET Angular Azure est de contribuer au développement d'applications au sein d'une équipe dédiée, garantissant l'excellence du code et la qualité du logiciel. Responsabilités: Développer des applications utilisant C#, Angular et Python. Travailler en équipe pour maintenir et améliorer les applications existantes. Appliquer les principes de Clean Code et de Software Craftsmanship. Collaborer avec les membres de l'équipe pour assurer la qualité et la performance des applications. Intégrer et utiliser des bases de données SQL et NoSQL (SQL Server, Postgres, CosmosDB). Utiliser des services de cloud comme Azure et AWS. Exigences clés: Compétence en C#. Expérience avec Angular. Compétences en Python. Connaissance des technologies Cloud Azure et AWS. Expérience avec les bases de données SQL et NoSQL. Atouts appréciés: Familiarité avec des outils de développement agile. Expérience en développement d'applications Cloud. Compréhension des pratiques de Clean Code et de Software Craftsmanship. Autres Détails: Équipe: 10 à 12 personnes. Environnement technologique: C#, Angular, Python, Cloud Azure et AWS, SQL & NoSQL.
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Aix-en-Provence

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Freelance
CDI

Offre d'emploi
Data Engineer - GCP / BigQuery (H-F)

K-Lagan
Publiée le
Big Data
BigQuery
Dataiku

1 an
45k-50k €
500-550 €
Niort, Nouvelle-Aquitaine
🚀 Chez K-LAGAN, nous parions sur vous ! Vous recherchez un projet data structurant , dans un environnement moderne et orienté cloud & analytics ? Vous souhaitez évoluer sur des sujets à forte valeur ajoutée au sein d’une Data Platform ambitieuse ? Alors cette opportunité pourrait vous intéresser 👇 🔍 Nous recrutons un·e Data Engineer (F/H) confirmé Pour rejoindre l’un de nos clients et contribuer activement au développement de sa Data Fabrik , dans un environnement innovant et orienté performance. 🎯 Vos missions Définir les pré-requis techniques nécessaires aux nouveaux cas d’usage data Participer à la conception et l’implémentation de nouveaux modèles de données Développer, optimiser et maintenir les pipelines de transformation Contribuer à l’évolution des outils et bonnes pratiques Data Engineering Garantir la qualité, la fiabilité et la performance des traitements Collaborer étroitement avec les équipes Data, BI et Métiers
4992 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous