Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 709 résultats.
Freelance
CDI

Offre d'emploi
Senior Machine Learning Engineer (MLE) - H/F

AMD Blue
Publiée le
AWS Cloud
Machine Learning
PySpark

3 ans
60k-65k €
650-730 €
Paris, France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Data . Contexte de la mission : Notre client développe et maintient des modèles de prévision de la demande et des ventes à l'échelle internationale. L'enjeu de 2026 est d'étendre la couverture de ces pipelines de production à de nouvelles zones géographiques mondiales (SEA, LATAM, NA et MEA). Dans ce cadre, nous recherchons un(e) Senior Machine Learning Engineer pour industrialiser, déployer et fiabiliser ces modèles de forecast à grande échelle. Descriptif de la mission : Les missions sont : Industrialisation et déploiement : Transformer les prototypes Data Science en pipelines robustes, orchestrer la mise en production et optimiser les performances de run. MLOps & Robustesse : Renforcer la CI/CD ML, versionner les modèles/datasets et implémenter le monitoring (drift, stabilité). Collaboration technique : Challenger la conception des modèles pour faciliter l'industrialisation et améliorer la qualité du code (structure, tests). Scalabilité internationale : Adapter les pipelines pour supporter de fortes volumétries multi-régions. Coordination : Structurer et prioriser les activités de Run & Stabilisation dans un environnement Agile (Scrum).
Freelance
CDI

Offre d'emploi
ARCHITECTE CLOUD AZURE AWS OVH

Actiis IT
Publiée le
AWS Cloud
Azure
OVHcloud

1 an
49k-61k €
440-510 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Techno : • Conception et migration d'architectures techniques en environnement hybride cloud (OVH, AWS, AZURE) en coordination avec les équipes transverses métiers • Rédaction des dossiers d'architectures techniques • Participation à la définition, construction et maintenance du portfolio d’offre et de services cloud • Compétences cloud en virtualisation, containerisation, orchestration et automatisation, stockage et sauvegarde, sécurité et réseaux • Connaissances en middleware, base de données et applications • Support technique en relation directe avec les clients, intégrateurs, éditeurs et constructeurs avec le support des experts Description détaillée de la prestation : • Vous avez une expérience dans la définition d'architecture et le déploiement de solutions de type Cloud, idéalement dans un contexte d’infogérance et avez démontré votre capacité à travailler dans un contexte hautement évolutif avec des systèmes et des équipes distribuées • Intégrez l’équipe Architecture d’un Centre d’expertise et participez à la consolidation de l’offre Cloud, ainsi qu’à la réalisation de projets, de définition d’architecture, de migration et de relocalisation d’infrastructure, d’audit, de conseil, d’acquisition et de transformation, dans une optique de disponibilité (HA), de sécurité et de scalabilité (PRA/PCA) • Garant de la cohérence des solutions avec les standards de production, dans toutes les phases du cycle de vie d’un SI client ou interne, sur des solutions IaaS, PaaS, SaaS, votre vision stratégique et fonctionnelle doit accompagner les experts dans le build de la solution proposée et votre responsabilité de garantir la mise à disposition de solutions pérennes • Participation active en support des équipes avant-vente (analyse des dossiers (RFI/RFP), costings, soutenances) • Rigueur et compréhension des enjeux métier, bonne qualité rédactionnelle, bonne présentation (participation à soutenance en clientèle), travail en équipe, anglais professionnel est un plus.
Freelance

Mission freelance
Architecte AZURE Kubernetes AKS (h/f)

emagine Consulting SARL
Publiée le

1 mois
600-700 €
92400, Saint-Germain-en-Laye, Île-de-France
Résumé : Ce poste d'architecte Azure Kubernetes AKS vise à assurer la continuité des activités d'architecture cloud et cloud-native dans le cadre d'un remplacement. Le consultant jouera un rôle clé en collaboration étroite avec les équipes applicatives pour comprendre et développer des infrastructures existantes. Responsabilités : Assurer la continuité du rôle d’architecte cloud. Reprendre et faire évoluer les architectures Azure existantes. Accompagner les équipes applicatives dans leurs choix d’architecture cloud et Kubernetes. Maintenir et promouvoir les bonnes pratiques Azure, AKS et Infrastructure as Code. Agir en tant que référent technique et conseiller. Produire et mettre à jour les livrables d’architecture (HLD, LLD, schémas). Must Haves : Minimum 10 ans d’expérience en architecture IT/cloud. Forte expertise Microsoft Azure. Solide expérience Kubernetes/Azure Kubernetes Service (AKS). Expérience avérée de reprise de périmètre/remplacement. Nice to Haves : Maîtrise des meilleures pratiques pour l’architecture Azure. Capacité d’adaptation rapide à un contexte existant. Compétences en outils tels que Bicep et/ou Terraform. Other Details : Type de poste : Consultant Architecte Cloud Senior. Intervention : Relation avec les équipes applicatives, infrastructure et sécurité. Importance : Prendre rapidement connaissance des architectures en place.
Freelance

Mission freelance
Des ingenieurs Devops sur Clermont Ferrand, Poitiers, Rouen, Strasbourg, Lille et Paris

Almatek
Publiée le
Ansible
Cloud
Cucumber

6 mois
Paris, France
Almatek recherche pour un de ses clients, des ingenieurs DEVOPS sur Clermont Ferrand, Poitiers, Rouen, Strasbourg, Lille et Paris Le candidat exercera les tâches suivantes : • Construction des environnments (Terraform) sur le cluster OpenStack • Déploiement automatisé des outils (Ansible) • Mise en place de pipelines CI/CD (Jenkins, GitLab, Maven, Sonar, Nexus) • Supervision et suivi des systèmes d'exploitation (Prometheus, Grafana, Loki, Promtail) • Échanges réguliers avec les équipes qui ont fait le développement Compétences attendues : • Requises : commandes système et réseau Linux, Cloud public ou privé, Ansible, Jenkins, Grafana • Souhaitables : Terraform, Prometheus, Openstack, Loki, Promtail, AirFlow • Appréciées : GitLab, Java, Maven, Vault, Docker, Kubernetes, Rancher, Nexus, SonarQube, Selenium, Cucumber, JMeter, ZAP Leur besoin est d’accompagner les ingénieurs de production actuels dans leur montée en compétence sur les technologies OPS. Le candidat interviendra en full présentiel les 3 premiers mois, puis pourra prétendre à 1 ou 2 jours de télétravail max. Il travaillera en binôme avec les internes pour les coacher (leur montrer de façon pratique comment utiliser certaines technologies que le candidat maitrise). Il pourra par ailleurs prendre à sa charge certaines activités de BUILD ou de RUN au sein du Centre Ops. Il sera amené à participer au projet dès son démarrage et sera donc associé à la phase de définition de l'architecture. Le candidat devra apporter son expérience et cadrer le travail de ses collègues. Une bonne expression orale et écrite ainsi que des qualités pédagogiques sont requises.
Freelance

Mission freelance
Responsable d’Applications Supply Chain

ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
SQL

1 an
Lille, Hauts-de-France
Contexte de la mission Dans un environnement international, nous recherchons un Responsable d’Applications expérimenté afin d’assurer la maintenance et l’évolution de plusieurs produits digitaux liés aux activités Transport et Entrepôts au sein d’un périmètre Supply Chain. Vous interviendrez au sein d’une équipe Build & Run en collaboration étroite avec les utilisateurs métiers, les équipes IT (développement, architecture, sécurité, infrastructure) ainsi que différents partenaires externes. L’objectif principal est de garantir la disponibilité, la performance et la qualité de service des applications tout en accompagnant leur évolution. Vos missions Assurer le maintien en conditions opérationnelles (MCO) des applications du périmètre. Suivre et piloter l’activité via des indicateurs de performance , et mettre en place des plans d’actions préventifs et correctifs. Gérer les demandes d’évolution et de service dans le respect des engagements de service (SLA). Collaborer avec les équipes IT (Product Owner, développeurs, autres responsables applicatifs). Mettre en production les nouvelles versions et participer aux projets de sécurisation du SI. Garantir la qualité de service et la satisfaction des utilisateurs . Maîtriser le paramétrage, les flux applicatifs et les plans de production des solutions maintenues. Maintenir une documentation technique et fonctionnelle à jour . Proposer et mettre en œuvre des améliorations continues pour optimiser les solutions et les processus. Compétences techniques requises Talend et SQL (niveau confirmé – impératif). Connaissance des métiers Transport et Entrepôts (confirmé – impératif). Environnements data et cloud : GCP, BigQuery, Kafka, DataDog, Ordonnanceur AWA (confirmé – important). Connaissances en Java et Python (niveau junior – apprécié).
Freelance
CDI

Offre d'emploi
Data Engineer - GCP / BigQuery (H-F)

K-Lagan
Publiée le
Big Data
BigQuery
Dataiku

1 an
45k-50k €
500-550 €
Niort, Nouvelle-Aquitaine
🚀 Chez K-LAGAN, nous parions sur vous ! Vous recherchez un projet data structurant , dans un environnement moderne et orienté cloud & analytics ? Vous souhaitez évoluer sur des sujets à forte valeur ajoutée au sein d’une Data Platform ambitieuse ? Alors cette opportunité pourrait vous intéresser 👇 🔍 Nous recrutons un·e Data Engineer (F/H) confirmé Pour rejoindre l’un de nos clients et contribuer activement au développement de sa Data Fabrik , dans un environnement innovant et orienté performance. 🎯 Vos missions Définir les pré-requis techniques nécessaires aux nouveaux cas d’usage data Participer à la conception et l’implémentation de nouveaux modèles de données Développer, optimiser et maintenir les pipelines de transformation Contribuer à l’évolution des outils et bonnes pratiques Data Engineering Garantir la qualité, la fiabilité et la performance des traitements Collaborer étroitement avec les équipes Data, BI et Métiers
Freelance

Mission freelance
Expert Cloud Azure

Ness Technologies
Publiée le
Azure
Azure Active Directory

6 mois
Paris, France
Missions principales Expertise & Architecture Concevoir et faire évoluer les architectures Cloud Azure (IaaS / PaaS) Garantir la performance, la sécurité et la haute disponibilité des environnements Définir les bonnes pratiques d’architecture et de gouvernance Cloud Accompagner les équipes techniques sur les choix techniques et les designs Projets Cloud & Migration Participer aux projets de migration vers Azure (Lift & Shift, refactoring) Mettre en place et configurer les services Azure Automatiser les déploiements via des outils d’Infrastructure as Code Participer aux mises en production et aux phases de validation technique Sécurité & Gouvernance Mettre en œuvre les politiques de sécurité (Azure Policy, RBAC, Defender, Sentinel) Définir les standards de gouvernance et de gestion des ressources Assurer la conformité et le respect des bonnes pratiques Cloud (CAF / Well-Architected Framework) Optimisation & Exploitation Optimiser les performances et les coûts (FinOps) Superviser les environnements (monitoring, alerting) Participer à la résolution des incidents complexes (support N3) Produire la documentation technique et les procédures
Freelance

Mission freelance
TECH LEAD - AWS DATA ENGINEER

CHOURAK CONSULTING
Publiée le
Amazon Redshift
Amazon S3
Apache Airflow

3 mois
400-700 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
CDI
Freelance

Offre d'emploi
Architecte GCP H/F

Le Groupe SYD
Publiée le
Ansible
CI/CD
Git

6 mois
55k-65k €
600-800 €
Bordeaux, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 📍Lieu : 🏠 Télétravail : 📝Contrat : 👉 Contexte client : Tu rejoins un environnement technique moderne et orienté Cloud public, dans lequel les pratiques DevOps, l’automatisation et l’industrialisation des pipelines sont au cœur des enjeux. En tant qu’ Architecte DevOps Cloud Public , tu interviens sur la conception, l’optimisation et la sécurisation des plateformes Cloud tout en garantissant la cohérence des bonnes pratiques DevOps au sein des équipes techniques. Tu auras pour missions de : Définir et mettre en œuvre des architectures Cloud public basées sur GCP . Industrialiser, automatiser et sécuriser les chaînes CI/CD , du développement au déploiement. Mettre en place, maintenir et optimiser l’infrastructure as code via Terraform . Accompagner les équipes techniques dans l’adoption des bonnes pratiques DevOps et Cloud. Déployer et administrer les outils d’automatisation et de configuration, notamment Ansible . Piloter les évolutions, standardiser les environnements et garantir la fiabilité et la performance des plateformes Cloud. Assurer une veille technique proactive autour des services Cloud, de la sécurité et des frameworks DevOps. 🧰 Stack technique : Cloud public : GCP (obligatoire) . DevOps : bonnes pratiques CI/CD, Git. Infrastructure as Code : Terraform . Automatisation : Ansible . Environnements : architectures Cloud public, pipelines CI/CD industrialisés.
Freelance

Mission freelance
Lead Tech Python – GenAI (H/F)

HOXTON PARTNERS
Publiée le
AWS Cloud
GenAI
Python

10 mois
550 €
Massy, Île-de-France
Dans le cadre de la mise en place d’une GenAI Factory au sein d’un grand acteur bancaire, nous recherchons un Lead Tech Python expérimenté. La mission consiste à intervenir comme référent technique auprès d’une équipe de développeurs GenAI afin de renforcer la qualité et la robustesse des développements Python. Le consultant participera activement au développement, challengera les choix techniques, diffusera les bonnes pratiques (architecture, structuration de code, tests, performance) et recommandera les librairies adaptées aux cas d’usage IA générative (LLM, RAG, orchestration, etc.). Une expérience concrète en développement sur des projets Generative AI est indispensable. Une connaissance d’environnements cloud, idéalement AWS, est fortement appréciée.
Freelance
CDI

Offre d'emploi
Data engineer

SKYLLIT
Publiée le
Docker
Github
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Profil Data Engineer/Data Analyst Senior pour gérer des applications liées au métier de la CDMO (Chief Digital & Marketing Office), dans une équipe dynamique aux profils variés (Tech Lead, Dev Full Stack, Data Scientist, Product Owner, QA...) Une des applications One Creative consiste à offrir une vision complète de la performance & l'optimisation de chaque asset media, de la stratégie globale à l'activation locale. o Développer et maintenir les data pipelines de : · Sourcing des données (Datalake BigQuery) · Téléchargement d'assets vidéo via API social media platforms · Analyse créative (application interne Augmented DAM) · Automatisation des processus IA (embedding, clustering) o Transformer la donnée brute du Datalake en tables optimisées pour l'application One Creative (fusion KPIs de performance, métadonnées, données créatives...) o Optimiser le déploiement du backend sur GCP o Améliorer la code base en ajoutant des tests unitaires et d'intégration sur le code Python o Développer une première brique de monitoring des données récupérées (assets, KPIs) o Moderniser les briques techniques (thumbnail, product-detection, encoder) avec des approches plus modernes et optimisées o Optimiser la chaîne CI/CD o Travailler sur la migration du backend Augmented DAM (autre application interne utilisée en tant que service de One Creative) o Développer les requêtes SQL pour sourcer les données dans les tables du Datalake, sur la base des inputs du Data Business Owner o Documenter les données récupérées depuis le Datalake avec des documents et des schémas des données o S'assurer de la qualité des données consolidées dans l'application par rapport aux données sources o Aider sur le développement des métriques de monitoring des KPIs de l'application o Analyser et croiser les données pour générer de nouveaux insights (creative data qui génèrent le plus de performance...) et benchmarks
Freelance

Mission freelance
Développeur NodeJS / Intégrateur PSP

SURICATE IT
Publiée le
AWS Cloud
Node.js
PSP

3 mois
350-380 €
Paris, France
Missions & Stack Core : Développement backend robuste avec NodeJS et TypeScript . Infrastructure : Déploiement et gestion via AWS Amplify & AWS Lambda Méthodologie : Approche AI-Driven (tu sais utiliser l'IA pour coder plus vite et mieux). Profil recherché Expertise Paiement : Une solide culture des PSPs (Stripe, Adyen, etc.) Mindset : Une bonne dose de patience (essentielle pour les phases de debug et les itérations). Autonomie : Capacité à prendre des décisions techniques sur un environnement cloud simplifié.
Freelance
CDI

Offre d'emploi
technicien Helpdesk

AIS
Publiée le
Active Directory Domain Services (AD DS)
Administration réseaux
Google Cloud Platform (GCP)

1 an
21k-26k €
260-280 €
Ancenis, Pays de la Loire
- Accueillir les sollicitations de nos utilisateurs internes par téléphone ou via un portail de création de tickets - Diagnostic de support niveau 1 - Traiter les incidents et les demandes de niveau 1 - Installation d'applications - Gestion des droits utilisateurs - Appliquer des procédures ou dépanner les incidents remontés par les utilisateurs ou par la supervision - Escalader les tickets à des niveaux de support différents suivant un référentiel - Envoyer des communications en suivant une procédure - Documenter dans une base de connaissances les informations recueillies
Freelance

Mission freelance
Techlead Data - GCP (H/F)

LeHibou
Publiée le
ETL (Extract-transform-load)
PowerBI
SQL

12 mois
400-520 €
Toulouse, Occitanie
Notre client dans le secteur Aérospatial et défense recherche un/une Data Engineer (H/F) Description de la mission : Dans le cadre d'un besoin de renfort sur ses activités, notre client va rechercher un freelance expérimenté sur la partie Data. Rattaché aux équipes Data en charge de la transformation de la donnée de notre client (8 personnes), vous interviendrez en tant que Techlead data. Ainsi, vous contribuerez aux projets actuels et futurs incluant le chargement des données le DWH : – Données de billetterie et de réservation – Données financières – Données opérationnelles Une bonne communication, autonomie, capacité d’adaptation sont attendues ainsi qu'une capacité à analyser des besoins complexes et à faciliter la coordination au sein de l’équipe ainsi qu’avec les autres parties prenantes (architecte, OPS, métier). Environnement technique : ETL : Powercenter : 20% SQL ( Teradata ) and scripting (BTEQ, shell…) : 50 % Linux : 10% Outils de reporting : SAP BI4 & PowerBI : 20%
CDI
Freelance

Offre d'emploi
Expert GenAI / Data Engineer GCP (Agentic AI)

xITed
Publiée le
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Contexte de la mission Dans le cadre du développement de ses initiatives autour de l’Intelligence Artificielle Générative et de l’automatisation intelligente, un grand groupe international souhaite renforcer ses équipes Data & AI avec un Expert GenAI / Data Engineer . Le consultant interviendra sur la conception et l’industrialisation de solutions basées sur des modèles de langage (LLM) intégrés à une plateforme data cloud moderne reposant sur Google Cloud Platform (GCP) . Objectifs de la mission Concevoir et industrialiser des solutions d’IA générative à l’échelle Développer des architectures d’agents intelligents (Agentic AI) Intégrer les usages IA aux plateformes data existantes Garantir la robustesse, la performance et la scalabilité des solutions Participer aux choix d’architecture et aux bonnes pratiques techniques Missions principales IA Générative / Agentic AI Conception et développement d’agents basés sur des modèles LLM Mise en œuvre d’architectures RAG (Retrieval Augmented Generation) Orchestration de workflows IA multi-étapes Intégration d’APIs et outils externes Optimisation des performances et de la qualité des réponses IA Data Engineering Conception et optimisation de pipelines data (ETL / ELT) Ingestion et transformation de données volumineuses Exploitation de données structurées et non structurées Mise en place de standards de qualité et de gouvernance des données Architecture Cloud Design d’architectures AI end-to-end sur GCP Déploiement de services cloud-native Participation aux décisions techniques et à l’industrialisation Mise en production et amélioration continue des solutions Environnement technique Cloud & Data Google Cloud Platform (GCP) BigQuery Dataflow Cloud Storage Pub/Sub Cloud Run / Cloud Functions AI / GenAI Vertex AI LLM APIs LangChain / LangGraph / LlamaIndex (ou équivalent) Architectures RAG Vector databases Développement Python (expert) APIs REST Docker CI/CD Git Profil recherché Minimum 7 ans d’expérience en Data Engineering / Software Engineering Expérience confirmée sur environnement GCP Expérience concrète sur projets GenAI / LLM en production Bonne maîtrise des architectures cloud distribuées Capacité à intervenir sur des sujets d’architecture et d’industrialisation Anglais professionnel Compétences clés GenAI / Agentic AI Data Engineering avancé Architecture GCP Industrialisation AI Python avancé
Freelance

Mission freelance
Expert observabilité datadog

Cherry Pick
Publiée le
AWS Cloud
Datadog

12 mois
550-600 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis
1709 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous