Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 020 résultats.
CDI

Offre d'emploi
Chef de projet technico-fonctionnel

ESENCA
Publiée le
Google Cloud Platform (GCP)
Infrastructure
Pilotage

Lille, Hauts-de-France

PS : C'est un poste en prestation pré-embauche, en région lilloise ! Contexte de la mission Dans le cadre du développement de ses activités IT et de la transformation de son système d’information, nous recherchons un Chef de projet technico-fonctionnel expérimenté. Ce poste s’inscrit dans un environnement international en forte croissance, au sein d’équipes agiles et orientées performance. Le consultant interviendra sur la gestion de projets applicatifs et d’intégration , en lien étroit avec les équipes métiers et techniques, pour garantir la cohérence, la qualité et la réussite des livrables. Missions principales Piloter les projets applicatifs de bout en bout : cadrage, planification, suivi, recette, mise en production. Être l’ interface entre les équipes métiers et techniques , comprendre les besoins et les traduire en spécifications fonctionnelles et techniques. Coordonner les développements, assurer le suivi des intégrateurs et des prestataires. Garantir la qualité des livrables , la tenue des délais et le respect du budget. Contribuer à l’ amélioration continue des processus et des outils internes. Superviser les phases de tests, recettes et déploiement , en collaboration avec les équipes QA et production. Assurer la communication projet (reporting, comités de pilotage, suivi des risques). Apporter un soutien technique et fonctionnel ponctuel sur les applications existantes.

Freelance

Mission freelance
Développeur Python Senior – RAG – Boulogne-Billancourt F/H

EASY PARTNER
Publiée le
FastAPI
Google Cloud Platform (GCP)
IA Générative

1 an
450-490 €
Boulogne-Billancourt, Île-de-France

Contexte du poste Rejoignez une entreprise de renommée mondiale dans le secteur de l'automobile, tournée vers l'innovation numérique et l'intelligence artificielle. Basée à Boulogne-Billancourt, notre entreprise est en pleine transformation digitale et développe une plateforme révolutionnaire basée sur des agents intelligents tels que les agents de type Retrieval-Augmented Generation (RAG). Au sein de notre département Digital & IT, vous intégrerez une équipe dynamique et soudée, œuvrant sur des projets à fort impact. Ce poste est clé pour renforcer notre capacité d’innovation et répondre aux défis croissants du marché. C’est une opportunité unique de contribuer à un projet ambitieux dans un environnement stimulant. Missions Principales Participer au développement back-end de la nouvelle plateforme GenAI interne (ChatGPT d’entreprise) Implémenter des workflows LLM et des agents conversationnels orchestrés (RAG, Agentic, Langchain, LiteLLM...) Développer des API robustes et performantes (FastAPI, Python async) Contribuer à l’intégration dans l’écosystème GCP et au déploiement sécurisé des composants Annexes Participer aux ateliers techniques d’architecture et d’orchestration d’agents Effectuer des revues de code, maintenir les standards TDD, et pratiquer le pair programming Contribuer à la veille technologique sur les frameworks GenAI émergents.

Freelance

Mission freelance
Développeur Backend Go / Terraform - Lille ( H/F)

BK CONSULTING
Publiée le
Azure DevOps
Go (langage)
Google Cloud Platform (GCP)

36 mois
400-450 €
Lille, Hauts-de-France

Rejoignez une équipe tech qui conçoit, opère et fait évoluer des solutions stratégiques autour de l’Infrastructure-as-Code et du Continuous Delivery. Vous participerez au développement backend en Go , à l’intégration et l’industrialisation de modules Terraform pour le multi-cloud, tout en contribuant à améliorer l’expérience des développeurs. Vous accompagnerez les équipes internes dans l’adoption, l’évolution et la bonne utilisation des outils mis à leur disposition. Ce poste est basé dans la métropole Lilloise

Freelance

Mission freelance
Consultant Architecte Infrastructure AWS/GCP (H/F)

HOXTON PARTNERS
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

24 mois
France

Nous recherchons un Architecte Infrastructure (H/F) spécialisé sur les environnements Cloud AWS et GCP pour un rôle de référent dans le domaine des stratégies de continuité d’activité (DRP) et de backup. Le consultant sera responsable du design des solutions, de la définition des standards et des bonnes pratiques autour des technologies Cloud et des outils associés. La mission, prévue pour une très longue durée et reconductible, s’inscrit dans un contexte international avec un fort niveau d’exigence.

Freelance
CDI

Offre d'emploi
Architecte Cloud GCP - LYON

KLETA
Publiée le
Architecture
Google Cloud Platform (GCP)

3 ans
Lyon, Auvergne-Rhône-Alpes

Missions principales Définir et mettre en œuvre les architectures Cloud sur GCP (Compute Engine, GKE, Cloud Run, Cloud Storage, VPC). Apporter une expertise sur l’industrialisation des environnements via Terraform et GitOps. Accompagner les équipes produits sur la mise en place de pipelines CI/CD multicloud incluant GCP. Intégrer les pratiques sécurité (IAM, Secret Manager, Security Command Center). Contribuer à la stratégie de migration et au design de zones d’hébergement de confiance. Standardiser et documenter les bonnes pratiques d’usage de GCP.

CDI
Freelance

Offre d'emploi
Développeur Big Data (F/H)

CELAD
Publiée le
Apache Spark
Java
Oracle

1 an
38k-42k €
370-380 €
Lyon, Auvergne-Rhône-Alpes

A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ DEMARRAGE : Janvier 2026 - 📑 CDI (38-42K€) OU Freelance OU Portage salarial - 🏠 Télétravail - 50% / début de semaine - 📍 Lyon - 🛠 Expérience de 5 ans minimum Rejoignez un projet stratégique autour du Big Data 🚀 Nous recherchons un.e Big Data pour intervenir sur une plateforme de traitement et d’analyse de données, utilisée par plusieurs centaines d’utilisateurs métiers et techniques 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Concevoir et maintenir des pipelines Big Data performants et sécurisés - Définir des solutions techniques pour le traitement de volumes massifs de données - Implémenter et sécuriser des solutions de stockage (SQL, NoSQL, systèmes distribués) - Optimiser les requêtes SQL / PL/SQL pour garantir les performances des applications - Assurer le support aux équipes de développement pour identifier les solutions techniques adaptées - Collaborer avec les experts techniques pour les composants hors périmètre Activités secondaires : - Veille technologique et partage de bonnes pratiques - Formation et accompagnement des équipes métier sur les pipelines de données

CDI

Offre d'emploi
Ingénieur DevOps Cloud Senior – Déploiement d’applications IA générative (H/F)

SCALIAN DS
Publiée le
AI
Azure
Cloud

42k-55k €
Toulouse, Occitanie

Offre d’emploi : Ingénieur DevOps Cloud – Déploiement d’applications IA générative (H/F) Lieu : Toulouse Télétravail : Non Contrat : Nature du contrat à définir Rémunération : Selon profil et expérience Démarrage : ASAP Expérience requise : profil confirmé de plus de 5 ans d'expérience en DevOps & Cloud Contexte de la mission Nous recherchons un Ingénieur DevOps Cloud pour un projet stratégique auprès d’un grand acteur industriel. La mission consiste à déployer et industrialiser des applications d’IA générative sur les trois environnements Cloud internes du client : 1 Cloud basé sur Microsoft Azure , 1 Cloud basé sur Google Cloud Platform , 1 Cloud souverain 100% interne Vous interviendrez en étroite collaboration avec le Tech Lead IA et les équipes internes afin de garantir des déploiements robustes, sécurisés et industrialisés. Rôle & Missions principales Déployer des applications d’IA générative développées en interne ou publiques (Docker) sur les 3 Clouds du client Réaliser les déploiements et la configuration via Kubernetes et Helm Industrialiser les déploiements avec des pipelines GitLab CI Adapter les solutions aux spécificités des environnements Cloud internes Mettre en place du monitoring applicatif (RAM, CPU, usage disque, erreurs, temps de réponse, volumétrie de requêtes…) avec Grafana ou solutions natives Gérer le code, les scripts et fichiers Helm sous Git Documenter les bonnes pratiques, capitaliser les retours d’expérience (REX) et contribuer à l’amélioration continue Stack technique Clouds : Azure (TDP), GCP (S3NS), Cloud souverain interne Conteneurisation & orchestration : Docker, Kubernetes, Helm CI/CD : Git, GitLab CI Monitoring : Grafana (ou équivalent disponible sur plateforme) IA générative : intégration et adaptation de modèles/applications

Freelance

Mission freelance
Cloud Engineer (H/F°

Come Together
Publiée le
Google Cloud Platform (GCP)

3 mois
560-580 €
Lille, Hauts-de-France

Nous recherchons pour notre client, grand compte du retail de la région, un Cloud Engineer (H/F) pour participer à des projets de modernisation d'outils / pratiques et de migration Cloud : - automatisation d'outils et de process, de création / évolution de pipelines CI/CD - déploiement d’environnements applicatifs complets dans le Cloud - accompagnement des équipes sur des sujets DevOps / techniques - formation/acculturation sur les bonnes pratiques. Environnement cloud GCP / Kubernetes Anglais professionnel impératif

Freelance

Mission freelance
Consultant LDAP

ESENCA
Publiée le
Google Cloud Platform (GCP)
IAM
LDAP

1 an
Lille, Hauts-de-France

Contexte : Dans le cadre de la transformation numérique de l’entreprise et pour répondre aux enjeux croissants liés à la gestion des identités numériques (collaborateurs, partenaires, clients), nous recherchons un expert annuaire & synchronisation maîtrisant les technologies LDAP ainsi que IBM Security Verify Directory Integrator (ISVDI). Vous intégrerez une équipe de 4 personnes en charge des annuaires LDAP et de la synchronisation des identités au sein d’un pôle. Objectifs de la mission : Administration et optimisation des annuaires LDAP : - Garantir l’administration, l’optimisation et la stabilité de l’infrastructure LDAP (aujourd’hui basée sur IBM SVDS). - Participer activement à la définition et à l’évolution des architectures techniques liées aux annuaires LDAP et aux solutions de synchronisation. - Apporter une expertise sur les meilleures pratiques pour renforcer la performance, la résilience et la scalabilité de l’infrastructure. Supervision et évolution de la synchronisation identité : - Participer à la maintenance et à l’évolution des flux de synchronisation - Concevoir et optimiser les connecteurs de synchronisation - Assurer la qualité et la conformité des données propagées Sécurité et conformité : - Participer à la mise en conformité des annuaires avec les normes de cybersécurité, le GDPR et les politiques internes de l’entreprise. - Collaborer avec les équipes cybersécurité pour sécuriser les systèmes et les données sensibles. Support et exploitation - Garantir la continuité des services et maintenir l’infrastructure LDAP en conditions opérationnelles (RUN). - Intervenir sur les incidents techniques et participer activement aux mises en production. Documentation et amélioration continue : - Mettre à jour ou créer les documentations techniques liées aux architectures, normes, procédures d’exploitation et plans de secours. - Être force de proposition pour identifier et implémenter des améliorations continues, tant sur la performance que sur la résilience de l’infrastructure.

CDI
Freelance

Offre d'emploi
Tech Lead Performance applications

NETSEC DESIGN
Publiée le
Google Cloud Platform (GCP)
PHP
Terraform

2 ans
45k-70k €
450-670 €
Guyancourt, Île-de-France

Nous recherchons pour notre client final, un grand compte, un Tech Lead Performance des Applications afin de répondre aux besoins suivants : Missions : Réaliser un inventaire des systèmes d'information (SI) et évaluer leur performance à l'aide des outils de monitoring en place Recenser les briques techniques utilisées dans les différents SI Contribuer à la définition et à la mise en œuvre d'une stratégie de maintien en conditions de performance et de maintenabilité technique Suivre l'avancement de cette stratégie auprès des équipes SI Assurer la coordination avec les domaines métiers en France afin de garantir leur implication Faciliter la résolution des problèmes potentiellement bloquants Assurer un reporting régulier sur l’état du parc applicatif Effectuer une veille technique sur les outils de monitoring existants Livrables : Documents d’audit des SI et synthèses basées sur les objectifs de performance Capitalisation des problèmes identifiés et des solutions apportées Mise à jour et suivi des boards Jira Comptes rendus des réunions de suivi Mise à jour de la documentation CMDB Amélioration de la documentation relative à la stratégie d’optimisation du parc

Offre premium
CDI

Offre d'emploi
Data Architecte Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
Databricks

65k-80k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
data ingnénieur

Etixway
Publiée le
Apache Kafka
BigQuery
Docker

1 an
330-530 €
Lille, Hauts-de-France

Objectif global :Développer le socle data Loyalty & Quotation  Contrainte forte du projet -  Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance

Mission freelance
Tech Lead Data

Nicholson SAS
Publiée le
Apache Spark
Azure
Databricks

14 mois
510-520 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

Multinationale iconique sur son marché, cette entreprise est un véritable tremplin dans votre carrière. Sens du travail et innovation permanente vous trouverez l'excellence à tout les étages. Entité : Equipementier Site : Clermont-Ferrand, 3 j sur site client obligatoire par semaine ou 1 semaine sur 2 sur site au choix Prix d’achat max : 520 €HT Date de démarrage : asap Langue parlée : Français / Anglais Durée mission : 14 mois (fin 17/09/2026) Mission : Tech lead data en binôme. Nombre d’années d’expérience : min 6 ans Profil : Tech Lead Data

CDI

Offre d'emploi
Architecte Data Expérimenté

HN SERVICES
Publiée le
Big Data
Cloudera
Teradata

3 ans
Île-de-France, France

Dans le cadre du renforcement de l'équipe Socles Data pour un grand acteur bancaire, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plateformes DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux réflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modernisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....).

CDI
Freelance

Offre d'emploi
Profils Devops certifié CKA ou CKAD junior

SARIEL
Publiée le
Google Cloud Platform (GCP)
Kubernetes

3 ans
40k-55k €
190-460 €
Île-de-France, France

Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Expérience Cloud de minimum 2 ans ( GCP de préférence ) Expert en supervision et automatisation ( ICA, CI/CD , ELK, Prom, Grafana ) Compétences techniques Orchestration Kubernetes - Expert - Impératif automatisation IaC (Terraform/Ansible - Confirmé - Important CI/CD (GitLab CI, ArgoCD) - Confirmé - Important Expérience en env de production avec incidents - Junior - Important Connaissances linguistiques Français Courant (Impératif) Nous recherchons un/une DevOps GCP junior, solide techniquement, disposant d’une expérience cloud d’au moins 2 ans et d’une bonne culture DevOps. Le/la candidat·e possède au minimum une certification Kubernetes (CKA/CKAD fortement appréciée) et montre une vraie appétence pour l’industrialisation et l’automatisation. Contexte & mission Au sein d’un environnement hybride (on-premise + GCP) au service d’une plateforme e-commerce à fort trafic, vous contribuez à : Industrialiser et opérer nos workloads conteneurisés sur Kubernetes/GKE (déploiements, releases, sécurité). Automatiser l’infrastructure via Terraform et les pipelines GitLab CI/CD (build, test, déploiement). Mettre en place et maintenir l’observabilité (logs, métriques, traces), Participer aux bonnes pratiques SRE/DevOps (revues de code, IaC, GitOps, gestion des secrets, sécurité by design). Documenter, partager et améliorer en continu nos processus et outils. Compétences techniques attendues (must-have) Kubernetes (GKE) : packaging (Helm/Kustomize), gestion des namespaces, RBAC, network policies, troubleshooting. Terraform : modules réutilisables, gestion d’états, bonnes pratiques d’IaC. CI/CD GitLab : pipelines, runners, quality gates, artefacts, releases. Docker et fondamentaux GCP : IAM, VPC, Artifact Registry, Cloud Logging/Monitoring. Culture DevOps : tests automatisés, revues, documentation, sensibilisation sécurité et FinOps de base. Compétences appréciées (nice-to-have) GitOps (Argo CD/Flux), Ansible, Policy-as-Code (OPA/Conftest). APM/observabilité (Prometheus/Grafana, Dynatrace ou équivalent). Notions de résilience/DRP, sauvegardes/restores, durcissement sécurité. Certifications Obligatoire : certification Kubernetes (CKA/CKAD en cours ou obtenue). Souhaitées : Google Associate Cloud Engineer (ACE) et/ou Professional Cloud DevOps Engineer. Livrables attendus Pipelines CI/CD fiables et documentés. Modules Terraform maintenables (avec README et exemples). Charts/manifestes Kubernetes prêts à l’emploi. Dashboards & alerting opérationnels + runbooks associés. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant à

2020 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous