Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 682 résultats.
Freelance

Mission freelance
Senior Data Engineer AWS

Celexio
Publiée le
PySpark
Python
Terraform

3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
CDI
Freelance

Offre d'emploi
Ingénieur DevOps GCP RUN & Automatisation H/F

Le Groupe SYD
Publiée le
CI/CD
Powershell

12 mois
48k €
480 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur DevOps GCP RUN & Automatisation H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : Flexible 📝 Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur de la distribution / retail , engagé dans la modernisation, la fiabilisation et l’uniformisation de ses environnements applicatifs. Tu interviens au sein d’un écosystème hybride mêlant infrastructures legacy Windows , plateformes on‑premises , environnements GCP , et un parc national de magasins en production avec de forts enjeux de disponibilité. Aux côtés du Lead DevOps déjà en place, tu renforces l’équipe sur la partie RUN , la maintenance, l'amélioration continue et la mise sous contrôle des plateformes existantes, tout en participant aux chantiers d’automatisation et de modernisation. Tu auras pour missions de : Assurer le RUN , la maintenance et la fiabilisation des plateformes applicatives Windows existantes (legacy & production magasins). Mettre à jour, maintenir et optimiser les bases SQL Server utilisées en production et en salle de recette. Gérer les déploiements de packages applicatifs Windows sur les environnements distribués. Automatiser les opérations récurrentes et contribuer à la montée en maturité DevOps. Intervenir sur des environnements GCP , participer aux déploiements et aux évolutions cloud. Participer à la résolution d’incidents, à l’analyse des problématiques et à la continuité de service. Travailler en étroite collaboration avec le Lead DevOps pour assurer la cohérence globale des pipelines et des bonnes pratiques. 🧰 Stack technique : OS & Infra : Windows Server, environnements legacy, production magasins, virtualisation. Databases : SQL Server. CI/CD & Automatisation : PowerShell, scripts d’automatisation, pipelines CI/CD. Cloud : GCP (Compute, CI/CD Cloud, services managés). Autres environnements : plateformes hybrides (on‑prem / cloud), environnements distribués multipoints, salles de recette & production.
CDI

Offre d'emploi
Technicien/ne Micro-Réseau Confirmé/e

Panda Services
Publiée le
Active Directory
Microsoft Teams
Microsoft Windows

Paris, France
Panda Services, société de services (ESN) spécialisée dans la délégation de compétences informatiques, recherche pour l'un de ses clients à Paris [92] un(e) Technicien(ne) Micro-Réseau Confirmé/e Fournir l'assistance de proximité, traiter les demandes informatiques et les demandes de support, diagnostiquer et proposer des solutions aux problèmes que rencontrent les utilisateurs pour tout ce qui concerne leur environnement de travail informatique. Prendre en charge les appels téléphoniques et les demandes informatiques, les enregistrer et les suivre jusqu’à leur résolution. Réaliser également le déploiement, le renouvellement, l’évolution et le maintien en conditions opérationnelles du parc informatique. Il/Elle se place au service des utilisateurs, et s’assure de leur satisfaction dans l’utilisation de l’informatique. Ce Qui Vous Attend : Dans le cadre de votre mission, vous serez en charge de la : Préparation, installation, configuration et gestion des postes informatiques Prise en charge des sollicitations des clients Création et analyse de tickets incidents afin de les escalader ou les résoudre Faire la gestion des comptes : Windows, Messagerie, Applications Internes … Rédiger la documentation technique Contribuer à l’amélioration continue des outils de gestion de parc informatique Prise en main à distance des demandes utilisateurs Vos Compétence Technique : Windows Office365 Active Directory Support Utilisateurs Outil de Ticketing SCCM HP/Dell iPhone, Mac, MDM Outil de Prise en Main à Distance Anglais Technique Vous êtes fait[e] pour ce poste si : Idéalement de formation en informatique, vous justifiez d’au moins 10 ans d’expériences sur une fonction similaire. Vous êtes réactif et vous avez une facilité d’adaptation aux différentes situations et vous avez un bon sens de communication
Offre premium
CDI
Freelance

Offre d'emploi
Expert Database Cassandra

Lùkla
Publiée le
Azure
Google Cloud Platform (GCP)
Grafana

3 ans
57k-72k €
560-710 €
Paris, France
Un grand groupe international du secteur du luxe recherche un Expert Database orienté Cassandra capable de reprendre et piloter un projet stratégique si nécessaire.Dans un environnement exigeant et à forte volumétrie, vous interviendrez comme référent technique sur les environnements NoSQL, tout en conservant une expertise solide sur les bases relationnelles (PostgreSQL, MySQL/MariaDB). Expertise & Pilotage Cassandra (priorité du poste) Concevoir, administrer et optimiser des clusters Cassandra Garantir performance, scalabilité et haute disponibilité Être capable de reprendre un projet existant en totale autonomie Participer aux choix d’architecture et aux évolutions stratégiques Administration des bases relationnelles Assurer la performance et la disponibilité des bases PostgreSQL, MySQL, MariaDB Optimisation des requêtes, indexation et design de schémas Gestion des patchs, upgrades et maintenance corrective et évolutive Haute Disponibilité & Résilience Mise en place de stratégies de sauvegarde robustes Gestion des réplications et solutions de clustering Contribution aux plans de reprise après sinistre (Disaster Recovery) Sécurité & Conformité Mise en œuvre des contrôles d’accès (RBAC) Chiffrement des données (au repos et en transit) Gestion des audits et de la traçabilité Documentation & Amélioration continue Rédaction et mise à jour de la documentation technique Audit des pratiques existantes Collaboration étroite avec les équipes applicatives et infrastructure
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Lyon

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
CDI

Offre d'emploi
Data Engineer GCP

█ █ █ █ █ █ █
Publiée le
BigQuery
CI/CD
Git

L'Île-Saint-Denis, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Offre premium
Freelance

Mission freelance
Ingénieur Cloud AWS - Data & IA

TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas

36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
CDI
Freelance

Offre d'emploi
Chef de projet data H/F

HN SERVICES
Publiée le
Confluence
Google Cloud Platform (GCP)
JIRA

12 mois
53k-57k €
400-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Chef de Projet Data sénior afin de participer à la mise en œuvre de nouveaux usages data sur une plateforme GCP au sein d’une squad Data chez l’un de nos clients situé à Aix en Provence . Description du poste : En tant que Chef de Projet Data, vous pilotez une équipe de Data Analysts et accompagnez les métiers dans le développement de nouveaux usages data autour de la Business Intelligence et de la data science. Vos principales responsabilités : • Piloter et animer la squad Data composée de Data Analysts • Identifier et qualifier les besoins métiers autour de la donnée • Accompagner les métiers dans l’adoption des usages BI, self-BI et data science • Structurer et piloter les projets data dans un cadre agile • Garantir la qualité, la performance et l’industrialisation des solutions mises en place • Assurer la coordination entre équipes métiers, data et techniques • Suivre l’avancement des travaux, les livrables et les engagements projet • Contribuer à l’exploration et à la mise en œuvre de nouveaux cas d’usage data Environnement technique : Google Cloud Platform, BigQuery, Jira, Xray, Confluence, Linux, Python, PowerBI, Composer, SSIS.
Freelance

Mission freelance
AI Engineer GCP

Groupe Aptenia
Publiée le
Google Cloud Platform (GCP)
MCP
Python

1 an
550-600 €
Île-de-France, France
Nous sommes à la recherche d'un AI Engineer GCP pour rejoindre une équipe backend experte, votre mission : développer de nouvelles features, optimiser l’existant... L'expertise en software development, notamment backend (Python) et connaissance de GCP (expérience concrète) est primordial pour cette mission. 🎯 Vos missions clés ✅ Développer et améliorer le backend des agents IA (création, nouvelles features). ✅ Optimiser l’infrastructure GCP (Cloud Run, Terraform). ✅ Collaborer avec une équipe passionnée de code et d’IA (MCP, LLM). ✅ Scalabiliser un produit SaaS à forte audience.
Freelance

Mission freelance
DATA INGENIEUR

HAYS France
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

3 ans
100-520 £GB
Lille, Hauts-de-France
Au sein de la Global Tech & Data Platform (GTDP), le Data Engineer intégrera l’équipe Data transverse et sera responsable de partager les normes et bonnes pratiques Data Engineering au sein de sa plateforme d’appartenance, et ainsi de faire le lien avec nos équipes produits et les métiers. Vous êtes notamment responsable de : - Collecter, gérer et convertir les données en informations exploitables pour tous les utilisateurs de données (digitaux ou métier), - L’organisation d’un modèle physique de données, répondant aux enjeux de Data Mesh, - Mettre en œuvre des méthodes pour améliorer la fiabilité, la qualité, la performance des données ainsi que les aspects Finops, - Garantir la mise en production des données conformément à la gouvernance et à la conformité des données, - Respecter les réglementations du DPO, - Assurer la maintenance et le respect de la stack technique de l’entreprise, - La mise en place d’un cadre de bonnes pratiques visant à améliorer la qualité des développements des flux de données, de leur indicateurs et de leurs suivis en production, - La bonne tenue des rituels agiles de l’équipe et à la veille technologique. CARACTERISTIQUES DU PROFIL DEMANDE : Une expérience significative en Data Engineering (minimum 3 ans d'expériences), idéalement dans le secteur du retail. Bonne maîtrise des streaming platform et traitements des flux (Kafka). De solides compétences sur la stack Google Cloud Platform, notamment BigQuery. De solides connaissances des bases de données et systèmes distribués. Maîtrise de la chaîne DevOps et des outils associés : CI / CD, data-pipelines. Vous ne ressentez aucune difficulté à vous exprimer en anglais. COMPETENCES REQUISES Technique : SQL, NoSQL, Shell, GCP (Big Query, GCS, ...), Pipeline (dbt...), Modélisation de données Transverses : Collaboration, communication, documentation et pédagogie. Méthodologique : Agilité, Git Langues : Français, Anglais
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
Développeur Salesforce

Codezys
Publiée le
Apex
Confluence
JIRA

12 mois
Bordeaux, Nouvelle-Aquitaine
Objet : Appel d'offres pour la prestation de services Salesforce pour le projet MKP Octopia Le périmètre en charge concerne la plateforme Salesforce MKP Octopia, dont les responsabilités principales incluent, mais ne se limitent pas à : l'onboarding des vendeurs MKP, le support aux vendeurs, la gestion de la base de données CRM, et autres activités associées à l'optimisation des processus commerciaux et communautaires. La mission s’inscrit dans un contexte d’une équipe dédiée composée de quatre spécialistes ayant un profil Salesforce . Cette équipe produit, spécialisée dans la plateforme, intervient pour garantir la cohérence, la performance et l’évolutivité de la solution. Les responsabilités principales de la ressource recrutée englobent : Compréhension des besoins techniques et réflexion autour de l’ architecture de la solution ; Animation de workshops techniques pour le cadrage et la conception, ainsi que la rédaction des spécifications techniques et la réalisation de chiffrages ; Force de proposition pour le choix des solutions et développements adaptés aux besoins techniques détectés ; Participation active à la conception et au développement Apex sur la plateforme Salesforce ; Garantie de la qualité tant en phase de conception que de réalisation, en assurant un livrable conforme aux standards ; Être le point de contact technique privilégié au sein de l’équipe ; Accompagnement à la montée en compétence des membres de l’équipe ; Mise en place et partage de bonnes pratiques , en assurant une veille régulière sur les nouveautés de la solution . Nous recherchons donc un partenaire capable d’intégrer cette mission avec rigueur, expertise et esprit collaboratif, afin d’assurer la réussite de ce projet stratégique pour MKP Octopia.
Freelance

Mission freelance
Data Scientist – Deep Learning / NLP

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Offre premium
Freelance

Mission freelance
Senior Backend Developer .NET / Azure - Paris - (H/F)

EASY PARTNER
Publiée le
.NET
Azure
Terraform

3 mois
480-500 €
Le Mans, Pays de la Loire
Contexte Dans le cadre du renforcement de ses équipes techniques, nous recherchons un Développeur Backend Senior .NET / Azure pour intervenir sur des projets stratégiques, avec un fort enjeu d’industrialisation des intégrations partenaires et d’évolution des API existantes. Missions Développement et architecture backend Concevoir, développer et maintenir les API backend . Participer à l’évolution et à la refonte de certains composants existants (legacy). Contribuer à la montée de version et à la modernisation des API . Participer à l’industrialisation des intégrations partenaires bancaires. Industrialisation des intégrations partenaires Concevoir des architectures permettant d’ automatiser l’intégration de nouveaux partenaires . Transformer les processus actuels (discovery, cadrage, développement, recette) vers une approche plus industrialisée et scalable . Mettre en place des standards techniques pour faciliter l’intégration des futurs partenaires. Excellence technique & DevOps Déployer et maintenir les applications sur Azure via Infrastructure as Code (Terraform) . Mettre en œuvre les bonnes pratiques DevOps et d’excellence opérationnelle. Participer au monitoring et à l’observabilité de la plateforme. Innovation & IA Utiliser et challenger des outils d’IA pour le développement (GitHub Copilot, agents IA). Explorer les opportunités d’utilisation de l’IA pour améliorer la productivité et la qualité du code. Environnement technique .NET / C# API REST Microsoft Azure Terraform (Infrastructure as Code) GitHub Actions Datadog GitHub IDE au choix (Visual Studio, JetBrains…)
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps AWS - Région PACA - Habilitable

Groupe Aptenia
Publiée le
AWS Cloud
Datadog
Gitlab

6 mois
Provence-Alpes-Côte d'Azur, France
Nous recherchons un Ingénieur DevOps Cloud orienté AWS pour intervenir sur le développement et l’évolution d’une plateforme interne utilisée par des équipes métiers et techniques . Vous participerez à la conception et à l’optimisation des infrastructures cloud, à l’automatisation des environnements et au développement d’outils associés. L’environnement technique inclut AWS, Terraform, Datadog, Python et Vue.js . Une sensibilité aux sujets liés à l’IA est appréciée. Le poste requiert un bon esprit collaboratif , une capacité à comprendre les enjeux métier et une forte curiosité technique.
1682 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous