Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 311 résultats.
Freelance

Mission freelance
Ingénierie DevOps

VISIAN
Publiée le
Ansible
Apache Spark
AWS Cloud

3 ans
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de l’exploitation et de l’évolution d’une plateforme Big Data à grande échelle, un acteur majeur recherche un expert technique orienté Data Engineering / DataOps. La mission s’inscrit au sein d’un centre d’expertise dédié aux plateformes data, dans un environnement hybride combinant infrastructures on-premise et cloud public. L’objectif principal est d’assurer la disponibilité, la fiabilité et l’automatisation des environnements Datalake, tout en accompagnant les équipes projets dans leurs usages data. Missions Assurer le maintien en conditions opérationnelles des plateformes Datalake Gérer les incidents, demandes d’exploitation et support aux utilisateurs Participer aux déploiements sur les différents environnements (intégration, pré-production, production) Contribuer à l’automatisation et à l’industrialisation des processus Mettre en œuvre des solutions d’orchestration et de déploiement Participer à l’amélioration continue des outils et pratiques d’exploitation Collaborer avec les équipes techniques et les parties prenantes métiers Assurer le reporting et la communication opérationnelle Livrables attendus Exploitation et supervision opérationnelle des plateformes Documentation technique et procédures d’exploitation Scripts et automatisations de déploiement Améliorations continues des processus DataOps Support technique aux équipes projets Environnement technique Cloud & Infrastructure AWS · Microsoft Azure · Environnements hybrides on-prem / cloud Big Data & Data Engineering Kafka · Kafka Connect · Spark · Starburst · Dataiku Orchestration & Automatisation Kubernetes · Helm · Terraform · Ansible · Airflow CI/CD & DevOps GitLab CI/CD · Jenkins · Pipelines d’intégration continue Systèmes & Langages Linux · Python Profil recherché Expérience confirmée en exploitation de plateformes Big Data / Datalake Solides compétences en environnements Linux et scripting Python Maîtrise des outils d’orchestration et d’automatisation Bonne connaissance des architectures cloud et conteneurisées Expérience en CI/CD et industrialisation des déploiements Capacité à gérer des environnements critiques en production Bon relationnel et esprit d’équipe Informations complémentaires Mission orientée RUN avec contribution aux évolutions Environnement technique complexe et à forte volumétrie de données Collaboration avec équipes Data, DevOps et métiers Contexte nécessitant rigueur, autonomie et réactivité
Freelance
CDI

Offre d'emploi
OPS DATALAKE Senior Cloud Public/Privé

Deodis
Publiée le
AWS Cloud
Azure
CI/CD

12 mois
54k-59k €
450-530 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à son expertise pour le Centre d'Expertise Data L’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : Assurer le maintien en conditions opérationnelles des plateformes Datalake on prem / AWs / Azure Gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux Contribuer à l’implémentation/automatisation des solutions Effectuer les actions de déploiement sur les environnements (int, preprod et prod) Contribuer à l’amélioration continue des outils d’exploitation et de déploiement Communication auprès du product owner
Freelance

Mission freelance
Développeur CRM Salesforce Service Cloud

Mon Consultant Indépendant
Publiée le
Azure
Microsoft Power BI
Node.js

12 mois
300-400 €
Nantes, Pays de la Loire
Contexte : Dans le cadre du renforcement d’un pôle digital dédié aux services clients, nous recherchons 3 Développeurs CRM Salesforce Service Cloud expérimentés . Vous intégrerez une équipe Agile structurée (Scrum Master, PPO, Architecte CRM, UX/UI, Lead Dev). Le CRM est au cœur d’un écosystème applicatif interconnecté : plateformes web, applications agents, services omnicanaux, outils marketing et reporting. 🎯 Missions : Développement des User Stories en environnement Agile (JIRA) Conception technique et fonctionnelle Développements Salesforce (Service Cloud) Tests unitaires Code Review Déploiements (Merge Request) Documentation Confluence Participation aux cérémonies Agile Intégration des WebApps avec Salesforce Mise en œuvre d’API et interconnexions SI MEP en heures ouvrées ou non ouvrées selon contexte 🛠 Compétences indispensables : Salesforce Service Cloud (2 ans minimum) Certification Salesforce Developer APEX, Visualforce, SOQL, LWC, Aura Développement API / Web services Connaissance RGPD Expérience Agile (2 ans minimum) JIRA / Confluence ➕ Compétences appréciées : NodeJS / Express / SQL ReactJS / VueJS PWA Heroku Marketing Cloud Power BI Azure / AWS Outils de satisfaction client
Freelance

Mission freelance
Architecte GCP Gouvernance

Groupe Aptenia
Publiée le
Azure
CI/CD
Datadog

3 mois
Paris, France
Mission d’Architecte Cloud orientée GCP au sein d’un acteur majeur de la fintech. L’objectif est de renforcer et structurer une plateforme GCP encore en croissance, tout en l’interconnectant avec une plateforme Azure déjà mature. Le rôle consiste à définir la gouvernance cloud (landing zones, IAM, sécurité, policies), concevoir l’architecture multi-cloud, et accompagner les équipes sur les bonnes pratiques DevOps et platform engineering. Forte expertise GCP requise, bonne connaissance d’Azure et de Terraform appréciée.
CDI

Offre d'emploi
Data Analyst (F/H) (H/F)

█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Java

55k-60k €
Auvers-sur-Oise, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
📩 Tech Lead / Développeur Java – Data & ELK (Grafana)

Gentis Recruitment SAS
Publiée le
Azure DevOps
Big Data
Databricks

6 mois
40k-45k €
300-400 €
Paris, France
Contexte Dans le cadre des activités de la DSI, au sein du service Systèmes Connectés, notre client pilote plusieurs applications en BUILD et en RUN liées à la gestion et à l’exploitation de données à grande échelle. Nous recherchons un Tech Lead / Développeur expérimenté pour prendre en charge un projet récemment mis en production, permettant de restituer des indicateurs métier via Grafana, alimentés par une stack Java / ELK. Missions principales Prendre en main un projet existant (RUN + évolutions) Assurer la maintenance corrective et évolutive Analyser et résoudre les incidents remontés par les équipes métier Comprendre et corriger les écarts sur les indicateurs affichés Développer de nouveaux objets et indicateurs Piloter techniquement le projet (rôle de référent unique) Suivre le backlog et collaborer avec PO, métier et architectes Participer aux réflexions d’évolution (notamment migration potentielle vers Databricks) Environnement technique Backend / Ingestion : Java Data / Monitoring : ElasticSearch, ELK, Grafana Infra / Cloud : Azure (souhaité) Outils : Azure DevOps Auth (optionnel) : Keycloak Data (optionnel) : Databricks, SQL Server Langages complémentaires (nice to have) : C# Compétences attenduesIndispensables Très bonne maîtrise de ElasticSearch et de la stack ELK Solide expérience en Java Expérience sur des volumétries de données importantes Maîtrise de Grafana Capacité à écrire des requêtes de transformation/exploitation de données (Elastic) Expérience en debug / analyse d’incidents Bonne maîtrise d’Azure DevOps Appréciées Databricks Azure SQL Server Keycloak C# Soft skills Excellente communication avec les équipes métier Forte autonomie (poste en solo sur le projet) Capacité d’analyse et de résolution de problèmes Prise de recul et vision technique
Alternance
CDI

Offre d'emploi
Alternant Consultant Data & Business Intelligence AI (H/F)

█ █ █ █ █ █ █
Publiée le
DevOps
Python
SQL

Orange Lyon Lumière, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Architecte Cloud Multi-Cloud - Stratégie Cloud

KLETA
Publiée le
AWS Cloud
Azure
GitLab CI

3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud Multi-Cloud pour accompagner nos clients dans la définition et la mise en œuvre de leur stratégie multi-cloud. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes sur AWS, Azure et GCP, identifierez les risques et proposerez des solutions optimisées en matière de sécurité, de résilience et de coûts. Vous participerez à la conception de Landing Zones multi-cloud, à la structuration des environnements et à la mise en place de bonnes pratiques de gouvernance et de conformité. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements via Terraform et à l’adoption de principes cloud native harmonisés. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur le multi-cloud.
Freelance

Mission freelance
Développeur API - Expert Python / FastAPI

Codezys
Publiée le
Angular
API
Azure

12 mois
Paris, France
Principales missions Collaborer avec les équipes d'infrastructure en tant qu' expert en développement Python et FastAPI , pour concevoir, développer, et déployer des APIs de gestion des infrastructures. Participer à la migration vers des solutions cibles API et mettre en œuvre des mesures pour garantir la stabilité et la performance des services. Intégrer des outils DEVOPS tels que XLR, Jenkins, Bitbucket et Artifactory dans le processus de développement. Réaliser des tests unitaires et de non-régression pour assurer la qualité et la fiabilité des APIs développées. Contribuer à l' amélioration continue des pratiques de développement, notamment en matière de performance et de disponibilité. Ce que nous attendons de vous Nous recherchons des experts passionnés disposant d'une solide expérience en développement Python et FastAPI . La connaissance d'outils tel qu' Ansible et Angular sera considérée comme un plus. La maîtrise des concepts CI/CD et une sensibilité à la sécurité des développements sont essentielles. Vous devrez faire preuve d' adaptabilité et d' esprit collaboratif pour travailler efficacement avec diverses équipes. Une expertise approfondie en tests (unitaires, non-régression) et une approche orientée résultats seront fondamentales. Enfin, votre capacité à communiquer et à transmettre vos connaissances sera cruciale pour aider nos équipes à atteindre leur autonomie dans le développement d'APIs. Objectifs et livrables Réaliser des APIs permettant d'accéder aux services internes, tout en respectant les exigences de performance et de sécurité . Définir les nouvelles APIs en collaboration avec les équipes métiers et d'architecture . Développer et maintenir des APIs utilisant des technologies telles que Java, Maven, RAML, Anypoint . Créer les tests unitaires et d' intégration associés à chaque API. Déployer les APIs sur différents environnements , en assurant leur fiabilité et leur conformité aux normes en vigueur.
Freelance

Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)

Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data

2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
CDI

Offre d'emploi
Data scientist (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Deep Learning
Python

45k-65k €
Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Expert (Python & Databricks)

Nicholson SAS
Publiée le
CI/CD
Databricks
Gitlab

8 mois
400 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Industrie / Mobilité Localisation : Lyon (Rythme : 3 jours/semaine sur site) Démarrage : ASAP Clôture prévisionnelle : 31/12/2026 Le Challenge Intégré(e) à un environnement technologique de pointe, vous aurez pour mission de concevoir et d'industrialiser des produits data robustes. Votre objectif : garantir la fluidité, la scalabilité et la résilience de pipelines de données complexes, tout en imposant une culture de "Data Contract" et de qualité logicielle. Vos Responsabilités Ingénierie de données : Concevoir, développer et maintenir des pipelines batch et event-based haute performance. Optimisation & Scalabilité : Construire des flux Polars optimisés et supporter des workflows à grande échelle sous Databricks . Qualité & Fiabilité : Mettre en œuvre des processus de validation et de tests automatisés pour garantir l'intégrité absolue des données. Cloud & Industrialisation : Gérer les composants de stockage Azure et piloter l’automatisation via des pipelines CI/CD GitLab . Standards Software : Garantir la production d'un code Python exemplaire (Clean Architecture, revues de code, performance). Stack Technique Cible Langage : Python (Expertise Clean Architecture & Performance). Traitement : Polars, Pandas, Databricks, dbt. Orchestration : Prefect, Airflow ou Dagster. Cloud & Ops : Azure Cloud, GitLab CI/CD. Méthodologie : Data Modeling, design de schémas, tests automatisés. Profil Recherché Plus qu'un nombre d'années d'expérience (+4 ans suggérés), nous recherchons une véritable culture de l'ingénierie logicielle . Mindset : Esprit analytique, autonomie et forte capacité de résolution de problèmes techniques. Soft Skills : Excellente communication technique, goût pour le travail collaboratif et rigueur documentaire. Exigence : Une attention particulière portée à la "Product Value" et à la durabilité des solutions livrées. Conditions de la prestation TJM : 400 € Langue : Français / Documentation technique en Anglais Atout : Capacité à monter rapidement en compétence sur de nouveaux outils d’orchestration et de traitement. Note : Cette mission s'adresse à un profil passionné par l'efficience du code et la robustesse des architectures de données modernes.
Freelance

Mission freelance
chef de projet technique / Cloud /Devops

Keypeople Consulting
Publiée le
.NET
AWS Cloud
Azure

6 mois
400-600 €
Île-de-France, France
Nous CHERCHONS un Chef de Projet / Product Owner Technique (Senior) – Transformation Cloud & DevOps Dans le cadre d’un programme majeur de modernisation technologique , nous recherchons un Chef de Projet / PO Technique Senior pour accompagner la transformation d’un système d’information stratégique dans le secteur des médias et de la diffusion audiovisuelle. 🎯 Votre mission Au cœur des projets de transformation, vous interviendrez sur plusieurs axes structurants : Piloter les projets techniques liés à la modernisation du SI et à la migration vers un nouveau Data Center Accompagner la mise en place d’une architecture cible moderne (Cloud / DevOps / Cloud Native) Intervenir sur l’intégration et l’évolution d’un Broadcast Management System (BMS) central dans l’écosystème métier Collaborer avec les équipes IT, exploitation et développement Contribuer aux sujets transverses : orchestration des workflows médias urbanisation de la data stratégie de supervision et amélioration de la qualité de service Participer aux choix d’architecture et aux projets de transformation Cloud 🛠 Compétences techniques attendues Expérience des environnements Cloud (AWS, Azure ou GCP) Bases de données : Oracle, SQL Server, PostgreSQL Connaissance du développement .NET Bonne maîtrise des architectures microservices Connaissances en sécurité IT et réseaux ⭐ Un plus Expérience dans l’univers média / télévision / broadcast Connaissance d’un Broadcast Management System (BMS) ou outils similaires Familiarité avec les problématiques MAM, stockage média, orchestration de workflows Expérience en Agile, DevOps ou architectures Cloud Native 📍 Modalités Mission Senior Présence sur site : environ 50% Environnement technique stimulant et projets à fort impact
Freelance

Mission freelance
Gestionnaire de Parc / Administrateur Systèmes & Cloud

Castelis
Publiée le
Azure
Fortinet
Google Cloud Platform (GCP)

6 mois
400-450 €
Levallois-Perret, Île-de-France
• Support utilisateurs Niveau 2 : diagnostic, résolution, escalade maîtrisée • Administration et exploitation des environnements Cloud & IT • Gestion VPN et firewalls (politiques, accès, supervision) • Gestion et support des applications téléphoniques (VoIP, softphones, intégrations) • Supervision et exploitation des logs via GreyLog • Déploiement et gestion d’agents sur les devices (sécurité, monitoring, MDM) • Suivi des tickets : incidents, demandes, changements • Amélioration continue des processus IT et documentation • Collaboration étroite avec les équipes sécurité et projets dans un contexte international
CDI

Offre d'emploi
Data Engineer GCP/AWS

█ █ █ █ █ █ █
Publiée le
BigQuery
DevOps
Python

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
MOE

24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
1311 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous