Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 766 résultats.
Freelance

Mission freelance
Data Architect DATABRICKS Azur gen AI 600 e /J

BI SOLUTIONS
Publiée le
Big Data
Python

2 ans
400-600 €
Île-de-France, France
Data Architect DATABRICKS Azur gen AI 600 e /J – Minimum 6-8 ans d’expérience en data, dont plusieurs années en architecture – Expérience confirmée en environnement Azure – Forte maîtrise d’Azure Databricks, Spark, Delta Lake – Expérience en conception de plateformes Big Data à forte volumétrie – Connaissances en intégration de modèles ML en production – Bonne compréhension des architectures GenAI / LLM (RAG, vectorisation, orchestration) – Capacité à interagir avec des équipes métiers industrielles – Anglais courant – Expérience Volvo fortement appréciée Le poste s’inscrit dans un environnement exigeant, orienté performance industrielle et transformation digitale. Nous recherchons un profil structurant, capable de poser les bases d’une architecture robuste et évolutive, tout en accompagnant la montée en maturité IA du client. Compétences professionnelles et techniques: - Azure - Databricks - Python - Gen AI - Angl
Freelance

Mission freelance
Architecte DevOps / FinOps GCP – Data & IA

Craftman data
Publiée le
DevOps
Google Cloud Platform (GCP)
MLOps

3 mois
590-700 €
Paris, France
Dans le cadre d’un programme stratégique Data & IA, nous recherchons un Architecte DevOps / FinOps avec une forte expertise GCP. Vous interviendrez sur des enjeux structurants autour de la conception et de l’industrialisation d’architectures Data & IA en environnement cloud et hybride. À ce titre, vous serez en charge de : Concevoir et mettre en œuvre des architectures data robustes et scalables Définir les standards d’architecture (Data, IA, DevOps, MLOps, Cloud) Mettre en place des pratiques de gouvernance des modèles (incluant les LLM) Encadrer les enjeux de conformité, risques et éthique liés à l’IA Structurer et diffuser les bonnes pratiques (Data, Cloud, DevOps) Intégrer une approche FinOps dès la conception des architectures Piloter la performance des pipelines data & IA Optimiser les coûts (Cloud, GPU, workloads IA) Contribuer à la mise en place de modèles de refacturation
Freelance
CDI
CDD

Offre d'emploi
Log Manager SOC / SIEM (H/F)

RIDCHA DATA
Publiée le
Backlog management
Security Information Event Management (SIEM)
SOC (Security Operation Center)

1 an
Île-de-France, France
📍 Localisation : Île-de-France / Hybride 📅 Démarrage : Mai 2026 ⏳ Durée : Mission longue (jusqu’à fin 2026) 🚀 Contexte de la mission Dans le cadre du renforcement d’un Security Operations Center (SOC) , nous recherchons un Log Manager / SIEM pour structurer, déployer et industrialiser la gestion des logs de sécurité. 👉 L’objectif est d’améliorer la collecte, la qualité et l’exploitation des logs afin de renforcer les capacités de détection et de réponse aux incidents. 🎯 Vos missions 🔍 Cadrage & structuration Analyser les sources de logs existantes et identifier les gaps Définir les besoins en collecte et exploitation des logs Participer à la formalisation des besoins (cadrage, documentation, RFP si nécessaire) ⚙️ Implémentation & exploitation Mettre en place et optimiser la chaîne de collecte des logs Configurer les flux : collecte, parsing, normalisation, enrichissement Assurer l’intégration des sources dans le SIEM Garantir la qualité, la cohérence et la complétude des logs Participer aux phases de tests, validation et mise en production 📊 Amélioration continue Optimiser les performances et la volumétrie des flux Assurer le maintien en condition opérationnelle de la chaîne de collecte Documenter les processus et procédures (run, troubleshooting) Accompagner les équipes SOC dans l’exploitation des logs 🛠️ Environnement technique SOC / SIEM Log management Collecte et traitement des logs (parsing, normalisation, enrichissement) Protocoles de collecte et sécurisation des flux Environnements hybrides (on-premise / cloud) Contraintes de volumétrie, performance et résilience
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure Sénior

VISIAN
Publiée le
Azure Data Factory
Azure DevOps
Python

1 an
Paris, France
Contexte La Direction des Systèmes d’Information recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données. Missions Mener les projets d’intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger (Anglais) pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l’entreprise
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Alternance
CDI

Offre d'emploi
Data analyst F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
SQL

Orvault, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Chef d'orchestre du Data Management (H/F)

█ █ █ █ █ █ █
Publiée le
Data management

40k-50k €
69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer / Data Platform Engineer (H/F)

INFOGENE
Publiée le
Data Engineering
Finance
Python

6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
CDI

Offre d'emploi
Alternance Data & Performance Acquisition H/F

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Bois-Colombes, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer SENIOR

Tritux France
Publiée le
Cloud
Data Lake
Pandas

3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
Freelance
CDI

Offre d'emploi
Analyste DLP - H/F

AMD Blue
Publiée le
Big Data
Cybersécurité
Data analysis

3 ans
43k-45k €
360-410 €
Île-de-France, France
Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Cyber. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Cyber . Contexte de la mission : Notre client recherche un(e) Analyste DLP pour accompagner l'équipe dans la sécurisation des données, la réalisation d'analyses opérationnelles et l'optimisation des systèmes de surveillance. Descriptif de la mission : Les missions sont : Évaluation et analyse des événements générés par le contrôle DLP (niveau 1) selon des critères prédéfinis. Révision quotidienne des événements et escalade vers les niveaux 2 pour analyse complémentaire. Identification des points faibles du système de surveillance via l'analyse des problèmes de sécurité. Communication avec le responsable du contrôle sur la détection et la revue des règles spécifiques. Proposition de bonnes pratiques et de solutions de classification pour optimiser la détection. Réalisation du suivi hebdomadaire de l'activité et de la performance. Participation à des projets de sécurité transverses. Réalisation des premières investigations en niveau 2 pour confirmer et évaluer les fuites de données. Participation à la sensibilisation des collaborateurs aux bonnes pratiques de sécurité.
Freelance
CDI

Offre d'emploi
Chargé d’Affaires Data Centers CVC

AGH CONSULTING
Publiée le
Finance
Planification

6 mois
Massy, Île-de-France
Contexte Dans le cadre du développement d’activités liées aux Data Centers , nous recherchons un(e) Chargé(e) d’Affaires CVC pour piloter des projets techniques en environnement critique. Vous interviendrez sur des installations à forte exigence de performance (refroidissement, climatisation, continuité de service), en lien direct avec les équipes techniques et les clients. Missions Assurer la préparation, le pilotage et le suivi technique des projets CVC Planifier les interventions en coordination avec le client Participer à la conception technique des solutions (dimensionnement, optimisation) Piloter la rentabilité des affaires (suivi budgétaire, marges) Contribuer au développement du chiffre d’affaires Coordonner et encadrer les équipes opérationnelles Assurer le reporting d’activité auprès de la direction / conduite de travaux Veiller au respect des normes de sécurité et de qualité sur les chantiers
Freelance

Mission freelance
ARCHITECTE APPLICATIF /DATA

Groupe Ayli
Publiée le
Big Data
Cognos
IBM DataStage

12 mois
400-700 €
Île-de-France, France
CONTEXTE DE LA MISSION Le groupe évolue dans un environnement data historiquement riche, construit à travers différentes entités et transformations. Ce contexte offre aujourd'hui une opportunité stratégique de structuration et d'optimisation du SI data afin de gagner en cohérence, en performance et en agilité. L'environnement se caractérise par une volumétrie de données importante — notamment des flux transactionnels à haut débit — nécessitant des choix d'architecture adaptés et scalables. Environnement technique en place – ETL : IBM InfoSphere DataStage – Base de données : Oracle Database – BI / Reporting : IBM Cognos Analytics ou équivalent – Architecture hybride : data lake, composants Big Data, cloud ENJEUX DE LA MISSION – Structurer et renforcer le backbone data du groupe – Faire évoluer le référentiel de données et sa gouvernance – Améliorer la qualité des données et fluidifier les échanges – Optimiser les flux et les coûts d'exploitation – Évaluer et intégrer des solutions modernes, durables et adaptées au marché — en tenant compte des enjeux de souveraineté et des alternatives disponibles sur le marché européen – Définir une architecture data cible cohérente, scalable et pérenne RÔLE DANS LA MISSION 1 · Analyse & Diagnostic – Compréhension et cartographie de l'existant (flux, données, applications) – Analyse des usages et de la qualité des données – Identification des axes d'amélioration, de la dette technique et des risques 2 · Recommandation & Architecture – Définition d'une architecture cible data et applicative – Recommandations sur les outils, l'urbanisation du SI et la gouvernance data – Évaluation des options du marché : solutions internationales, européennes et françaises 3 · Aide à la décision – Apport d'une vision marché structurée et objective – Accompagnement des choix stratégiques auprès des décideurs – Orientation claire sur ce qu'il convient de faire évoluer, d'optimiser ou de transformer
Stage

Offre de stage
Business Analyst - Data & Performance RH (H/F)

ALTEN
Publiée le
Microsoft Excel
Microsoft Power BI

6 mois
Boulogne-Billancourt, Île-de-France
La Direction Transverse au Recrutement Ingénieurs a pour mission d’accompagner et d’améliorer la performance et l’expérience des équipes recrutement. Tu interviendras sur les sujets suivants : Audit et analyses : • Harmonisation et clarification de la data liée aux outils de recrutement • Collecte, suivi et analyse des KPIs • Optimisation des outils déployés : audit des processus existants, mise en place de nouvelles solutions digitales, etc. Projets transverses : • Participation à des projets spécifiques RH : tests de nouveaux outils IA, campagnes de recrutement, etc. • Animation de la communauté des recruteurs : mise à disposition de ressources, organisation d’ateliers, animation d’un podcast interne, etc. • Aide à l’animation des contrats jobboards : relation avec les prestataires, négociation, etc. Veille et études : • Veille concurrentielle sur les pratiques de recrutement et les stratégies marketing RH • Etudes sur les viviers de talents en France et à l’international
Freelance
CDI

Offre d'emploi
 Data Scientist – IA (F/H)

K-Lagan
Publiée le
Big Data
Data science
IA

1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet en Data & IA donnait un vrai sens à votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets innovants où la Data et l’Intelligence Artificielle sont au cœur de la transformation des entreprises. Aujourd’hui, nous recherchons un·e Data Scientist – IA (F/H) pour rejoindre l’un de nos clients dans un environnement stimulant et orienté innovation. 🔍 Contexte Vous interviendrez sur des projets à forte valeur ajoutée, visant à exploiter la donnée pour améliorer la prise de décision, automatiser des processus et développer des modèles prédictifs . Vous évoluerez au sein d’équipes pluridisciplinaires dans un environnement agile. 🎯 Missions Concevoir, développer et déployer des modèles de Machine Learning / IA Analyser et exploiter des volumes de données complexes Participer à la définition des cas d’usage Data & IA Mettre en production les modèles et suivre leur performance Collaborer avec les équipes Data Engineering, BI et métiers Assurer la qualité, la robustesse et la fiabilité des modèles Contribuer à l’ amélioration continue des solutions IA
766 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous