Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 301 résultats.
Freelance

Mission freelance
ARCHITECTE APPLICATIF /DATA

Groupe Ayli
Publiée le
Big Data
Cognos
IBM DataStage

12 mois
400-700 €
Île-de-France, France
CONTEXTE DE LA MISSION Le groupe évolue dans un environnement data historiquement riche, construit à travers différentes entités et transformations. Ce contexte offre aujourd'hui une opportunité stratégique de structuration et d'optimisation du SI data afin de gagner en cohérence, en performance et en agilité. L'environnement se caractérise par une volumétrie de données importante — notamment des flux transactionnels à haut débit — nécessitant des choix d'architecture adaptés et scalables. Environnement technique en place – ETL : IBM InfoSphere DataStage – Base de données : Oracle Database – BI / Reporting : IBM Cognos Analytics ou équivalent – Architecture hybride : data lake, composants Big Data, cloud ENJEUX DE LA MISSION – Structurer et renforcer le backbone data du groupe – Faire évoluer le référentiel de données et sa gouvernance – Améliorer la qualité des données et fluidifier les échanges – Optimiser les flux et les coûts d'exploitation – Évaluer et intégrer des solutions modernes, durables et adaptées au marché — en tenant compte des enjeux de souveraineté et des alternatives disponibles sur le marché européen – Définir une architecture data cible cohérente, scalable et pérenne RÔLE DANS LA MISSION 1 · Analyse & Diagnostic – Compréhension et cartographie de l'existant (flux, données, applications) – Analyse des usages et de la qualité des données – Identification des axes d'amélioration, de la dette technique et des risques 2 · Recommandation & Architecture – Définition d'une architecture cible data et applicative – Recommandations sur les outils, l'urbanisation du SI et la gouvernance data – Évaluation des options du marché : solutions internationales, européennes et françaises 3 · Aide à la décision – Apport d'une vision marché structurée et objective – Accompagnement des choix stratégiques auprès des décideurs – Orientation claire sur ce qu'il convient de faire évoluer, d'optimiser ou de transformer
Freelance
CDI

Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)

Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage

12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
CDI

Offre d'emploi
Tech Lead Data (H/F)

Amiltone
Publiée le

30k-35k €
Bordeaux, Nouvelle-Aquitaine
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Tech Lead Data (H/F). Dans une organisation Agile, vous assurerez les missions suivantes : - Encadrer et accompagner l'équipe dans la réalisation des projets data - Optimiser les processus de delivery en s'appuyant sur les principes Lean - Garantir la performance, la scalabilité et la fiabilité des solutions data - Participer à la conception et à l'évolution de la plateforme data - Faciliter le partage de données avec les filiales du groupe et les clients B2B La stack technique : - Snowflake - SQL - Talend - DBT - Kafka - Python - PowerBI
Freelance

Mission freelance
Directeur de Projet - Mainframe

CONCRETIO SERVICES
Publiée le
COBOL
Data management

12 mois
400-600 €
Gironde, France
Dans le cadre de la transformation de son système d'information, notre client — grand compte — recherche un Directeur de Projet expérimenté pour piloter en transverse le domaine Référentiel (Tiers, Contrats, Produits). Le prestataire intégrera la DSI et assurera un rôle stratégique à l'interface des équipes métiers, des architectes et des équipes de delivery, dans un contexte de modernisation d'un patrimoine applicatif legacy significatif. Missions principales Structurer et piloter les actions du schéma directeur du domaine Référentiel Sécuriser les décisions d' urbanisation autour des objets métiers clés (Tiers, Contrats, Produits) Piloter les études d'opportunité et de faisabilité en lien avec les enjeux de modernisation Piloter les contributions DSI aux études conduites par la MOA Expérimenter un POC IA appliqué à l'analyse d'impact et à la rétro-documentation (LLM, RAG, extraction de connaissance) Assurer le reporting et la gouvernance auprès des instances DSI et métiers Organiser et coordonner le projet de migration du patrimoine Référentiel Piloter le plan de gestion de la dette technique sur le périmètre des ID, en soutien des managers Environnement technique SI legacy : applications COBOL , CICS / DB2 / MQSeries SI distribués et architectures hybrides Enjeux MDM / Data Management Architecture d'entreprise et urbanisation du SI Expérimentation IA générative (LLM, RAG, knowledge extraction)
Freelance

Mission freelance
Data Analyst Opérations & Maintenance

NEXTWYN
Publiée le
Azure Data Factory
BI
Big Data

3 mois
Paris, France
Nous recrutons un·e Data Analyst Opérations & Maintenance (Paris) Dans le cadre d’un projet stratégique au sein d’un grand groupe industriel international, nous renforçons notre pôle Data & IA et recherchons un Data Analyst O&M capable de valoriser des données issues de réseaux industriels complexes (IoT, supervision, maintenance, signalisation…). 🎯 Votre mission : transformer des données opérationnelles en insights concrets pour améliorer la performance, la supervision des actifs, la sécurité et la sobriété énergétique. Vous interviendrez sur la conception de tableaux de bord (Qlik) , l’ analyse de données , la qualité , la documentation , et la collaboration avec les équipes métiers dans un environnement international. 🔍 Vos responsabilités Recueillir et prioriser les besoins métiers avec les PO, CSM et équipes opérationnelles. Explorer, auditer et qualifier les données issues des systèmes industriels. Concevoir et développer des tableaux de bord (Qlik principalement). Standardiser et rationaliser les modèles de données avec les Data Managers. Documenter les règles de gestion et maintenir le dictionnaire de données. Réaliser les recettes fonctionnelles et mettre en place des plans de tests data.
CDI

Offre d'emploi
Senior Data Analyst Snowflake H/F

JEMS
Publiée le

40k-50k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Senior Data Analyst spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Missions : • Être responsable de la couche analytique des métriques End-to-End : calculer et suivre les KPI incluant le temps de cycle, le lead time, le débit (throughput) et les encours (work-in-progress) à travers les étapes de production, • Construire des modèles de données granulaires pour un suivi complet des lots, en enrichissant la visibilité avec un niveau de détail par étape et une cartographie des dépendances entre tâches, • Mettre en place un contrôle statistique des processus appliqué aux métriques de flux : détecter les dérives des KPI par rapport aux limites de variabilité et développer des modèles prédictifs pour optimiser les temps de cycle, • Concevoir et maintenir des dashboards de suivi des flux ainsi que des visualisations d'analyse des goulets d'étranglement pour les équipes de production et les relecteurs de dossiers de lots, • Collaborer avec les data engineers pour intégrer les données SAP et les systèmes MES, en garantissant la qualité des données pour le suivi des lots et l'analyse des flux, • Travailler avec les équipes site pour cartographier finement les tâches de production et valider les dépendances, afin de soutenir la transition vers une séquence de lots optimisée, • Contribuer à l'intégration future de capacités de process mining et de workflows agentiques pour un ordonnancement intelligent des files de production. Référence de l'offre : m8hb4s55ll
CDI

Offre d'emploi
Product Ower / Data manager pour le datalake OWEY - /X F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
Gitlab
JIRA

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Scientist (H/F)

QODEXIA
Publiée le
Docker
GitLab CI
MLOps

10 jours
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. MISSION GLOBALE : Notre client est un grand groupe industriel de référence dans le secteur défense & technologies. Dans le cadre du développement d'une V0 sur un projet de détection d'éléments pour le secteur Naval (analyse d'images et flux vidéos), nous recherchons un Data Scientist Senior à forte séniorité et capacité de leadership. Vous participerez activement à la phase de scoping et au cadrage des besoins IA avec les équipes métiers, tout en concevant, développant et validant des solutions algorithmiques de Computer Vision/DRI et en assurant le cycle de vie complet des modèles (MLOps) dans un environnement de sprint condensé.
Freelance

Mission freelance
Product Manager Data Mesh

SURICATE IT
Publiée le
Data Mesh
Product management

3 ans
400-750 €
La Défense, Île-de-France
Product Manager Data Mesh 📍 Localisation : Puteaux 📅 Type de mission : Mission longue 🏠 Télétravail : 1 jour / semaine (non négociable) 💰 TJM : 750€ Max 🏦 Secteur d’activité : Finance 🚨ATTENTION : Expérience pratique du Data Mesh obligatoire Contexte de la mission Dans un contexte de transformation data à grande échelle, notre client recherche un Senior Data Product Manager pour piloter la conception, la construction et le déploiement de sa plateforme Data Mesh (Group Data Platform – GDP). Il s’agit d’un rôle stratégique mais fortement opérationnel, avec une responsabilité directe sur la livraison, l’industrialisation et l’adoption de la plateforme à l’échelle de l’entreprise. Vos missions 🎯 Pilotage produit & amélioration continue Recueillir les besoins utilisateurs et définir la vision produit Construire et piloter la roadmap Suivre les KPIs d’usage et de valeur Améliorer en continu l’expérience utilisateur et développeur 🏗️ Delivery de la plateforme Data Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité…) Mettre en place les standards techniques et les patterns d’architecture Prendre des décisions techniques et valider les solutions ☁️ Architecture Cloud & Infrastructure Coordonner l’architecture cloud et hybride (AWS / Azure) Piloter l’intégration des systèmes on-premise Garantir la sécurité et la conformité 🚀 Exécution & delivery Piloter le cycle de vie produit (backlog, priorisation, releases) Gérer les déploiements en production Suivre performance, fiabilité et risques 📊 Déploiement & adoption Data Mesh Déployer la plateforme dans les différents domaines métiers Accompagner les équipes dans la création de data products Structurer et piloter l’adoption du modèle Data Mesh 📚 Gouvernance & documentation Formaliser les standards, processus et bonnes pratiques Assurer la conformité avec la gouvernance data du Groupe 📢 Communication & pilotage Assurer le reporting auprès des parties prenantes et du top management Produire dashboards, KPIs et supports de pilotage Animer les comités de suivi 🌟 Évangélisation & adoption Promouvoir la plateforme en interne Construire une communauté autour de la data Développer des cas d’usage et démonstrateurs Indicateurs de succès Plateforme déployée et opérationnelle en production Adoption effective par les métiers Qualité et volume des data products livrés Performance et fiabilité de la plateforme Satisfaction utilisateurs Réduction du time-to-market des cas d’usage data
Freelance

Mission freelance
Quality Data/Lead Data Referentiel

Cherry Pick
Publiée le
Finance
IA
Numpy

12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
Freelance

Mission freelance
Business Data Analyste SQL (h/f)

emagine Consulting SARL
Publiée le

1 mois
500-600 €
92400, Courbevoie, Île-de-France
Nous recherchons un Business Analyste Data Profil recherché : Bac +5 (école d’ingénieur ou équivalent) – obligatoire Minimum 5 ans d’expérience en tant que Business Analyste, idéalement au sein d’équipes IT Maîtrise des fondamentaux du métier de BA : recueil des besoins, rédaction des spécifications, stratégie de tests (y compris automatisation), animation d’ateliers Solide expérience sur des projets data : modélisation de données (data modeling), SQL, architecture data, analyse approfondie des données Expérience sur des plateformes décisionnelles (reporting, analytics) Compétences clés : Très bonne maîtrise de SQL et d’Excel Bonne connaissance de la suite Microsoft Office Anglais professionnel requis Soft skills : Dynamisme et proactivité Esprit structuré et analytique Excellente communication orale Capacité à travailler dans un environnement international et multi-équipes (contexte de transformation multi-pays)
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Intégration HPC – Simulation Numérique

RIDCHA DATA
Publiée le
Calcul hautes performances (HPC)
Google Cloud Platform (GCP)
Linux

1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’un programme stratégique autour de la simulation numérique , une grande organisation industrielle renforce ses équipes afin d’optimiser le développement de produits via des solutions de calcul avancé (HPC). La simulation numérique joue un rôle clé dans la réduction des coûts de prototypage et l’amélioration des performances, en s’appuyant sur un écosystème de logiciels métiers spécialisés (acoustique, thermique, etc.). 🚀 Missions principales Mise en place et maintien d’environnements Linux (Shell / Bash) Développement de scripts pour orchestrateurs HPC (Slurm, LSF) Installation et configuration de postes Windows 10/11 (Batch, PowerShell, XML) Monitoring des ressources (serveurs, licences) Diagnostic des incidents multi-environnements : Windows Linux Orchestrateurs Logiciels de simulation Utilisation de MPI pour le calcul distribué (multi-nœuds) Accompagnement des utilisateurs (support, compréhension des besoins) Participation à des projets en mode Agile Contribution à des environnements Cloud (notamment GCP) 📦 Livrables attendus Documentation technique (conception) Code source développé Tests unitaires et d’intégration
CDI

Offre d'emploi
Ingénieur Data & API (H/F)

SYAGE
Publiée le
Apache Kafka
API REST
GraphQL

Monaco-Ville, Monaco
Mission : Au sein de l’équipe d’Ingénierie Logicielle, vous interviendrez dans les projets digitaux sur l’intégration de flux de données inter-applicatifs et DATA, et la mise en œuvre de l’exposition d’API via une plateforme d’API Management (). Principales Activités : Vous serez chargé(e) de l’architecture et l’intégration des flux dans la plateforme KESTRA (batch, ETL, event streaming...) Vous assurerez l’implémentation script ETL Python dans le cadre des flux de données Vous prendrez en charge l’exposition et la création d’API sur la plateforme d’API Management avec notamment : sécurisation, filtrage, médiation de protocole Lien hiérarchique : Responsable Informatique Ingénierie logicielle Manager : Non
Alternance
CDI

Offre d'emploi
Data analyst (H/F)

█ █ █ █ █ █ █
Publiée le

Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Alternance
CDI

Offre d'emploi
Data analyst (H/F)

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

5301 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous