Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 109 résultats.
Freelance

Mission freelance
Data Engineer Spark / Hadoop – Data & Analytics

Datapy
Publiée le
Apache Spark
Cloudera
Hadoop

12 mois
550-750 €
Paris, France
Nous recherchons un Data Engineer pour intervenir chez un acteur majeur du secteur public , dans le cadre du développement de sa plateforme Data & Analytics . Vous évoluerez sur des problématiques de traitement de données à grande échelle , avec des enjeux forts autour de la qualité, de la gouvernance et de la valorisation de la donnée . Missions Développer et maintenir des pipelines de données Big Data Mettre en place des traitements distribués avec Spark Structurer les données dans un DataLake / DataWarehouse Assurer la qualité, la fiabilité et la traçabilité des données Réaliser des analyses de données avancées Construire et suivre des KPI métiers Participer à la valorisation des données pour les équipes métier Contribuer à des cas d’usage type : analyse de parcours détection d’anomalies segmentation de données Optimiser les performances des traitements Environnement technique Spark / PySpark Hadoop (HDFS, Hive…) Airflow Python SQL Git / CI-CD Environnement DataLake
Freelance
CDI
CDD

Offre d'emploi
Log Manager SOC / SIEM (H/F)

RIDCHA DATA
Publiée le
Backlog management
Security Information Event Management (SIEM)
SOC (Security Operation Center)

1 an
Île-de-France, France
📍 Localisation : Île-de-France / Hybride 📅 Démarrage : Mai 2026 ⏳ Durée : Mission longue (jusqu’à fin 2026) 🚀 Contexte de la mission Dans le cadre du renforcement d’un Security Operations Center (SOC) , nous recherchons un Log Manager / SIEM pour structurer, déployer et industrialiser la gestion des logs de sécurité. 👉 L’objectif est d’améliorer la collecte, la qualité et l’exploitation des logs afin de renforcer les capacités de détection et de réponse aux incidents. 🎯 Vos missions 🔍 Cadrage & structuration Analyser les sources de logs existantes et identifier les gaps Définir les besoins en collecte et exploitation des logs Participer à la formalisation des besoins (cadrage, documentation, RFP si nécessaire) ⚙️ Implémentation & exploitation Mettre en place et optimiser la chaîne de collecte des logs Configurer les flux : collecte, parsing, normalisation, enrichissement Assurer l’intégration des sources dans le SIEM Garantir la qualité, la cohérence et la complétude des logs Participer aux phases de tests, validation et mise en production 📊 Amélioration continue Optimiser les performances et la volumétrie des flux Assurer le maintien en condition opérationnelle de la chaîne de collecte Documenter les processus et procédures (run, troubleshooting) Accompagner les équipes SOC dans l’exploitation des logs 🛠️ Environnement technique SOC / SIEM Log management Collecte et traitement des logs (parsing, normalisation, enrichissement) Protocoles de collecte et sécurisation des flux Environnements hybrides (on-premise / cloud) Contraintes de volumétrie, performance et résilience
CDI

Offre d'emploi
Data Scientist confirmé F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Product Manager (Business Analyst / Solution Architect) - CDI F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Code Review
Data management

Courbevoie, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Chef de Projet Data & IA (H/F)

AGH CONSULTING
Publiée le
Data analysis
IA Générative
Méthode Agile

1 an
480-520 €
Montrouge, Île-de-France
Vous intégrerez l'équipe Gestion de Projets de notre client, pour réaliser les missions suivantes : - Avec l'ensemble des parties prenantes (métiers, IT, CISO, juridiques, Data Scientists, Data Engineer...), gérer des projets Data, IA et IA Générative répondant aux besoins des métiers, en respectant la méthodologie certifiée et labélisée du DataLab Groupe : o Etude d'opportunité et cadrage, o Pilotage de la réalisation jusqu'à la mise en production à l'échelle, en assurant un reporting auprès des sponsors et de votre Direction, o Suivi du déploiement et de l'utilisation des solutions par les utilisateurs finaux, o Accompagnement de la montée en compétences des équipes des entités. - Contribuer à l'amélioration continue de la méthodologie, - Participer à l'animation de la communauté des experts Data & IA (webinars, Clubs, Groupe de Travail...), et à l'acculturation des collaborateurs, managers et dirigeants du Groupe, et au rayonnement des réalisations Data et de l'IA du client au travers d'événements externes (salons, conférences, communautés...).
Freelance
CDI

Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)

Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage

12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
Freelance
CDI

Offre d'emploi
Data Engineer SENIOR

Tritux France
Publiée le
Cloud
Data Lake
Pandas

3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
CDI

Offre d'emploi
Ingénieur Data Scientist /Intelligence artificielle en alternance - Toulouse (31) H/F

█ █ █ █ █ █ █
Publiée le

Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
PRODUCT OWNER

SKILLWISE
Publiée le
Big Data

3 mois
400-550 €
Île-de-France, France
Au sein de la Direction des Technologies, vous intégrez le pôle Produits Publicitaires en tant que Product Owner Offre . Vous intervenez sur un produit stratégique dédié à la gestion des catalogues d’offres, de l’inventaire et du pricing sur des environnements TV et Digital. En collaboration avec un autre Product Owner et des équipes pluridisciplinaires, vous êtes responsable de la vision produit, de la priorisation et du delivery dans un environnement agile. Vos missions principales : Vision & stratégie produit Définir et porter la vision produit Construire et piloter la roadmap Garantir l’alignement avec les enjeux métiers (marketing, revenue management) Gestion du backlog Recueillir et analyser les besoins métiers Rédiger les spécifications fonctionnelles (user stories) Prioriser et maintenir le Product Backlog selon la valeur métier Pilotage du delivery Coordonner les équipes techniques (développement, data, API…) Suivre l’avancement en méthodologie agile Garantir le respect des délais, de la qualité et des coûts Recette & mise en production Organiser et piloter la recette fonctionnelle Valider les livrables Assurer les mises en production RUN & amélioration continue Suivre la performance du produit Gérer les incidents et évolutions Optimiser en continu les fonctionnalités Accompagnement au changement Accompagner les utilisateurs dans l’adoption des outils Assurer la communication produit Faciliter la conduite du changement Responsabilités clés : Ownership du Product Backlog Priorisation basée sur la valeur métier Cohérence du SI avec les autres produits Pilotage de la valeur délivrée Qualité des livrables à chaque sprint
Freelance
CDI

Offre d'emploi
Data Hub - Data Engineer

Digistrat consulting
Publiée le
IntelliJ IDEA
Python
SQL

3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Participation à différents projets de migration vers la nouvelle plateforme 💡Description détaillée Le contexte de la mission : Participation à différents projets de migration vers la nouvelle plateforme. Participation aux nouveaux projets BI. Contribution aux développements de workflows en python au sein de l'équipe DataHub Core Platform. 💡Responsabilités principales : · La mission consiste à : Participation au projet DQF (Data Quality Framework) Développement des modules python communs qui seront utiles à tous les projets Participation au projet Data Lineage
Alternance
CDI

Offre d'emploi
Data analyst F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
SQL

Orvault, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Data Scientist IA

R&S TELECOM
Publiée le
CI/CD
Kubernetes

1 an
45k-55k €
430-470 €
Île-de-France, France
Contexte de la mission Vous serez amené à évoluer dans une équipe pluridisciplinaire et travailler à concevoir, développer ou faire évoluer notre infra et plateforme Big Data dans un environnement Kubernetes. Objectifs et livrables Maintenir et faire évoluer la chaine CI/CD et les différents environnements containerisés. Adapter nos infrastructures et services aux besoins des projets. Concevoir et intégrer de nouvelles solutions sur nos infrastructures conteneurisées Documenter l’architecture, l’administration et l’exploitation Guider nos clients dans l'utilisation de Kubernetes et des pipelines CI/CD Assurer le support de niveau 3 sur les infrastructures supportant la conteneurisation. Veiller à la sécurité de bout en bout dans l’usage des technologies de conteneurisation et des conteneurs. Assurer une veille technologique. Compétences demandées Compétences Niveau de compétence Programmation Python Confirmé Gitlab CI/CD Expert GRAFANA Avancé ANSIBLE Avancé KAFKA Expert KUBERNETES Expert ELASTICSEARCH Confirmé ,
Freelance

Mission freelance
Technicien(ne) EDI

Freelance.com
Publiée le
Échange de données informatisé (EDI)

6 mois
400-490 €
Lièpvre, Grand Est
Au sein de la DSI d’un acteur majeur européen spécialisé dans l’aménagement intérieur et la cuisine sur mesure, vous intervenez en tant que Technicien(ne) EDI. Vous assurez à la fois le support opérationnel et l’évolution des flux EDI en lien avec les partenaires externes (fournisseurs et prestataires logistiques), dans un contexte de transformation et d’harmonisation des échanges. Le poste s’inscrit à l’interface entre le Run et les projets de transformation EDI, avec une forte interaction avec les équipes métiers (approvisionnement et logistique) et les partenaires externes. Vos principales missions : RUN / EXPLOITATION : Assurer la continuité opérationnelle du SI et le suivi des flux EDI (environ 60 partenaires sur environnements SAP et AS400) Superviser quotidiennement les échanges EDI, traiter les incidents et assurer le reporting auprès des équipes métiers Participer au paramétrage et à l’évolution des flux EDI en lien avec les équipes Approvisionnement, Logistique et les partenaires externes Mettre en place et suivre des tableaux de bord (erreurs, indicateurs de qualité des flux) TRANSFORMATION / HARMONISATION EDI : Participer au projet de migration de la plateforme EDI existante vers une solution cible de type TradeXpress Contribuer au déploiement et à l’uniformisation des échanges EDI avec les partenaires Animer les ateliers de normalisation des flux Définir et faire appliquer les standards EDI Accompagner la bascule des fournisseurs (tests, intégration, mise en production)
CDI

Offre d'emploi
Ingénieur d'Affaires Data & IA Secteur EnergieH/F

JEMS
Publiée le

45k-60k €
Levallois-Perret, Île-de-France
En tant qu' Ingénieur d'Affaires Data & IA secteur Energie H/F vous aurez la charge de : • Créer et développer de nouvelles relations d'affaires avec des clients potentiels et des partenaires stratégiques de l'Energie • Identifier et explorer de nouvelles opportunités de marché pour nos produits et services • Travailler en étroite collaboration avec nos équipes internes pour élaborer des solutions sur mesure pour nos clients du secteur de l'Energie • Prévoir les tendances du marché d'Energie et anticiper les besoins des clients pour façonner notre stratégie de croissance • Représenter JEMS lors d'événements, de conférences et de réunions pour élargir notre réseau et renforcer notre présence sur le marché • Garder un œil sur la concurrence et élaborer des stratégies pour rester en tête Avantages à travailler chez JEMS : • Un accompagnement personnalisé pour développer votre carrière • L'opportunité de travailler dans un environnement dynamique et stimulant • Une culture d'entreprise qui encourage la créativité, l'innovation et la croissance personnelle • Un package de rémunération compétitif avec des avantages exceptionnels • Un soutien continu pour développer vos compétences et avancer dans votre carrière • Des séminaires d'intégration inoubliables Pour Postuler Si vous êtes prêt(e) à relever le défi et à devenir un acteur clé de notre équipe en tant qu'Ingénieur d'Affaires chez JEMS, envoyez nous votre CV accompagné d'une lettre de motivation convaincante qui montre pourquoi vous êtes la personne idéale pour ce poste. Montrez nous votre passion, votre détermination et votre vision pour l'avenir. Diversité Le Groupe JEMS porte fièrement sa valeur "Diversité" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap. Chez JEMS, nous croyons que les meilleurs candidats sont ceux qui partagent notre passion pour l'innovation et notre engagement envers l'excellence. Rejoignez notre équipe et soyez prêt à changer le jeu ! Référence de l'offre : vu8w7m88rl
Freelance

Mission freelance
Ingénieur DATA

ROCKET TALENTS
Publiée le
Apache Kafka
Big Data
Cloudera

1 an
400-460 €
Saint-Quentin, Hauts-de-France
Ingénieur DATA : . Contexte Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. 3. Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2. 4. Profil Recherché Le prestataire devra justifier des compétences suivantes : • Expérience avérée en administration et support de Cloudera Data Platform. • Maîtrise de Kafka (optimisation, gestion des performances et de la scalabilité). • Capacité à analyser et résoudre des incidents critiques sur un environnement Big Data. • Maîtrise des langages Shell, Ansible et Python pour l’automatisation et le déploiement. • Expérience sur les bases de données Elasticsearch. • Capacité à intervenir sur des problématiques de dimensionnement et d’optimisation des performances. • Autonomie, rigueur et capacité à être force de proposition. • Une connaissance de la plateforme Dataiku serait un plus. • Capacité à collaborer avec des équipes multi-disciplinaires et à transmettre des connaissances. • Bonnes connaissances de Linux (à l'aise avec un terminal).
Freelance

Mission freelance
Product Tech Lead – IA / GenAI - English - Full remote

Net technologie
Publiée le
Agent IA
Azure AI
IA Générative

6 mois
550-600 €
France
🚀 Product Tech Lead – IA / GenAI (Azure) Dans le cadre d’une transformation digitale ambitieuse , nous recherchons un(e) Product Tech Lead pour piloter une solution stratégique basée sur la Data & l’IA Générative , dédiée à la performance des équipes commerciales. 🎯 Objectif : concevoir et déployer une plateforme data-driven fournissant des insights intelligents et des outils innovants pour soutenir la croissance business. 🚀 Missions Définir et piloter l’ architecture technique & data end-to-end Garantir la scalabilité, sécurité et performance des solutions Encadrer une équipe transverse (Dev, Data, AI Engineers) Concevoir et livrer des fonctionnalités IA / GenAI (Azure OpenAI) Structurer les pipelines data , gouvernance et cycle de vie des modèles Assurer l’intégration avec les systèmes ( SAP, Salesforce ) Superviser les déploiements (Azure / Fabric) avec pratiques DevOps, MLOps, LLMOps Collaborer avec le Product Manager pour aligner valeur métier & faisabilité technique
4109 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous