Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 7 125 résultats.
Freelance

Mission freelance
Data Manager expert modélisation de données (H/F)

Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake

12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
CDI

Offre d'emploi
DATA SCIENTIST H/ F (H/F)

█ █ █ █ █ █ █
Publiée le
Python

43k-47k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Alternance
CDI

Offre d'emploi
Data scientist (38972) (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Chappes, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Engineer

CGI
Publiée le
ETL (Extract-transform-load)
SGBD
SQL

35k-45k €
Nantes, Pays de la Loire
Si vous souhaitez intégrer nos équipes à Nantes et accompagner les plus grands acteurs de secteurs variés, cette annonce est susceptible de vous intéresser. Rejoindre notre communauté Data à Nantes, c’est intégrer un collectif d’experts passionnés, partager les meilleures pratiques d’ingénierie, monter en compétences sur des environnements techniques variés et contribuer à des projets à fort impact pour nos clients grands comptes. Vous intervenez chez nos clients ou au sein de nos équipes projets pour concevoir, construire et faire évoluer des plateformes de données performantes et industrialisées. Acteur clé de la chaîne de valeur Data, vous participez à la mise en œuvre d’architectures fiables, scalables et orientées performance, dans des contextes souvent menés en méthodologie agile. Fonctions et responsabilités : Sous la responsabilité d'un Chef de Projet / Scrum Master, vos principales missions sont : - Concevoir, développer et maintenir des flux d’intégration de données (ETL/ELT) - Analyser les développements réalisés et accompagner les équipes techniques afin d’optimiser la performance, la qualité et la pertinence des solutions mises en œuvre - Industrialiser les pipelines de données (déploiement, supervision, gestion des erreurs) - Garantir la qualité, la cohérence et la performance des flux en production - Collaborer avec les équipes architecture, bases de données et infrastructure - Contribuer aux bonnes pratiques Data Engineering (versioning, CI/CD, performance tuning) - Assurer la mise en place d'actions d'amélioration continue sur l'ensemble des services offerts aux clients En nous rejoignant, vous bénéficiez notamment des avantages suivants : - Offre complète de formations : techniques, métiers, développement personnel - Qualité de vie au travail : jusqu’à 3 jours de télétravail par semaine, 27 jours de congés payés, RTT, congés ancienneté et enfant malade, programme santé & bien-être - Avantages sociaux : régime d’achats d’actions, participation, PEE, Compte Epargne Temps Et bien d'autres encore !
Freelance

Mission freelance
Data Analyste (H/F)

Freelance.com
Publiée le
PySpark

1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
2 jours de télétravail non négociable Dans le cadre d’activités liées à l’ analyse de données pour des besoins de contrôle et prévention des risques , l’organisme recrute un Analyste Data afin d’intégrer une équipe spécialisée basée à Aix‑en‑Provence . L’objectif de cette mission est de concevoir et réaliser des analyses avancées à partir de l’ensemble des données du système d’information, afin d’évaluer leur cohérence et leur impact sur des processus métier sensibles . L’intervenant devra participer à la mise en place de cas d’usage orientés détection d’anomalies et comportements atypiques , en croisant différentes sources de données. Il sera également responsable de la création et de la maintenance de produits data réutilisables , tout en appliquant les pratiques internes de qualité, normes et gouvernance des données. Exemples de livrables attendus : Programmes de traitement Big Data Études et analyses documentées Présentations des résultats et recommandations Constructions de KPI et tableaux de bord de synthèse
Alternance
CDI

Offre d'emploi
Data scientist (38972) (H/F)

█ █ █ █ █ █ █
Publiée le

Chappes, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
POT8985 - Un Lead Data Continuity sur Meudon

Almatek
Publiée le
Big Data

6 mois
400-550 €
Meudon, Île-de-France
Almatek recherche pour l'un de ses clients, un Lead Data Continuity sur Meudon. Objectif : Diagnostiquer les risques liés à la maturité et à la continuité des données Sécuriser les décisions clés de conception (KDD) Concevoir et contribuer au lancement d'un hub de continuité des données permanent Activités : Concevoir et déployer un cadre de maturité structuré Animer des ateliers multi-entités Réaliser des profils de données Élaborer des cartographies de maturité inter-groupes Identifier les risques systémiques Fournir une feuille de route de remédiation priorisée
CDI

Offre d'emploi
Data Engineer Banque(F/H)

CELAD
Publiée le

45k-50k €
Paris, France
Contexte Dans le cadre du développement d’une Squad Usages Data Avancés & IA , nous recherchons un(e) Data Engineer confirmé(e) pour contribuer à la conception, l’industrialisation et l’amélioration continue de solutions data à forte valeur ajoutée. Vous évoluerez dans un environnement orienté DataOps , MLOps et industrialisation de solutions analytiques, au sein d’une équipe pluridisciplinaire (Data Scientists, DevOps, Product Owner…). La squad intervient sur : La conception et la maintenance d’applications data L’amélioration continue des produits existants La construction de nouveaux usages Data & IA Vos missions Conception & Architecture Participer à la définition des solutions applicatives data Contribuer aux choix d’architecture (batch, streaming, microservices data) Concevoir des pipelines robustes, scalables et performants Développement & Intégration Construire et maintenir des pipelines ETL / ELT (données structurées et non structurées) Développer des traitements en Python (PySpark, FastAPI) et SQL Intégrer des flux temps réel via Kafka / Spark Réaliser les phases d’intégration et de recette technique Industrialisation – DataOps / MLOps Mettre en œuvre des chaînes CI/CD et de déploiement (Docker, Kubernetes, GitHub/GitLab Actions) Industrialiser des modèles statistiques ou de Machine Learning Versionner données, modèles et code Monitorer la performance, la qualité et les coûts des traitements Assurer l’observabilité des solutions (ELK, Prometheus/Grafana, MLflow) Qualité & Amélioration Continue Mettre en place des tests automatisés (Pytest) Maintenir un haut niveau de qualité de code (SonarQube) Améliorer l’efficacité des processus Maintenir une documentation claire et à jour Collaboration Travailler en étroite collaboration avec les membres de la squad Préparer des datasets pour l’exploration et l’analyse Accompagner les utilisateurs dans la prise en main des solutions Docker Kubernetes GitHub Actions ou GitLab CI Compétences techniques requises Langages & Frameworks: Python (PySpark, FastAPI), SQL Big Data & Streaming: Apache Spark, Apache Kafka Bases de données: PostgreSQL, Teradata, MySQL MLOps / CI-CD / Conteneurisation: Docker, Kubernetes, GitHub Actions ou GitLab CI Qualité & Observabilité: Pytest, SonarQube, Stack ELK, Prometheus / Grafana, MLflow
Freelance
CDI

Offre d'emploi
Product Owner Big Data

KLETA
Publiée le
Big Data
Product management

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
CDI

Offre d'emploi
CONSULTANT DATA H/F

PROMAN EXPERTISE
Publiée le
Microsoft Power BI

37k-40k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Vos missions ? Rattaché(e) au Responsable SI, vous contribuez à la mise en place, la fiabilité et l’évolution des données utilisées par l’entreprise et ses services internes. Vous serez notamment chargé(e) de : - Gestion et exploitation de la donnée o Mettre en œuvre la collecte, le stockage et l’exposition de données de différentes natures. o Développer et administrer la base de données centrale (SQL). o Maintenir et faire évoluer les indicateurs existants. - Outils et automatisation o Gérer des flux de données et ETL (Microsoft SSIS). o Concevoir des outils digitaux pour dématérialiser des tâches métiers (low‑code). o Développer ou participer à la création de solutions facilitant le traitement et le partage de l’information. - Sécurité & documentation o Garantir le respect des règles de sécurité informatique définies par le service SI. o Rédiger des modes opératoires, documentations techniques et rapports. o Assurer un reporting clair de vos actions auprès de votre hiérarchie. Environnement technique : Suite Microsoft Power BI/Automate/Apps, SSIS, SQL
CDI
Freelance

Offre d'emploi
Data Engineer Big Data

Signe +
Publiée le

24 mois
45k-50k €
322-500 €
Saint-Denis, Île-de-France
Contexte: Nous recherchons un Data Engineer Expérimenté/Senior spécialisé en environnement Big Data OnPremise pour une mission dans le cadre de l'exploitation, du maintien en conditions opérationnelles et des évolutions du Data Lake OnPremise (DataStore). Le collaborateur s'intégrera dans une équipe de 14 développeurs et contribuera également aux travaux liés à la migration progressive du Data Lake vers GCP. Missions : Exploitation et maintenance des traitements Big Data : supervision, intégration des données, contrôle qualité. Développements et évolutions sur les pipelines existants (Spark, Kafka, NIFI). Optimisation des performances et maintien des services DataStore. Gestion des incidents niveau 3 : diagnostic, correction, suivi JIRA/ITZMI. Participation aux évolutions applicatives, aux travaux transverses et aux actions préparatoires à la migration Cloud. Profil : Data Engineer Tech Lead Compétences techniques requises : Spark Kafka NIFI HDFS HBase Airflow Python SQL Technologies complémentaires : Java Scala BigQuery
CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Freelance

Mission freelance
Architecte Réseau Sécurité - Orléans

Signe +
Publiée le
Cisco
F5
FortiGate

6 mois
410-450 €
Orléans, Centre-Val de Loire
Contexte de la mission Réalisation d’études complexes permettant de définir les solutions adéquates de sécurité en terme de réponse aux besoins déclinées de la direction informatique, de faisabilité, de performance, de risques et de coûts. • Elaboration et présentation des dossiers de décision associés auprès des instances de gouvernance. • Elaboration des cahiers des charges techniques, en lien avec les acheteurs, contribution au choix de prestataires / fournisseurs. • Supervision et coordination de la mise en œuvre et l’administration des architectures matérielles et logicielles (systèmes, outils et architectures de sécurité), notamment par le pilotage de chantiers/projets techniques • Définition des règles de bonne gestion, des indicateurs clés des infrastructures et solution de sécurité • Contribution à la mise en œuvre et à la gestion du référentiel technique des infrastructures et solution de sécurité • En escalade des équipes d’administration, gestion des incidents complexes et nouveaux en lien avec des interlocuteurs internes / externes (éditeurs...). Coordination des actions de remise en service et de mise en œuvre des mesures correctives. • Réalisation du transfert de compétences et de l'assistance technique sur son périmètre.
CDI
Freelance

Offre d'emploi
Data Analyst expert BIG DATA xp Hadoop

ARDEMIS PARTNERS
Publiée le
Big Data
Data analysis
Hadoop

3 mois
30k-45k €
320-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Afin de renforcer les capacités d’analyse et de valorisation de la donnée au sein de la société (organisme collecteur de gestion), nous recherchons un Data Analyst Big Data capable d’intervenir sur des environnements de données volumineuses et complexes. Le Data Analyst interviendra sur l’analyse, l’exploitation et la transformation de données issues de différentes sources afin de produire des insights à forte valeur ajoutée pour les équipes métiers et techniques. Il contribuera à la mise en place de solutions analytiques performantes sur des architectures Big Data , en collaboration étroite avec les équipes Data Engineering, IT et métiers. Mission Le Data Analyst interviendra sur des activités d’analyse, de traitement et de valorisation de données à grande échelle. Analyse et exploitation des données Collecter, analyser et exploiter de grands volumes de données issues de différentes sources. Concevoir et produire des analyses permettant d’identifier des tendances, comportements et opportunités business. Mettre en place des indicateurs de performance et tableaux de bord pour le suivi des activités. Traitement et préparation des données Manipuler et transformer des données volumineuses via des technologies Big Data (Spark / Hadoop) . Nettoyer, structurer et enrichir les données pour garantir leur qualité et leur exploitabilité. Collaborer avec les équipes Data Engineering pour optimiser les pipelines de données. Production d’insights et accompagnement métier Traduire les besoins métiers en analyses de données exploitables. Restituer les résultats sous forme de visualisations ou de recommandations. Accompagner les équipes métiers dans la compréhension et l’utilisation des analyses produites. Collaboration technique Travailler en collaboration avec les équipes Data Engineers, Data Scientists et IT . Participer à l’amélioration continue des outils et des processus d’analyse de données.
Freelance

Mission freelance
Ingénieur R&D Machine Learning – ADAS / Véhicule Autonome (F/H)

CELAD
Publiée le

1 an
400-450 €
Hauts-de-Seine, France
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Dans le cadre de projets R&D à forte valeur ajoutée dans le domaine de l’automobile et des systèmes d’aide à la conduite, nous renforçons nos équipes avec un Ingénieur Machine Learning confirmé pour intervenir sur des sujets ADAS / Véhicule Autonome. Vous intervenez au cœur des activités de développement et d’analyse des systèmes de perception véhicule, avec un rôle clé dans l’évaluation des performances des capteurs et des algorithmes. Voici un aperçu détaillé de vos missions : - Concevoir et développer des outils d’analyse de données appliqués à la perception ADAS / AD - Exploiter des données issues d’essais de roulage de prototypes (scénarios réels, données capteurs) - Mettre en œuvre des modèles de Deep Learning (CNN, DNN) pour l’analyse et l’évaluation des performances - Contribuer à l’évaluation des nouvelles générations de capteurs (caméras, radars, lidars…) - Collaborer avec des équipes R&D pluridisciplinaires (système, logiciel, data, validation)
Freelance

Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)

Pickmeup
Publiée le
Dataiku
Numpy
Pandas

2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
7125 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous