Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 168 résultats.
CDI

Offre d'emploi
Architecte data engineering - Industrie H/F

Publiée le

35k-45k €
Saint-Égrève, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA). Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données). Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités). Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data. Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques. Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Apache Kafka
Apache Spark
Hadoop

Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Freelance

Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance

Publiée le
Architecture
BigQuery
Cloud

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Freelance

Mission freelance
Data Analyst – Grafana & InfluxDB H/F

Publiée le
Grafana
InfluxDB
MySQL

6 mois
460-500 €
Paris, France
Télétravail partiel
Dans le cadre d’un remplacement opérationnel , nous recherchons un Data Analyst / BI freelance pour intervenir sur l’exploitation et la visualisation de données opérationnelles issues de capteurs (BMS – Building Management System). Le consultant interviendra principalement sur la gestion et l’évolution des dashboards Grafana , ainsi que sur l’analyse de données time series stockées dans InfluxDB (v3) . La mission est très orientée run et production , avec un objectif de fiabilité, de lisibilité et d’efficacité des visualisations utilisées au quotidien par les équipes. Le consultant travaillera en lien étroit avec les équipes techniques et métiers.
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

Publiée le

50k-75k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : qvrd0gwo33
Freelance

Mission freelance
Senior Data Engineer

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Freelance

Mission freelance
POT8816 - Un Data Engineer sur Clermont-ferrand

Publiée le
Google Cloud Platform (GCP)

6 mois
320-410 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
Freelance

Mission freelance
Data Scientist

Publiée le
API
autonomie
Python

12 mois
Hauts-de-Seine, France
Télétravail partiel
Poste : Data Scientist Senior (>5 ans d’expérience) Objectif : Renforcer une équipe dédiée à la modélisation mathématique, intervenant sur l’optimisation, la simulation, l’analyse de performance, le développement de modèles et outils applicatifs dans un environnement multi-application. Responsabilités principales : Encadrement & supervision : Accompagner un Data Scientist junior, définir les standards méthodologiques, valider approches et modèles, garantir la cohérence des travaux. Développement & modélisation : Développer en Python, créer des APIs, intégrer des modèles, manipuler équations mathématiques, utiliser la librairie HiGHS pour l’optimisation (contraintes, optimisations linéaires/mixte). Contrôle qualité & validation : Revoir le code, auditer l’architecture, vérifier la cohérence des données, valider la robustesse des modèles, challenger les résultats, approuver les livrables. Expertise & conseil : Apporter une expertise sur la modélisation, faire des recommandations méthodologiques, effectuer une veille technologique, capitaliser les bonnes pratiques. Communication & coordination : Présenter les validations, faire le lien entre équipes techniques et direction, participer aux réunions, documenter les processus, contribuer à la montée en compétences du junior. Compétences requises : Maîtrise avancée de Python (APIs, librairies, équations) Maîtrise du solveur HiGHS ou équivalent pour l’optimisation linéaire/quadratique Solide background en mathématiques, physique, modélisation et statistiques Capacité à gérer plusieurs modèles simultanément Excellentes compétences en communication, forte autonomie, posture de référent Compétences appréciées : Expérience avec des modèles mathématiques à grande échelle Aisance en revue méthodologique et cadrage scientifique Aucune connaissance métier spécifique nécessaire
CDI

Offre d'emploi
Chef de projet DATA (H/F)

Publiée le

50k-55k €
Nancy, Grand Est
Télétravail partiel
Intégré à une équipe pluridisciplinaire, vos missions seront les suivantes : - Contribuer à la mise en place de solutions DATA et BI chez les clients (du cadrage au déploiement) - Rédaction de cahier des charges et études de faisabilité - Suivi d'avancement du projet, du budget et du planning, - Rédaction ou validation de documents d'analyse fonctionnelle - Formation utilisateurs - Être garant de la qualité des livrables
Freelance
CDI

Offre d'emploi
DÉVELOPPEMENT JAVA BACKEND Spring (3-6 ans d'exp)

Publiée le
Java
Spring
Spring Batch

3 ans
40k-55k €
400-500 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : L'entité est en charge du SI du Leasing pour deux lignes métiers:- les financements structurés de la grande clientèle- les financements pour les PME. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement Dans ce cadre la prestation consiste à contribuer à/au(x) : - La gestion du projet ITRM - La comitologie - Suivi - Reporting Environnement technique : Java 6/7/8/17, spring batch, spring web, xldeplloy, jenkins, SQL, Sonar Autres technologies : XLdeploy, Docker et Kubernetes. 🤝 Livrables : Les livrables attendus sont :  Développement JAVA backend pour le projet Maille Contrat (réécriture de l'interface risque).  Devops: mise en place de la chaine de déploiement du projet, des serveurs, monitoring etc.
Freelance

Mission freelance
Expert Denodo (H/F)

Publiée le
Data Lake
ELK

1 an
Châtillon, Île-de-France
Télétravail partiel
Si manipuler et structurer les données est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste d’Expert Denodo ! 🚀 Ton challenge si tu l’acceptes : Administrer et paramétrer des requêtes dans Denodo pour répondre aux besoins métiers Assister les utilisateurs et les projets dans l’exploitation de la solution Denodo Maintenir et optimiser la plateforme pour garantir un service de qualité Structurer, intégrer et sécuriser les flux de données venant de multiples sources Participer à la supervision et au nettoyage des données pour assurer leur fiabilité Contribuer à la documentation et à la cartographie des sources de données Proposer des évolutions techniques et des améliorations des infrastructures existantes
Freelance

Mission freelance
Data Analyst & Enabler / SQL /Python / Outils de BI / Tableau Software (H/F)

Publiée le
Data analysis
ETL (Extract-transform-load)
Python

6 mois
460-520 €
Villeurbanne, Auvergne-Rhône-Alpes
Télétravail partiel
Nous sommes à la recherche d'un Consultant Data Analyst & Enabler pour rejoindre l’équipe agile Data Platform de notre client grand compte dans le domaine de l'Energie. Vous aurez pour mission principale : d'être en appui sur la construction de produits data (développements BI, requêtage SQL, scripts Python), d'animer la communauté des utilisateurs BI/Self-service, de piloter des projets data spécifiques pour garantir leur livraison et leur adoption. Vous jouerez un rôle clé pour fluidifier l'usage de la donnée par les métiers, garantir la qualité des livrables techniques et accélérer l'autonomie des analystes via le Self-Service. Missions : Construction de Produits Data (Build) : Conception & Développement : Prendre en charge la réalisation de produits data concrets : création de tableaux de bord complexes (BI), écriture et optimisation de requêtes SQL pour l'analyse, et développement de scripts Python pour des traitements de données spécifiques. Qualité & Recette : Assurer les tests et la validation technique des produits développés avant leur mise à disposition aux métiers. Maintenance : Assurer le maintien en condition opérationnelle des rapports et scripts déployés. Animation de Communauté & SelfService Support & Formation : Animer la communauté des utilisateurs selfservice de la plateforme (en self-BI via l’outil Tableau, en SQL etc.). Accompagner les analystes métier dans leur montée en compétence. Communication : Être le point de contact privilégié pour les questions d'usage et les bonnes pratiques de la plateforme. Adoption : Promouvoir les nouveaux outils et datasets auprès des utilisateurs finaux. S’assurer qu’ils appliquent les bonnes pratiques d’optimisation des requêtes Pilotage de projets : Gestion de Projet : Piloter des projets data de bout en bout (cadrage, suivi, livraison) en respectant les contraintes de coûts et délais. Backlog & Spécifications : Collaborer étroitement avec le product owner et l’équipe data platform performance énergétique pour mettre en place les fonctionnalités et produits nécessaires à la communauté
Freelance

Mission freelance
POT8833 - Un Data Analyste Confirmé sur Mer

Publiée le
Java

6 mois
280-400 €
Mer, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Analyste Confirmé sur Mer. **Contexte :** Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. **Missions principales :** Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. **Compétences requises :** - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). **Connaissances métier :** Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. Localisation : Mer (proche d'Orleans) + Télétravail
Freelance

Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)

Publiée le
Apache
Apache NiFi
Apache Spark

12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
CDI

Offre d'emploi
Data Architecte Databricks

Publiée le
Databricks

65k-80k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CDI

Offre d'emploi
Data Architecte Databricks

Publiée le
Databricks

65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
3168 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous