Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 208 résultats.
CDI

Offre d'emploi
Actuaire - Data Scientist Mrh H/F

█ █ █ █ █ █ █
Publiée le
Git
Numpy
Ocaml

Suresnes, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Senior Data Ops Engineer

CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks

1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Freelance

Mission freelance
Développeur/ Chef de Projet Data (h/f)

emagine Consulting SARL
Publiée le
Microsoft Power BI

3 ans
400-550 €
Île-de-France, France
À partir d’une liste prédéfinie d’environ 1 200 rapports Business Objects existants, l’objectif est de challenger les métiers propriétaires afin de : 1. Décommissionner et arrêter un maximum de rapports BO non utilisés ou obsolètes. 2. Orienter les métiers vers des rapports Power BI existants lorsque ceux-ci répondent déjà au besoin couvert par les rapports BO. 3. En dernier recours, lorsque les deux points précédents ne sont pas applicables, migrer le nombre limité de rapports BO restants vers de nouveaux rapports Power BI. L’objectif principal est donc de réduire significativement le parc de rapports BO, de favoriser l’usage des rapports Power BI existants, et uniquement lorsque le besoin métier est avéré, de développer de nouveaux rapports Power BI en remplacement des rapports BO concernés. EXPERIENCE PROFESSIONNELLE REQUISE • Expérience de 7 ans minimum en tant que data analyste • Experience de 5 ans minimum en tant que chef de projet data COMPETENCES REQUISES • Connaissance Business Object • Connaissance Power BI • Connaissance SSIS • Connaissance de la méthode agile Compétence – Nice to have ▪ Connaissance du monde de l’assurance/Assistance
Freelance

Mission freelance
Lead Test Data Management

Axysse
Publiée le
TDMA

1 an
400-550 €
Île-de-France, France
📅 Démarrage ASAP | Mission longue durée (fin 2026) Dans le cadre d’un programme de transformation majeur autour d’un système de réservation de nouvelle génération, nous recherchons un Lead Test Data Management pour structurer et industrialiser la gestion des données de test à grande échelle. 👉 Un rôle clé, transverse, au cœur des enjeux de qualité, de performance et de sécurisation des parcours métiers. 🎯 Votre rôle Vous prenez la responsabilité complète de l’activité Test Data Management (TDM) avec un double objectif : structurer et accélérer. Vos principales responsabilités : 🔹 Pilotage de l’activité TDM Définir la stratégie de gestion des jeux de données de test Prioriser les besoins (backlog data) et garantir un service fiable aux équipes Mettre en place des KPI (qualité, disponibilité, délais, couverture) 🔹 Gouvernance & catalogue de données Construire et maintenir un catalogue centralisé de jeux de données Définir les standards (naming, versioning, usage) Assurer la traçabilité entre besoins métiers et datasets 🔹 Support aux équipes & campagnes E2E Accompagner les Feature Teams dans leurs besoins data Sécuriser les campagnes end-to-end et les parcours critiques Coordonner la configuration des données complexes 🔹 Gestion des partenaires Piloter les prestataires et structurer le cadre opérationnel Suivre la qualité de service et les engagements 🔹 Industrialisation & amélioration continue Identifier les leviers d’automatisation (génération, anonymisation, duplication…) Optimiser les délais de mise à disposition des données 🔹 Communication & onboarding Formaliser les processus et bonnes pratiques Accompagner les équipes dans l’adoption Assurer un reporting régulier
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Freelance

Mission freelance
Data Product Manager (Business Analyst / Solution Architect)

emagine Consulting SARL
Publiée le
Business Intelligence
Master Data Management (MDM)

3 ans
Île-de-France, France
Objectifs et livrables Organiser les études en impliquant l’ensemble des parties prenantes identifiées et recueillir les besoins Comprendre les enjeux, objectifs et ambitions métiers Animer et conduire des ateliers avec les équipes métiers Collecter l’ensemble des inputs nécessaires aux études Documenter l’architecture fonctionnelle et formuler des recommandations Planifier les lots de travaux en s’appuyant sur les standards de la direction Data & Analytics Coordonner les contributeurs Data-as-a-Service (architectes techniques, data engineers, BI engineers) Documenter la valeur métier et la valeur apportée par la solution Préparer les budgets et le planning build/run Formaliser les propositions finales de type « Go to project »
CDI

Offre d'emploi
Data Scientist spécialisé dans les enquêtes/sondages - H/F

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
ETL / Data Streaming Project Manager

Comet
Publiée le
Apache Kafka
API
CRM

6 mois
400-570 €
Île-de-France, France
Contexte de la mission Au sein de l’équipe Architecture et Intégration dans un contexte international et multiculturel, vous aurez pour missions principales de gérer et piloter les lignes de services intégration ETL : Talend (Cloud - plate-forme hybridé) et Data Streaming ( Kafka Confluent - Cloud) Objectifs et livrables Le support / suivi / maintenance de l’existant (Projet CRM / Annuaire / PIM) Accompagnement dans la création de nouveaux projets (analyser le besoin des clients, le challenger, cadrage technique : définition d’architecture et conception technique des flux) Piloter l’équipe en Inde (en charge des développements / tests / déploiements) Gérer un plan de charge et proposer des plannings Administration et suivi opérationnel de notre plateforme Talend et des composants On Prem (upgrade, monitoring, résolution de problème ponctuel) Administration et suivi opérationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation pour ces 2 plateformes Etablir, partager et faire partager les bonnes pratiques (configuration / développements …) Compétences demandées Connaissances CRM Salesforces - Élémentaire Talend Data Integration studio V8 - Expert API & format fichier Json, Xml, Csv - Confirmé management équipe - Confirmé Java8+ - Confirmé Linux/Unix - Confirmé KAFKA - Confirmé SQL et Base de données - Confirmé Source management ( Gitlab) - Confirmé Niveau de langue Français - Courant Anglais - Courant
Freelance

Mission freelance
101672/Business Analyst DATA BANQUE Vannes

WorldWide People
Publiée le
Business Analyst

12 mois
350-380 €
Vannes, Bretagne
Business Analyst DATA BANQUE Vannes Cette mission a lieu à Vannes (Morbihan) et implique 3/4 jours de présence sur site. Le client exige également une domiciliation sur la région de Vannes - de l'Expérience sur des projets DATA (Puits de données, SID, modélisations et conception d’objets métiers) - de l'Expérience de projets 'réglementaires' sur les domaines Financiers et Risques (Réformes Bâloises, BCBS239, IFRS9,...) - des Connaissances en environnement DATA (langage SQL indispensable, Data management) - une maîtrise des outils bureautiques (Excel, Powerpoint) Mission dans le secteur bancaire qui consiste à renforcer l’équipe pour la création d'un datahub pour les besoins déclaratifs réglementaires, risques et financiers. Les premières briques sont actuellement en cours de construction. Le poste est fortement orienté data et comporte une forte dimension d’investigation et de recherche, d'analyse, ainsi qu’un volume important de réunions et d’ateliers avec les différents acteurs. Cette mission a lieu à Vannes (Morbihan) et implique 3/4 jours de présence sur site. Le client exige également une domiciliation sur la région de Vannes Le business analyst assure les missions suivantes : - Description et la formalisation des règles métiers, - Rédaction des spécifications fonctionnelles à destination des équipes IT, - Identification et cartographie des données existantes, - Recherche des sources de données, - Identification des data owners et la coordination avec eux, - Analyse des écarts lorsque les données ne sont pas exposées et recherche des bons interlocuteurs. Notre client attend un candidat avec : - de l'Expérience sur des projets DATA (Puits de données, SID, modélisations et conception d’objets métiers) - de l'Expérience de projets 'réglementaires' sur les domaines Financiers et Risques (Réformes Bâloises, BCBS239, IFRS9,...) - des Connaissances en environnement DATA (langage SQL indispensable, Data management) - une maîtrise des outils bureautiques (Excel, Powerpoint)
Freelance

Mission freelance
Consultant data ODI / Python

ESENCA
Publiée le
ETL (Extract-transform-load)
ODI Oracle Data Integrator
Python

1 an
Lille, Hauts-de-France
Localisation : Région lilloise Disponibilité : ASAP Contexte : Projet stratégique de transformation et modernisation Data Objectif de la mission Dans le cadre d’un programme de modernisation de la plateforme data, la mission consiste à analyser, documenter et faire évoluer des flux de données existants, avec une perspective de transformation vers des solutions plus modernes basées sur Python. Missions principales Réaliser un inventaire complet des flux de données existants (ODI) Analyser les dépendances, les logiques métiers et les enjeux associés Produire une documentation détaillée des flux (rétro-documentation) Améliorer la lisibilité, la maintenabilité et la gouvernance des traitements Contribuer à la transformation et à la migration des flux vers une nouvelle plateforme Participer à la modernisation de la stack data (orientation Python) Collaborer étroitement avec les équipes techniques et data Environnement technique Oracle Data Integrator (ODI) – expertise impérative Python (manipulation de données, automatisation, ETL) Environnements Data / ETL / flux batch
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Alternance
CDI

Offre d'emploi
Alternance- Appui au management Data Science F/H

█ █ █ █ █ █ █
Publiée le
autonomie
Microsoft Excel
SQL

9 840-21 876 €
Albi, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
ADMINISTRATEUR SYSTÈME CLOUD & RÉSEAUX H/F : AZURE, GCP

SKILL EXPERT
Publiée le
Azure
Fortinet
Google Cloud Platform (GCP)

1 an
400-450 €
Hauts-de-Seine, France
Missions principales : Assurer le support utilisateurs de Niveau 2 : diagnostic, résolution des incidents, et escalade maîtrisée vers les équipes spécialisées. Administrer et exploiter les environnements Cloud et IT pour garantir leur bon fonctionnement. Gérer et suivre les tickets (incidents, demandes, changements) via les outils ITSM. Participer activement à l’amélioration continue des processus IT et à la mise à jour de la documentation technique. Collaborer étroitement avec les équipes sécurité et projets pour assurer la cohérence des actions.
Freelance

Mission freelance
250824/Expert Talend, Talend Data management, Anglais Courant

WorldWide People
Publiée le
Talend

6 mois
Vélizy-Villacoublay, Île-de-France
Expert Talend, ETL, Talend Data management, Anglais Courant L’équipe Data Foundations souhaite bénéficier de l’assistance technique d’un expert technique Talend, disposant d’une solide expérience Data, afin d’accompagner les projets d’intégration de données. Goals and deliverables Le consultant interviendra notamment sur les activités suivantes : Application des bonnes pratiques et standards Talend Data Management, de la phase de développement jusqu’au déploiement, en collaboration avec le ETL Tech Lead Support aux projets lors des phases d’implémentation : qualification des données, transformation et intégration Mise en œuvre et respect de l’architecture cible, de la stratégie Data et des patterns ETL, en collaboration avec les experts techniques Analyse des besoins métiers et techniques, incluant l’évaluation de la faisabilité technique et de la charge associée Développement des jobs Talend, déploiement, réalisation des tests d’acceptation et rédaction de la documentation Réalisation d’audits de jobs ETL Définition des pré‑requis techniques et des templates Rédaction des spécifications techniques Expected skills Skills Skill level ETL Expert TALEND Expert Talend Data management Expert Languages Language level Anglais Bilingual
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

40k-49k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
3208 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous