Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 854 résultats.
CDI

Offre d'emploi
Ingénieur Data - Média

Publiée le
Apache Spark
Azure DevOps
Databricks

3 ans
40k-51k €
400-500 €
Boulogne-Billancourt, Île-de-France
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Connaissances linguistiques Français Courant (Impératif) Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital.
Freelance

Mission freelance
Data Engineer Big Data – Datalake Hadoop / Spark (on-premise)

Publiée le
Apache Hive
Big Data
CI/CD

2 ans
400-480 €
Île-de-France, France
Télétravail partiel
Dans un contexte Data & BI à forts enjeux, vous intervenez au sein d’une équipe Big Data & API , rattachée à une squad Financing & Risk , en charge du développement et de l’exploitation d’un datalake utilisé comme plateforme data centrale par les équipes IT et métiers. En tant que Data Engineer , vous jouez un rôle clé dans la gestion, l’évolution et la fiabilité de cette plateforme. Vos principales missions sont les suivantes : Assurer la gestion de la production du datalake (suivi, incidents, stabilité des traitements) Prendre en charge la dette technique et contribuer à l’amélioration continue de la plateforme Analyser l’architecture existante et proposer des évolutions techniques pertinentes Réaliser les développements Big Data liés aux projets en cours et à venir Participer à l’industrialisation et aux déploiements via les chaînes CI/CD Vous évoluez dans un environnement technique Big Data on-premise , au sein d’une équipe travaillant en interaction avec des équipes IT et métiers, sur des sujets à forte valeur ajoutée.
Freelance
CDI
CDD

Offre d'emploi
Scrum Master Technique – Intégration Marchands Senior (H/F)

Publiée le
API
Java
MySQL

1 an
Île-de-France, France
Contexte La mission consiste à accompagner l’ intégration de partenaires marchands sur une plateforme de services financiers, avec des enjeux forts de déploiement, fiabilité des parcours et sécurisation des processus de souscription de crédits . Le consultant interviendra en interface entre les partenaires, les équipes techniques et les équipes de paramétrage afin de fluidifier les intégrations, analyser les dysfonctionnements et sécuriser les mises en production . Objectif de la mission Intervenir en tant que Scrum Master senior à forte dominante technique , capable de piloter les intégrations partenaires, coordonner les experts, analyser les incidents techniques et accompagner les équipes vers plus d’autonomie. Missions principales Accompagner les partenaires dans leur intégration technique (API). Analyser les causes des dysfonctionnements et piloter leur résolution. Assurer le suivi des déploiements marchands . Coordonner les experts techniques (développement, paramétrage, exploitation). Accompagner les équipes de paramétrage afin de les rendre autonomes. Intervenir sur les processus de souscription de crédits . Animer les rituels Agile / Scrum et assurer une communication fluide entre les parties prenantes. Livrables attendus Pilotage et suivi des intégrations marchands Reporting d’avancement et de résolution des incidents Contribution à l’amélioration des processus d’intégration et de déploiement Compétences techniques Obligatoires : Java APIs SQL Importantes : Expérience d’ intégration marchand Analyse technique Coordination d’experts Expérience en développement Java fullstack (autonomie sur l’analyse des sujets) Appréciées : Connaissance du secteur bancaire / crédit Méthodologies & soft skills Agilité / Scrum Excellente communication Sens des relations et esprit d’équipe Capacité d’ analyse et de synthèse Bonne résistance au stress Capacité d’organisation et d’ encadrement transverse Implication et sens des responsabilités Compétences linguistiques Français courant Anglais professionnel (lu, écrit, parlé)
CDI
Freelance

Offre d'emploi
Release Manager (H/F)

Publiée le
Apache Spark
Hadoop
Java

3 ans
50k-60k €
400-500 €
Île-de-France, France
Télétravail partiel
Besoin de synchronisation des release de l'ensemble des produits Besoin de préparer les releases en respect de la pipeline de déploiement BPCE Besoin de coordonner la gestion des environnements des différentes squads ainsi que les données sous-jacentes pour les recettes Besoin d’un interlocuteur technique typé devops (et non scrum ou techlead) La majorité de la pile logicielle est en Java (8), Python et Spark Hadoop, Altair Base de donnée : Oracles, DB2 Contexte et outillage de déploiement en place : XL Deploy, XL Release, Jenkins, Sonar, Checkmarx
CDI

Offre d'emploi
Data Engineer (H/F)- AWS, Scala, Spark

Publiée le
Apache Spark
AWS Cloud
Microsoft SQL Server

40k-55k €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un programme de transformation DATA, l’objectif est de doter l’entreprise d’outils permettant une exploitation avancée des données pour des prises de décisions optimisées. Ce programme impacte à la fois les technologies utilisées, l’organisation et les processus internes. Les projets en cours sont variés et incluent : L’optimisation des algorithmes de recommandation et segmentation ; Le développement d’un Feature Store pour la gestion des données ; La modernisation des flux financiers et des plateformes de contenu ; La mise en place d’architectures Big Data traitant plus de 100 To de données par jour ; Le partage d’informations clients avec des partenaires stratégiques. Missions : Intégré(e) à l’équipe DATA Delivery , vous interviendrez sur l’évolution et la maintenance des socles de données (Usage, VOD, Advertising, CRM...) et leur interconnexion avec divers partenaires. Vous travaillerez sur des architectures de Streaming Data full AWS et des technologies Big Data avancées. Vos responsabilités incluront notamment : La conception et le développement de pipelines de données performants ; L’implémentation d’ architectures de Streaming Data scalables et robustes ; Le développement de traitements de données en temps réel avec Scala, Spark et Terraform ; L’optimisation et la modernisation des flux de données dans un environnement Big Data ; La contribution aux initiatives FinOps pour optimiser l’infrastructure et les coûts ; La mise en œuvre de bonnes pratiques en termes de qualité et de gouvernance des données ; La collaboration avec les équipes métiers pour garantir leur autonomie dans l’exploitation des données et des KPI. Environnement technique : Cloud & Big Data : AWS (Lambda, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB) Développement : Scala, Spark, SQL, Terraform, Python CI/CD & Orchestration : GitLab CI/CD, Jenkins Méthodologies : Agile (Scrum, Kanban)
Freelance

Mission freelance
Tech Lead DATABRICKS (Lyon)

Publiée le
Azure Data Factory
Java

1 an
500-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Freelance
CDI
CDD

Offre d'emploi
Développeur Fullstack Java – Risques IT (H/F)

Publiée le
Angular
Apache Kafka
Full stack

1 an
Île-de-France, France
Contexte La mission s’inscrit dans le cadre de l’ évolution des modèles de notation des risques , avec une priorité sur la mise en place d’un nouveau modèle de notation ESG , tout en garantissant la cohérence avec l’écosystème existant du moteur de notation . En parallèle, un nouveau modèle de notation devra être déployé pour l’existant. Sur le plan technique, les travaux s’accompagnent de la finalisation de la migration technologique vers Java 17 et 21 . Objectif de la mission Contribuer au développement et à l’évolution des applications de notation des risques IT , en participant à la mise en œuvre des nouveaux modèles (ESG et existants) et à la modernisation technologique des composants applicatifs. Missions principales Décliner la roadmap de notation , notamment sur le volet ESG. Participer à la conception et au développement de nouveaux modèles de notation . Garantir la cohérence et l’intégration avec le moteur de notation existant . Contribuer à la migration des applications vers Java 17 et 21 . Participer aux développements back-end et front-end selon le profil. Travailler en étroite collaboration avec les équipes métiers risques. Environnement technique Back-end : Java (8 vers 17/21), Spring Boot Messaging : Kafka Front-end : Angular (v14) Base de données : Oracle Exadata Compétences techniques Développement Fullstack Java , avec : un profil à dominante Back-end , un profil avec un équilibre Back / Front . Maîtrise de Java et Spring Boot. Expérience avec Kafka. Connaissance d’Angular (v14). Expérience sur bases de données Oracle (Exadata). Soft skills Forte curiosité fonctionnelle . Intérêt marqué pour les besoins métiers . Capacité d’analyse et de compréhension des enjeux risques. Esprit d’équipe et bonne communication.
Freelance

Mission freelance
Data Engineer Gen IA "chatbots AI" (Spark, scala, Python, Airflow, Terraform, AWS, Snowflake)

Publiée le
Apache Spark
Scala
Terraform

3 ans
400-580 €
Paris, France
Télétravail partiel
Nous sommes à la recherche deux consultants de haut niveau spécialisés en Data Engineering, disposant d’une expertise approfondie dans les technologies Python, Data, GenAI, AWS (Kinesis, S3, EMR, etc.), Airflow, Terraform, GitLab CI/CD, Python ainsi qu’une solide maîtrise de SQL, Snowflake et les architectures Data Streaming. Une expertise en Scala et Spark serait fortement appréciée. Il sera chargé de concevoir et développer des pipelines de données, développer sur des chatbots AI dans un environnement cloud tout en contribuant activement à la fiabilité, l’automatisation et la scalabilité de notre plateforme data. Votre rôle sera de : - Faire des développements avanacés en Python - Mettre en place des systèmes basés sur la GenAI - Concevoir, développer, maintenir et déployer des pipelines de données scalables et performants. - Mettre en place des architectures Big Data sur AWS (S3, EMR, Lambda, Snowflake...). - Développer en Scala et exploiter Apache Spark pour le traitement massif des données. - Automatiser les workflows avec Apache Airflow et DBT pour orchestrer les pipelines. - Concevoir et exposer des APIs performantes (recommandations en temps réel, etc.) - Optimiser les performances et garantir la scalabilité du système pour gérer un grand volume d’utilisateurs. - Travailler en collaboration avec les équipes Data Science, Produit et DevOps pour assurer une intégration fluide.
Offre premium
Freelance
CDI
CDD

Offre d'emploi
Consultant Java / Cobol

Publiée le
COBOL
Java
Mainframe

3 ans
Paris, France
Télétravail partiel
Dans le cadre de projets, d’évolutions, d’assistance et de maintenance, le collaborateur interviendra au sein d’une squad agile, Le rôle implique une contribution active aux différentes phases du projet, notamment : Conception technique : élaboration des solutions en lien avec les besoins fonctionnels et les contraintes techniques Développement : réalisation des composants applicatifs selon les normes et bonnes pratiques en vigueur Tests et assistance à la recette : validation des développements et accompagnement des équipes de recette Mise en production : préparation et exécution des livraisons dans les environnements cibles Documentation : rédaction des livrables techniques, incluant : La documentation applicative Le dossier de tests unitaires Le dossier de mise en production (DTA)
Freelance
CDD

Offre d'emploi
Data Ingénieur H/F

Publiée le
Apache Spark
BigQuery
Gitlab

3 ans
50k-60k €
500-550 €
Île-de-France, France
Télétravail partiel
Prestation de l'équipe : Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Freelance

Mission freelance
Data Engineer (H/F) - 75

Publiée le
Apache Airflow
Apache Spark
BigQuery

3 mois
Paris, France
Télétravail partiel
Contexte: Dans un environnement numérique à forte volumétrie de données, une direction technique transverse renforce sa plateforme Data afin de faire de la donnée un levier stratégique de pilotage, de connaissance utilisateur et d’aide à la décision. La mission s’inscrit au cœur d’une organisation Data structurée, en interaction étroite avec les équipes produit, techniques et métiers. L’objectif est de centraliser, fiabiliser et gouverner des données hétérogènes tout en garantissant leur conformité réglementaire, leur sécurité et leur exploitabilité à grande échelle. Le consultant interviendra au sein d’une équipe Data Engineering intégrée à la plateforme centrale, composée de profils complémentaires (Product Owner, Data Steward, Data Engineers). Missions: Le Data Engineer interviendra sur l’ensemble de la chaîne de valeur data, avec un fort enjeu de robustesse, scalabilité et gouvernance. Responsabilités principales : Collecter, centraliser et structurer des sources de données multiples et non homogènes Concevoir, développer et maintenir des pipelines data fiables et performants Organiser et optimiser le stockage des données (lakes, tables, catalogage) Mettre en place et maintenir des infrastructures cloud scalables Développer et maintenir les workflows CI/CD Garantir la sécurité, la conformité et l’évolutivité des environnements data Participer aux initiatives de gouvernance des données Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer activement à la documentation et aux bonnes pratiques Assurer une veille technologique continue
Freelance
CDI

Offre d'emploi
DevOps (Projet Data)

Publiée le
Apache Airflow
Apache NiFi
Apache Spark

24 mois
Les Ulis, Île-de-France
Télétravail partiel
Etudes & DéveloppementConsultant DevOps Big Data gitOps APIAssistance Technique (Facturation avec un taux journalier)CompétencesTechnologies et OutilsJIRA; ArgoCD; Python; Kubernetes(4 ans); Red Hat - OpenShift(4 ans); HelmMéthodes / NormesScrumSecteurs d'activitésAdministration PubliqueNous recherchons un profil orienté DevOps afin d’intégrer le projet Data de notre client. Missions : - Participer au déploiement et à l’exploitation des composants applicatifs sur des environnements Kubernetes / OpenShift - Mettre en œuvre et maintenir les déploiements via Helm, dans une logique GitOps à l’aide de ArgoCD - Développer et maintenir des scripts d’automatisation en Python - Intervenir sur les environnements liés aux stacks Data (Spark, DigDash, Dremio, Airflow, NiFi) en support des besoins du projet
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Offre premium
CDI

Offre d'emploi
Développeur full-stack java angular H/F

Publiée le
Angular
Java

Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Pour renforcer son pôle développement logiciel , la Direction des Systèmes d’Information du groupe ALTEN recrute un Développeur Java Angular , sous la responsabilité d’un Chef de projet technique . Missions principales Développer et maintenir des applications en Java / Angular Concevoir et implémenter des solutions performantes et évolutives Participer aux phases de tests, de validation et d’intégration continue Assurer la documentation technique et le support des applications développées Collaborer avec les équipes métiers et techniques pour comprendre les besoins et proposer des solutions adaptées
Freelance
CDI

Offre d'emploi
Data Engineer AWS / Spark / Scala /Python

Publiée le
Apache Spark
PySpark
Scala

1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Freelance

Mission freelance
Expert Technique Cash Management (H/F)

Publiée le
Apache Kafka
Apache Spark
API REST

60 jours
650-750 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un projet existant , vous rejoignez une équipe agile Cash Management , au sein du socle Trésorerie & Paiements d’un grand acteur institutionnel du secteur financier. Vous intervenez en tant qu’ expert technique , avec un fort niveau d’autonomie et un rôle clé dans les décisions techniques. 🛠️ Missions principales : Développement et maintenance d’applications backend à forte criticité Traitement de flux de données (événementiels et fichiers) à grande volumétrie Participation aux choix d’architecture et aux bonnes pratiques techniques Garantie de la qualité, de la performance et de la résilience des applications Supervision et suivi en production 💻 Environnement technique Back-end & Data Apache Spark Scala, Java, Python Akka / Kafka API REST (TYK) SQL DevOps & Qualité Jenkins Kubernetes Docker Sonar Datadog Hadoop
2854 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous