Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 005 résultats.
Freelance

Mission freelance
DATA ENGINEER Scala/Spark

KEONI CONSULTING
Publiée le
autonomie
Rundeck

18 mois
100-500 €
Paris, France

CONTEXTE L'entité a donc également un but humain en assurant la réussite des développeurs en reconversion. La mission consiste à renforcer une équipe de Data Engineers pour réaliser des projets Scala/Spark pour le compte de l’un de nos clients. MISSIONS Vous assurerez le pilotage de plusieurs projets basés majoritairement sur les technologies Python sur le périmètre de la filiale Energie. Le pilotage concerne l’ensemble des projets de cette filiale confiés à D2D. Les engagements de l’entité D2D envers la filiale sont assurés grâce à un plateau projet composé de 2 à 4 développeurs, un ops et un architecte. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : Le profil recherché pour la mission est celui d’un chef de projet SI/Data. Une expérience significative est requise pour ce poste. Il bénéficiera d’un accompagnement du responsable de domaine / directeur de mission sur le périmètre et du responsable de l’équipe Chefs de Projets Data pour les aspects outillage et méthodologie. Ce soutien sera plus important au début de la mission, notamment pour la prise en main des outils indispensables mais peu répandus comme TimePerformance. Qualités requises - Excellent relationnel - Capacité rédactionnelle - Capacité d’adaptation et de travail en équipe - Rigueur et esprit de synthèse - Esprit d’initiative - Autonomie

CDI
Freelance

Offre d'emploi
Data Analyst Senior

ANAFI CONSULTING
Publiée le
Dataiku
Modélisation
Python

1 an
Tours, Centre-Val de Loire

Nous recherchons un Data Analyst confirmé/senior pour le compte de l'un de nos clients basé à Tours. Vous serez au sein de la direction DATA composée d'une 30aine de personnes. Vos missions principales seront : Développer et consolider des sources de données variées, en collaboration étroite avec les équipes métiers (principalement la direction commerciale, le contrôle de gestion, les services médicaux et l’après-vente). Concevoir et maintenir des solutions techniques sur Dataiku DSS , en garantissant leur robustesse et leur alignement avec les besoins métiers. Analyser et restituer les données de manière claire et actionnable, en documentant systématiquement vos travaux. Participer activement à des projets transverses, comme la modélisation de scores d’appétence, l’analyse de comportements clients ou l’optimisation de processus métiers

Freelance

Mission freelance
Mission de Data Engineer - Retail

SKILLWISE
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
400-550 €
Paris, France

Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github

CDI
Freelance

Offre d'emploi
Data Engineer Sénior (Secteur Finance)

INGENIANCE
Publiée le
CI/CD
Microsoft Power BI
Microsoft SQL Server

3 ans
57k-67k €
550-650 €
Paris, France

Nous recherchons actuellement un data engineer sénior ayant une expérience dans le secteur de la finance (équipe global market ou compliance par exemple). Aspects contractuels de la missions : - Démarrage de la mission ASAP - Les locaux se situent dans le 13eme arrondissement de Paris - La mission sera de longue durée (3 ans). - Client dans le secteur bancaire. - Télétravail prévu 2 jours par semaine, présence demandée 3 jours par semaine - L'anglais fait partie de la mission : Communication avec des membres de l'équipe à Porto - Des astreintes seront mises en place pour la maintenance évolutive, avec 3 ou 4 nuits par mois, réparties sur tous les membres de l'équipe selon un planning determiné un mois en avance. Les week-ends tombent tous les 1 mois et demi pour tous les membres de l'équipe. L’équipe : - Adresse des sujets des différents métiers comme Global Market (rentabilité commerciale et performance des équipes de vente), trading (pour la demande de prix ur les plateforme éléctroniques), compliance (fournir des alertes en post trade pour les informations clients). - L'équipe travaille sur de l'on premise sur des datas centers (raisons de coûts et de sécurité). La mission consiste à mettre en place, gérer et modifier les pipelines de livraison. La partie maintenance évolutive reste une part importante de la mission, et comprends également une partie support niveau 2.

Freelance
CDI

Offre d'emploi
TECH MANAGER DATA

UCASE CONSULTING
Publiée le
DBT
Snowflake
Tableau software

3 ans
40k-90k €
500-1k €
Paris, France

Bonjour pour le compte de notre client, nous recherchons Tech Manager Data.. Sous la responsabilité du Tech Lead DATA, le/la Tech Manager Data aura donc la charge De Encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.) Créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent) Piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils) Animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore) Informer et alerter les (deux) Leads DATA Participer aux activités et évènement transverses de l'équipe domaine, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non exhaustifs) : o Réduction des fichiers manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc domaine connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Data Platform ». o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants

CDI

Offre d'emploi
Data engineer BI (H/F)

Amiltone
Publiée le
BI

35k-40k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant qu'ingénieur BI. Vos missions : - Etre force de proposition sur la conception (normes, méthodes, contexte, environnements...) et la réalisation de traitements ETL industrialisés. - Challenger les besoins et de proposer des solutions viables et scalables d'un point de vue technique tout en respectant les budgets impartis. - Concevoir des rapports sur Power BI. - Tirer parti des services managés et de données de l'écosystème Microsoft Azure : Azure Data Factory, Azure Synapse Analytics, Power BI, etc. - Organiser des différentes couches d'un DataLake par type et qualité de données. - Assurer la sécurisation de l'écosystème de données Silae (Gestion des droits, etc.) Vos compétences : - Connaissances sur les ETLs (Azure Synapse/Azure Data Factory, Talend, DataStage,...) - Connaissances de Power BI et maitrise de la génération des rapports. - Connaissance d'Azure DataLake (Gen1 / Gen2). - Maitrise de SQL/Transac-SQL et des bases de données MySQL et MS SQL Server. Les plus : - Connaissances avancées d'Azure Synapse et de l'écosystème de données/BI de Microsoft Azure.

Freelance
CDI

Offre d'emploi
CONSULTANT DATA GOUVERANCE

UCASE CONSULTING
Publiée le
DataGalaxy
Microsoft Power BI
QDD

6 mois
40k-45k €
400-550 €
Paris, France

Nous recherchons, pour l’un de nos clients du secteur santé/prévoyance , un Consultant Data Gouvernance orienté Qualité des Données (QDD) . 🎯 Missions Accompagner la mise en place et le suivi des processus Qualité des Données (QDD) . Assurer l’ acculturation des métiers aux enjeux Data et gouvernance. Intervenir en proximité fonctionnelle avec les équipes afin de structurer et formaliser leurs besoins. Contribuer à la définition et au suivi de la gouvernance Power BI (bonnes pratiques, catalogue, gestion des droits). Participer à l’utilisation d’outils de gouvernance type Data Galaxy (formation possible, maîtrise préalable non requise). 🧑‍💻 Profil recherché Expérience confirmée en gouvernance de la donnée et Qualité des Données (QDD) . Excellente capacité à vulgariser et accompagner les métiers . Orientation fonctionnelle et bonne compréhension des enjeux Data. La connaissance du secteur santé/prévoyance est un gros plus . La maîtrise de la gouvernance Power BI constitue également un atout . La connaissance de l’outil Data Galaxy est appréciée mais pas indispensable.

Freelance
CDI
CDD

Offre d'emploi
Lead Data Engineed Snowflake

IT CONSULTANTS
Publiée le
Méthode Agile
Snowflake

12 mois
Levallois-Perret, Île-de-France

Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Freelance
CDI

Offre d'emploi
Data Manager (H/F)

CITECH
Publiée le
UML

6 mois
50k-65k €
400-470 €
Paris, France

CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur hôtelier ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Manager (H/F) pour rejoindre une équipe dynamique et internationale. 👈 Vous serez en charge de définir les politiques de gestion des données, de modéliser et de garantir l'architecture fonctionnelle de la plateforme de données utilisée pour satisfaire les besoins métier. 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Soutenir le cadrage, la conception et la livraison des produits de données ‒ Clarifie les exigences ‒ Trouve les lacunes en matière de données et évalue la faisabilité ‒ Collabore avec les Product Owners et les Data Engineers ‒ Co-conçoit les solutions de données ‒ Valide les choix de modélisation des données ‒ Assure la cohérence avec les normes ‒ Garantit l'évolutivité et la maintenabilité 🔸 Co-définit et partage/éduque les normes de gestion des données ‒ Collabore avec les parties prenantes de la gouvernance, de l'architecture et des produits ‒ Définit les conventions de nommage ‒ Définit les exigences de documentation ‒ Établit les règles de modélisation et assure la conformité ‒ Organise des formations, des ateliers et des sessions de support ‒ Fournit des conseils pratiques et répond aux questions 🔸 Gère le portefeuille et les actifs de données au niveau de la tribu ‒ Assure la qualité et l'exhaustivité des métadonnées ‒ Décrit les tables, les champs et les processus ‒ Met à jour la lignée et le glossaire métier ‒ Vérifie l'application cohérente des normes ‒ Crée et partage les rapports sur le portefeuille de données ‒ Met en évidence les lacunes, les risques et les opportunités

CDI

Offre d'emploi
Lead data (H/F)

Amiltone
Publiée le

40k-45k €
Lille, Hauts-de-France

Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github

Freelance
CDI

Offre d'emploi
Data Engineer

OBJECTWARE MANAGEMENT GROUP
Publiée le
AWS Cloud
Python

210 jours
60k-91k €
560-610 €
Paris, France

Nous recherchons un(e) Data Engineer Senior / Expert pour renforcer notre équipe et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste requiert un profil expérimenté, capable d’allier expertise technique, bonnes pratiques de développement logiciel et accompagnement des équipes. Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe.

Freelance
CDI

Offre d'emploi
Data Engineer GEN IA

VISIAN
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
30k-50k €
300-520 €
La Défense, Île-de-France

Expertise technique GenAI • Développer les briques techniques nécessaires à l’exécution des agents GenIA (API, orchestrateurs, connecteurs, sécurité, monitoring, vectorisation…). • Garantir la robustesse, la scalabilité et la maintenabilité des composants sur Databricks. • Déployer les composants techniques en collaboration avec l’équipe Plateforme. Conception et développement d’agents GenIA • Participer à la définition fonctionnelle des agents avec le tech lead et l’architecte en lien avec le Product Owners et les métiers. • Développer les agents en intégrant les modèles IA via des frameworks comme LangChain. • Tester, valider et optimiser les performances des agents. Travail en équipe projet dans une Squad • Travailler sous l’animation d’un Scrum Master, en collaboration avec un Tech Lead et un Architecte. • Participer aux rituels agiles (daily, sprint planning, review, rétrospective). • Être force de proposition sur les choix techniques et les bonnes pratiques de développement.

Freelance
CDI

Offre d'emploi
Data scientist

Management Square
Publiée le
Docker
Google Cloud Platform (GCP)

1 an
45k-50k €
400-450 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un(e) : Data Scientist - Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. - Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). - Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). - Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. - Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. - Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. - Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Freelance

Mission freelance
Senior Data Java Engineer

ANDEMA
Publiée le
Java
Snowflake

3 mois
450-600 €
Île-de-France, France

Missions principales Concevoir, développer et maintenir des pipelines d’ingestion et de traitement de données à forte volumétrie. Participer à la migration de Scala vers Java/Spring et l’intégration dans Snowflake/Snowpark. Travailler sur l’architecture et l’optimisation des solutions data (batch/stream). Garantir la qualité du code : tests unitaires/intégration, CI/CD, documentation, monitoring . Collaborer étroitement avec le Tech Lead et l’équipe dans un cadre agile (daily scrums, code reviews, pair programming). Être un référent technique pour l’équipe et contribuer aux choix technologiques.

CDI

Offre d'emploi
INGENIEUR CLOUD DATA AZURE DEVOPS (H/F)

GROUPE ALLIANCE
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

50k-55k €
Paris, Île-de-France

ACCROCHE SI TU ADORES TRAITER DES TERRITOIRES DE DONNÉES XXL, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la gestion de données massives et distribuées Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur du retail, tu participeras à la mise en place de projets data et big data, à déployer les projets dans le cloud, à apporter des solutions autour de la sécurité et des API Web, à construire et à industrilaiser des architectures cloud : Les pipelines Big Data, tu concevras et développeras Les traitements batch et temps réel, tu industrialiseras La qualité et la fiabilité des données, tu sécuriseras L’architecture des flux de données, tu mettras en œuvre Les performances et la scalabilité, tu optimiseras Les solutions cloud ou on-premise, tu intégreras Ton équipe projet, tu accompagneras Aux instances data et techniques, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 4 à 10 ans minimum en ingénierie Big Data Expert(e) en BigData Az DataLake, Az EventHub, Databricks, ADF, Microsoft Cloud Azure, Infrastructure as a code (ARM, YAML), Intégration/déploiement continu (Git, Az DevOps) Habile avec AZURE AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Freelance

Mission freelance
Data Analyst expert

Codezys
Publiée le
SQL

12 mois
Seine-Saint-Denis, France

Métiers : Data Management, Data Analyst Spécialités technologiques : BI, ETL Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : SQL, Qlik Sense, Power BI Soft skills : Autonomie Secteurs d'activités : Administration Publique Description de la prestation : Le Data Analyst sera chargé de structurer les bases méthodologiques et techniques pour produire des indicateurs fiables pour le département « Recherche Candidature et Rapprochement » (RCR). Sa mission inclut : Centraliser les données de multiples sources et assurer leur transformation. Industrialiser leur traitement via des pipelines performants. Visualiser les données avec Power BI, Qlik Sense, etc. Gérer plusieurs domaines de données en lien avec l’architecte/expert data et les métiers. Assumer la chaîne complète de traitement et valorisation des données, de la compréhension des besoins à la mise en production et maintenance des applications décisionnelles. Structurer les flux, optimiser les performances, garantir la qualité, la cohérence et la disponibilité des données. Le poste requiert une forte autonomie et une capacité à travailler en lien étroit avec les équipes data et les métiers pour assurer la qualité des livrables.

1005 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous