Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 355 résultats.
Freelance

Mission freelance
Data Analyst Confirmé H/F

AGH CONSULTING
Publiée le
Data visualisation
Hadoop
MySQL

6 mois
200-400 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un Data Analyst Confirmé afin d'accompagner la mise en oeuvre de cas d'usage métiers à forte valeur ajoutée, dans un environnement Big Data. A ce titre, vos missions principales seront les suivantes : -Identifier, concevoir et implémenter des cas d'usage métiers basés sur le croisement et l'analyse de données (ciblage, analyses exploratoires, datascience). -Développer et maintenir des produits DATA réutilisables (pipelines, scripts, datasets). -Exploiter les données via des traitements distribués sous environnement Hadoop. -Concevoir et publier des reportings et dashboards Power BI (datasets, dataflows, rapports). -Produire des présentations synthétiques (PPT) des résultats d'analyses. -Garantir le respect des standards, bonnes pratiques et normes DATA. -Accompagner les équipes métiers dans l'exploitation et l'acculturation à la donnée. Livrables attendus : -Programmes DATA industrialisés sous plateforme Big Data -Jeux de données et dataflows Power BI -Tableaux de bord et rapports de datavisualisation -Supports de restitution et présentations des études réalisées Environnement technique : -Plateforme : Hadoop (Cloudera) -Langages : Python, PySpark, SQL -Outils de restitution : Power BI
Freelance
CDI

Offre d'emploi
TECH LEAD DATA GCP

UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Freelance

Mission freelance
Directeur de Programme – Migration Data & Analytics Cloud

Signe +
Publiée le
Snowflake

12 mois
840 €
Paris, France
Contexte Dans le cadre d’un programme stratégique de transformation, le client souhaite piloter la migration complète de son écosystème Analytics vers des solutions cloud modernes. L’objectif est de moderniser des plateformes data vieillissantes et d’améliorer la scalabilité, la performance et la gouvernance des environnements Analytics. Périmètre Migration SAP HANA et Sybase IQ vers le Cloud Cibles potentielles : Snowflake, Microsoft Azure ou autres plateformes cloud modernes Transformation globale des architectures Data / BI / ETL Refonte de la roadmap Data Platform à l’échelle de l’entreprise Responsabilités Pilotage global du programme de migration Data Encadrement de 5 à 6 Chefs de Projet Structuration de la gouvernance programme Définition et suivi de la roadmap Gestion des dépendances, risques et budgets Coordination des équipes IT, Data et Métiers Communication auprès des sponsors et instances de direction Compétences techniques attendues Expérience confirmée en migration de bases de données lourdes (HANA, Sybase IQ) Maîtrise des architectures Analytics modernes (Snowflake, Azure, Data Platform Cloud) Compréhension des environnements BI / ETL / Data Warehouse Vision globale des impacts métiers (Finance, Industrie, R&D, Supply Chain…) Compétences managériales Expérience de direction de programme stratégique Capacité à piloter plusieurs streams en parallèle Forte maîtrise de la gouvernance, des arbitrages et de la gestion budgétaire
Freelance
CDI

Offre d'emploi
Quant Risk Analyst / Quant Dev (H/F) Marché / Contrepartie / P&L – Environnement Front-to-Risk

SOFTEAM
Publiée le
.NET
API
C#

3 mois
Paris, France
Contexte Mission au sein d’une équipe dédiée à l’innovation et à la transformation des dispositifs de gestion des risques de marché, de contrepartie et de liquidité, dans un environnement bancaire international exigeant. Positionnement transverse, au croisement des équipes Risk, Quant et IT, avec une forte exposition aux problématiques métiers et réglementaires. Responsabilités Modéliser et représenter des instruments financiers complexes (rates, crédit, dérivés) Implémenter et analyser les métriques de risques : VaR, stress tests, sensibilités Contribuer à la compréhension et à la décomposition du P&L des desks de trading Développer des solutions d’agrégation, de contrôle et de qualité des données de risque Participer à la cartographie des transactions et des instruments financiers Traduire les besoins métiers en solutions techniques robustes et industrialisables Intervenir sur des sujets réglementaires (remédiations, audits, exigences des régulateurs) Collaborer étroitement avec les équipes Risk, Quant et IT Environnement technique C# / .NET Python (pandas, data analysis) SQL, ETL, manipulation de données Hadoop / écosystème big data APIs / architectures distribuées Profil recherché Expérience significative en risque de marché Solide compréhension des produits financiers et des modèles de valorisation Capacité à intervenir à la fois sur des problématiques quantitatives et techniques Aisance dans la manipulation de données complexes et volumineuses Capacité à évoluer dans un environnement transverse et exigeant Langues Anglais courant indispensable Atouts de la mission Positionnement hybride quantitatif / technique rare sur le marché Forte exposition aux enjeux métiers et réglementaires Interaction directe avec des experts Risk et des équipes de trading Impact concret sur les systèmes de gestion des risques et des résultats
Freelance
CDI

Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON

OCTOGONE
Publiée le
PySpark
Python

6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)

Pickmeup
Publiée le
Dataiku
Numpy
Pandas

2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance
CDI
CDD

Offre d'emploi
Data Quality Analyst senior

FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
Freelance

Mission freelance
Data Engineer Semarchy ou stambia  xDI Full remote ASAP

WorldWide People
Publiée le
Semarchy

6 mois
330-350 €
France
Data Engineer Semarchy ou stambia xDI Full remote ASAP Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDI , SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
CDI

Offre d'emploi
Développeur ETL Talend H/F

CELAD
Publiée le

Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur ETL Talend H/F pour intervenir chez un de nos clients. Contexte : Dans un contexte de montée en charge sur plusieurs projets Data, vous intervenez au sein d’une équipe dédiée à la conception et à l’alimentation de flux de données. L’objectif : accompagner les besoins métiers en développant des solutions d’intégration fiables, performantes et maintenables. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Concevoir et développer des flux d’intégration de données avec Talend - Réaliser les traitements ETL en réponse aux besoins métiers - Développer des scripts PowerShell pour le chargement de fichiers - Assurer la qualité et la fiabilité des traitements de données - Rédiger et maintenir la documentation technique - Participer aux échanges avec les équipes projet dans un cadre Agile et/ou cycle en V
Freelance

Mission freelance
Développeur ETL Talend H/F

CELAD
Publiée le

1 an
410-430 €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur ETL Talend H/F pour intervenir chez un de nos clients. Contexte : Dans un contexte de montée en charge sur plusieurs projets Data, vous intervenez au sein d’une équipe dédiée à la conception et à l’alimentation de flux de données. L’objectif : accompagner les besoins métiers en développant des solutions d’intégration fiables, performantes et maintenables. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Concevoir et développer des flux d’intégration de données avec Talend - Réaliser les traitements ETL en réponse aux besoins métiers - Développer des scripts PowerShell pour le chargement de fichiers - Assurer la qualité et la fiabilité des traitements de données - Rédiger et maintenir la documentation technique - Participer aux échanges avec les équipes projet dans un cadre Agile et/ou cycle en V
Freelance

Mission freelance
Data Engineer-Scientist AWS

INSYCO
Publiée le
AWS Cloud
Gitlab
Large Language Model (LLM)

3 ans
500-550 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer-Scientist AWS. Nous étudions prioritairement les candidatures adressées par mail à freelance à insyco . fr avec : · Un argumentaire écrit répondant de façon ciblée au besoin ci-dessous · Un CV à jour au format Word · Une date de disponibilité · Un tarif journalier · Merci d’indiquer la référence MDE/DATA/5161 dans l'objet de votre mail Vos responsabilités · Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique · Modéliser et développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux · Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille · Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation · Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum · S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI interne · Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant · Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab · Participer à la définition et à l’amélioration des processus de l’équipe Lab · Solide culture DevOps : CI/CD, conteneurisation (Docker, Kubernetes, Gitlab) · Bases solides en data engineering (Python / SQL) & cloud PaaS/IaaS (AWS, API Gateway, Terraform) · Expériences en data processing / engineering (Panda, Pyspark, multi-threading, AWS batch) · Curiosité et pratique des outils d’IA générative et d’automatisation (ex. GitHub Copilot, Claude Code, LLM, NLP, AWS Bedrock) pour identifier les véritables opportunités d’amélioration · Expérience de travail en méthodes agiles (Scrum, SaFe, Kanban)
Freelance

Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.

WorldWide People
Publiée le
PySpark
Python

12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.
Freelance

Mission freelance
Conception-Développement (Analyste Oracle E-Business Suite) - Senior H/F

LeHibou
Publiée le
Microsoft Power BI
Oracle EBS
SQL

1 an
Paris, France
Notre client dans le secteur Banque et finance recherche un/une Conception-Développement (Analyste Oracle E-Business Suite) - SeniorH/F Description de la mission: Conception-Développement (Analyste Oracle E-Business Suite) - Senior Contexte et objectif de la mission La mission s’inscrit au sein d’une équipe IT Finance d’environ 18 collaborateurs en charge de la maintenance et du développement des outils informatiques pour la direction financière d’un grand groupe de gestion d’actifs. Dans le cadre des activités de projets et de développement applicatif, un renfort senior est recherché pour renforcer les ressources et expertises de l’équipe sur les activités de projet, de support et de maintenance évolutive. Le système d’information comptable concerné est constitué principalement de : • une plateforme core model autour de l’ERP Oracle E-Business Suite 12.2.8 couvrant les besoins en comptabilité sociale et auxiliaire pour une cinquantaine d’entités réparties dans 17 pays ainsi que la consolidation groupe • un ensemble d’outils périphériques pour la gestion des factures, la trésorerie, le reporting réglementaire, la fiscalité et la justification des comptes • un requêteur comptable OBIEE • un datalake en cours de construction et des outils BI associés, notamment Power BI La feuille de route projet à venir porte notamment sur : • la facturation électronique • des projets de consolidation groupe • la construction d’un entrepôt de reporting comptable • des initiatives IA autour du SI comptable • des évolutions réglementaires • l’intégration de l’IA aux outils de la comptabilité Conditions de la prestation La prestation se déroule en accompagnement de l’équipe de pilotage projets IT pour le compte de la direction financière. L’équipe de rattachement est fonctionnellement et physiquement rattachée à la direction financière. La mission est réalisée dans les locaux du bénéficiaire, du lundi au vendredi, pendant les heures d’ouverture des bureaux. Missions principales / responsabilités Dans le cadre de la maîtrise d’œuvre comptable, en étroite collaboration avec les équipes de la direction financière et la MOA, le prestataire interviendra sur : • le cadrage des besoins évolutifs ou projets • l’analyse des besoins utilisateurs • la rédaction des spécifications techniques • la conception et la réalisation des développements • la contribution aux recettes et aux tests associés • le support aux activités opérationnelles courantes de production • le support utilisateur • le suivi des activités de maintenance Résultats attendus / livrables Les livrables attendus comprennent notamment : • le cadrage des besoins évolutifs ou projets • l’analyse des besoins utilisateurs • les spécifications techniques • les développements réalisés • la contribution aux recettes et tests • un rapport mensuel d’activité établi dans l’outil de suivi d’activité et validé par les parties Pré-requis techniques : • expertise du framework de développement Oracle E-Business Suite • SQL / PL-SQL • BI Publisher • OA Framework • OBIEE • Oracle Workflow • APEX • Oracle Forms • Shell Unix • Git • expertise fonctionnelle du data model Oracle E-Business Suite autour d’un ou plusieurs modules parmi GL, AP, AR, PO, E-Tax, FA et OIE Compétences complémentaires appréciées : • Power BI • outils liés à l’IA et au développement assisté Contexte linguistique Français et anglais.
CDI
Freelance

Offre d'emploi
Architecte Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6355 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous