Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 281 résultats.
Freelance

Mission freelance
Data Engineer

Gentis Recruitment SAS
Publiée le
Azure
Databricks
PySpark

6 mois
Paris, France

Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery

Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake DBT

Konvergence Consulting
Publiée le
BigQuery
CI/CD
Databricks

1 jour
40k-45k €
100-480 €
Paris, France

Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.

Freelance
CDI

Offre d'emploi
Data engineer

Ipanema Technology
Publiée le
Big Data
BigQuery
DBT

1 an
40k-50k €
400-550 €
Île-de-France, France

Intégré(e) au sein des équipes de la Digital Factory Supply Chain, le/la Data Engineer contribuera ou pilotera la conception, le développement, la maintenance et l'optimisation de solutions de traitement de données massives. La Digital Factory Supply Chain développe l'ensemble des assets digitaux pour une expérience omnicanale, au service de l'approvisionnement des magasins, de la commande automatique à la livraison. Missions et Responsabilités Principales : Conception et Développement : Concevoir, développer et maintenir des solutions Big Data en utilisant les technologies Cloud (GCP). Pour les profils Sénior, cela inclut la mise en place et l'optimisation des pipelines de données. Contribution aux Projets : Participer activement à la réalisation de projets métier, notamment autour de solutions ELT in-house (BigLoader) et DBT. Opérations et Maintenance : Assurer la prise en charge des demandes de corrections issues d'incidents ou d'anomalies. Pour les profils Sénior, cela inclut l'analyse des performances et l'amélioration continue des solutions existantes. DevOps et Automatisation : Contribuer aux pratiques Devops , à l'automatisation du delivery , et à l'application des bonnes pratiques et normes de développement. Participer aux chiffrages des usages et à la constitution des releases . Expertise et Mentoring : Participer à l'auto-formation et à la montée en compétences de l'équipe de développement.

Freelance

Mission freelance
Solution Data Architect H/F

Cheops Technology
Publiée le
Architecture

12 mois
400-550 €
Vélizy-Villacoublay, Île-de-France

Périmètre et objectifs de la mission Mission principale : Prendre en charge l’architecture de bout en bout des solutions data pour les produits et cas d’usage analytiques, au sein d’un ou plusieurs value streams. Traduire les besoins métiers en solutions data sécurisées, scalables et optimisées en coût, s’appuyant sur la plateforme data d’entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). 2. Responsabilités principales Architecture : Ingestion batch/stream, DWH (modélisation Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL/API/couche sémantique, gestion des flux de features ML si besoin. Modélisation : Transformation des concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation…). BI & Analytics : Gouvernance des KPIs, optimisation des dashboards et des requêtes, gestion du cache et des agrégats, promotion du self-service (dbt/metrics layer + catalogue). Ops & FinOps : Suivi des SLOs (fraîcheur, latence, coût), observabilité, runbooks, backfills, tuning du stockage et des requêtes pour réduire les coûts. Gouvernance/Mesh : Gestion des métadonnées, documentation, publication de blueprints et d’ADRs.

CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne

Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)

Freelance

Mission freelance
Consultant(e) Data Privacy & Compliance

Codezys
Publiée le

3 mois
390-450 €
Paris, France

Métier : Pilotage de projet ou de programme Fonction : Consultant Spécialités technologiques : Conduite du changement RGPD Cybersécurité Gestion des projets Migration de données Type de facturation : Assistance Technique (facturation au taux journalier) Compétences : Technologies et Outils : Amazon Méthodes / Normes : Adapter Soft skills : Autonomie, Rigueur Langues : Anglais Secteurs d'activités : Assurance Description de la prestation : Le consultant intervient pour renforcer la gouvernance et la conformité des données personnelles dans un environnement international. Il soutient l’équipe Data Privacy dans la mise en œuvre des politiques de protection des données, la gestion des projets de conformité et la coordination transversale entre entités. Principaux axes d’intervention : Gouvernance et conformité : Adapter et déployer les politiques internes selon la réglementation (RGPD, etc.) Maintenir le registre de traitement et assurer la conformité documentaire Contribuer aux contrôles permanents et suivre les audits internes Participer aux comités de gouvernance et faire le reporting Accompagnement des projets et support aux équipes : Apporter un appui opérationnel sur projets liés aux données personnelles (nouveaux produits, migrations, IA, cloud) Réaliser ou contribuer aux Data Privacy Impact Assessments (DPIA) et évaluations de conformité Soutenir la due diligence et évaluation fournisseurs (Microsoft, Amazon, Cyber) Participer à la distribution des produits Data Privacy Faire interface avec les équipes gestion des incidents et demandes d’accès Transformation et conduite du changement : Accompagner la montée en maturité sur Data Privacy Contribuer au déploiement de la plateforme OneTrust (migration, paramétrage, intégration) Promouvoir bonnes pratiques et optimiser les processus

CDI

Offre d'emploi
Data Analyst

Atlanse
Publiée le
BigQuery
Javascript
Reporting

40k-50k €
Massy, Île-de-France

Au sein de la Direction Infrastructure, vous aurez pour mission de collecter, analyser et restituer les données pour faciliter la prise de décision. Votre rôle Analyse & gestion des besoins Collaborer avec les différents départements pour comprendre leurs besoins d’analyses, de rapports et d’indicateurs Les formaliser en spécifications fonctionnelles claires et adaptées Développement & automatisation de reporting Assurer le développement et le paramétrage des rapports Automatiser l’alimentation de rapports (Google Slides) à partir des données BigQuery (via JavaScript/Appscript) Gestion & optimisation des données Concevoir, optimiser et maintenir les tables et pipelines de données alimentant le Datalake de la Direction (Google BigQuery) Développer des requêtes SQL avancées pour extraire, transformer les données et alimenter les outils de reporting Proposer des solutions techniques innovantes pour analyser les données ou simplement contourner les limitations des outils Google Documentation & suivi Mettre à jour la documentation technique et fonctionnelle des solutions mises en place Assurer le suivi et le reporting de son activité via les outils de gestion des projets (Jira)

CDI
CDD

Offre d'emploi
Concepteur Développeur Full Stack (JSP / EJB / Maven / Bootstrap) - Sophia Antipolis (H/F)

RIDCHA DATA
Publiée le
Apache Maven
Boostrap
Entreprise Java Bean (EJB)

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur

🧩 Contexte de la mission Dans le cadre de la maintenance et de l’évolution du projet Bilans Service , nous recherchons un Développeur Full Stack afin de renforcer l’équipe en charge de la Tierce Maintenance Applicative (TMA) . Le consultant interviendra sur la conception, le développement et les tests des évolutions applicatives ainsi que sur la correction d’anomalies. ⚙️ Objectifs et missions principales Le prestataire aura pour responsabilités : Participer à l’analyse des spécifications fonctionnelles et techniques. Développer de nouvelles fonctionnalités conformément aux besoins exprimés. Assurer la correction et l’amélioration des applications existantes. Réaliser les tests unitaires et d’intégration. Documenter les développements réalisés. Contribuer à la qualité et à la stabilité des versions livrées. 🧠 Compétences techniques requises JSP / Servlet / EJB – Confirmé – Impératif JUnit – Confirmé – Impératif Maven / Git – Confirmé – Impératif Bootstrap – Confirmé – Important

Freelance

Mission freelance
Consultant SAP Data Migration

EBMC
Publiée le
SAP

9 mois
Île-de-France, France

Mission de reprise des données pour le stream Support : • Une bonne connaissance du secteur aéronautique, de ses contraintes opérationnelles et règlementaires. • Une bonne connaissance des fondamentaux du « DataManagement » et du cycle de vie de la donnée • Une maitrise des outils usuels de gestion de la donnée : Innovera, Knime, Hana Studio et PWBI, … • Une connaissance de l’ERP SAP S4 • Développement de vues Hana Studio. • Une connaissance des tables SAP serait un réel plus Durée 9 mois Lieu 91 TT en TT 2 jrs Début mission : novembre

Freelance
CDI

Offre d'emploi
Scrum Master - DATA

VISIAN
Publiée le
Cloudera
Google Cloud Platform (GCP)
Kanban

1 an
40k-45k €
400-550 €
Île-de-France, France

📢 Offre de mission – Scrum Master Data Au sein d’un département IT Data, vous interviendrez sur la mise en place et le pilotage d’un cadre Agile pour l’ensemble des activités de développement de l’équipe. 🎯 Objectif de la mission : Le Scrum Master aura pour rôle de structurer le cycle agile, d’assurer le pilotage du delivery (jalons, budget, RAF fonctionnel, validation des chiffrages) et de représenter l’équipe de développement au sein des différentes instances. Ce poste, à forte visibilité, nécessite un excellent sens du relationnel , une rigueur d’exécution et une communication claire et professionnelle , véritables vitrines de la qualité du travail de l’équipe. Responsabilités principales : Mettre en place et animer le cycle Agile (Scrum, Kanban, SAFe). Piloter le delivery : suivi des jalons, budgets et charges. Qualifier les chiffrages et coordonner la planification avec les équipes métier et techniques. Faciliter la communication entre les développeurs, les PO et les parties prenantes. Contribuer à l’amélioration continue des pratiques agiles et à la performance de l’équipe.

Freelance

Mission freelance
[TPR] Architecte Data et IA - Big Data (8/12 XP)

ISUPPLIER
Publiée le
Big Data
RGPD
Stratégie

3 mois
400-730 €
Paris, France

Dans le cadre du plan stratégique du Groupe pour le secteur bancaire du Groupe, ce dernier joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, ils sont créés un département département, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. L'équipe est composée de six équipes : Innovation Exposition, Innovation Factory, APEX, Smart Auto Factory, Data Analytics and Management Platforms et le Centre de Compétence en IA. Ce dernier est chargé de développer et de maintenir les compétences en Intelligence Artificielle au sein du département A3I. L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC. Compétences clés : • Expertise en gouvernance IA, ML Ops, auditabilité et traçabilité des modèles • Maîtrise des enjeux réglementaires et éthiques (AI Act, CNIL, RGPD). • Capacité à structurer des dispositifs de veille IA et à animer des communautés d’experts • Leadership, esprit critique, rigueur, capacité à influencer et à collaborer en environnement complexe Livrables : - Conseil et orientation sur les décisions stratégiques à prendre sur le plan stratégique de la banque en matière d'IA - Conseil sur l'organisation, le positionnement et le dimensionnement de l'équipe AICC vis à vis des besoins Métiers - Structuration et formalisation de la roadmap 2026 de l"AICC

Freelance

Mission freelance
Ingénieur Data Platform (H/F)

HOXTON PARTNERS
Publiée le
AWS Cloud
Snowflake
Terraform

6 mois
400-550 €
Belgique

Nous recherchons un(e) Ingénieur(e) Data Platform spécialisé(e) dans la conception, le développement et la maintenance des infrastructures soutenant les pipelines de données et les applications data-driven de l’entreprise. Le rôle consiste à bâtir un écosystème de données robuste, évolutif et fiable, en lien étroit avec les équipes Data et Cloud. Missions principales : Concevoir, développer et maintenir l’infrastructure de données basée sur Snowflake. Mettre en œuvre des modules Terraform pour Snowflake et les ressources Cloud associées. Garantir la qualité, la sécurité et l’automatisation de l’infrastructure via des workflows CI/CD Git. Gérer la configuration et la protection des secrets (HashiCorp Vault, AWS Secrets Manager, Azure Key Vault, GCP Secret Manager). Participer aux activités DevOps liées à la supervision et au déploiement.

CDI

Offre d'emploi
DATA ANALYST CONFIRMÉ (H/F)

GROUPE ALLIANCE
Publiée le
Databricks
Python
SQL

50k-57k €
Paris, Île-de-France

ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de ans minimum en ingénierie de la donnée ou en développement data Expert(e) en Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Freelance

Mission freelance
Consultant SAP DATA MIGRATION

KUBE Partners S.L. / Pixie Services
Publiée le
SAP

1 an
620-700 €
Toulouse, Occitanie

Bonjour, Je recherche un consultant SAP Data Migration, pour intervenir sur une mission , chez un de nos clients.

Freelance

Mission freelance
Chef de Projet Déploiement & Support Medius

Comet
Publiée le
Data management

1 an
400-690 €
Île-de-France, France

Missions principales 1. Gestion de projets de déploiement Medius Élaboration du planning / vagues en coordination avec le Program Manager Définition et validation du scope avec les CSP Organisation des kick-off et ateliers de Gap Analysis Suivi des gaps, change management et livrables par phase Coordination et validation des tests, gestion de l’issue list et escalades Préparation du Go-live : cutover, hypercare, transfert au support Reporting aux comités de pilotage (outil interne Concerto) 2. Gestion du support Medius – QAD (intégration) Collecte et qualification des demandes auprès des CSP Coordination du delivery avec équipes Medius / QAD Suivi des tickets (Jira + Medius Portal) Escalade et suivi de résolution

Freelance

Mission freelance
Data Architect - (h/f)

emagine Consulting SARL
Publiée le

6 mois
500-570 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Data Architect qui fera partie de l'équipe stable BI & Analytics. Rôle : En tant que Data Architect, il/elle garantira que les produits livrés par l'équipe stable sont alignés avec l'architecture cible globale. Pour soutenir ce poste, nous recherchons un Data Architect Azure avec une bonne compréhension globale des services disponibles dans la pile Azure Analytics. Cette personne travaillera avec le DPO, Data Analyst, Data Engineer et Data Scientist de l'équipe stable, mais aussi avec la communauté des Architectes pour définir l'architecture avec la bonne qualité, la valeur commerciale pertinente et la maintenabilité à long terme. De plus, il/elle doit également avoir des compétences en leadership pour prendre la responsabilité technique dans les discussions avec les parties prenantes commerciales et l'architecture d'entreprise. Tâches : Fournir un leadership technique, participer aux efforts de développement et représenter l'ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes pour superviser les processus de gestion des données et fournir des conseils et une direction aux équipes de développement. Être responsable de la conception et de la documentation de la solution dans son domaine. Avoir de l'expérience avec Databricks, le stockage ADLS, SQL DB, ADF et Power BI. Définir et posséder une architecture de données évolutive de bout en bout en tenant compte de l'architecture d'entreprise et des normes de l'industrie. Développer, documenter et maintenir des modèles de données logiques et physiques. Créer un tableau de bord client 360 basé sur les données CRM et les sources externes pour soutenir le processus marketing. Mettre en place un Produit Data pour soutenir l'approche CAST (produit réutilisable partagé) en ligne avec la stratégie du Groupe. Faire partie de l'équipe de maintenance pour garantir la continuité des processus commerciaux. Compétences : Architecture de données minimum 4 ans Rédaction de SQL et modélisation des données Conception de l'architecture de données Power BI Composants Azure comme ADFv2, Databricks, Delta lake Technologies et cadres d'analytique avancés Azure Langage de programmation lié à l'analytique avancée : Python, Pyspark Modèle de livraison basé sur le cloud Microsoft Gestion des données, gouvernance des données et qualité des données Déploiement d'API ou de microservices DevSecOps Agile Expérience de travail dans un environnement mondial Excellentes compétences en communication en français et en anglais (niveau C1) Autres détails : Sur site à Lyon 3 jours par semaine

1281 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous