Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 976 résultats.
CDI
Freelance

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS

UCASE CONSULTING
Publiée le
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 ans
25k-58k €
310-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support

Freelance

Mission freelance
[MDO] Data & AI - Data Architect

ISUPPLIER
Publiée le
Cloudera
SQL
Teradata

1 an
400-550 €
Indre-et-Loire, France

Migration des environnements : Cloudera vers Teradata. Dans le cadre d’un projet stratégique de migration des environnements Big Data , notre client cherche à migrer l’ensemble des traitements et des programmes de la plateforme Cloudera vers un environnement Teradata . Cette migration vise à optimiser les performances, la maintenabilité des traitements et à homogénéiser les technologies au sein de l’organisation. Conception et évolution de modèles de données dans des contextes décisionnels Conception et développement de solutions d'alimentation des entrepôts de données et gestion des traitements en production Capacité à rédiger des spécifications techniques et fonctionnelles Technologies : Teradata (Bteq) : Solide maitrise SQL : Maitrise avancée Localisation : Indre-et-Loire (44610) Remote : Présence sur site de deux jours toutes les deux semaines ) Français requis

Freelance
CDI

Offre d'emploi
Data Engineer GCP & Talend

Espritek
Publiée le
Google Cloud Platform (GCP)
SQL
Talend

3 ans
Ivry-sur-Seine, Île-de-France

Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. Description  Missions principales • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe Livrables Développements Cahiers de test/recette Dossier de recette / Mise en production Spécifications Document d'exploitation Fiche consigne Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • Talend : Solides compétences dans la conception et la gestion des workflows • GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d’autres services GCP liés aux données. • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).

CDI
Freelance

Offre d'emploi
Data Engineer | AWS | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

12 mois
Île-de-France, France

Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

Freelance
CDI

Offre d'emploi
Data Engineer SQL Server (T-SQL)

HIGHTEAM
Publiée le
BI
Microsoft Power BI
OLAP (Online Analytical Processing)

3 ans
40k-55k €
400-500 €
Île-de-France, France

Dans le cadre d’un renforcement d’équipe Data notre client recherche un Data Engineer confirmé spécialisé sur SQL Server . Vous serez responsable de : Maintenance évolutive et corrective des flux de données Développement SQL : modélisation, transformation de données, calculs d’indicateurs Gestion des flux de données : fichiers plats, XML, API REST, web services Ordonnancement des traitements via Control-M Optimisation de requêtes SQL et modèles de données Rédaction de documentations techniques Réalisation de tests unitaires et participation aux recettes Support utilisateur et gestion des incidents Participation active à la méthodologie Agile (Kanban) : Daily, poker planning, rétrospectives

Freelance

Mission freelance
CP DATA

SQLI
Publiée le
Pilotage

12 mois
500-650 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un CP DATA. Objectif du poste : Piloter les projets Data liés aux référentiels produit et fournisseur du siège. Le Chef de Projet Data travaillera en binôme avec un Chef de Projet Fonctionnel, assurera le pilotage de l’équipe nearshore au Maroc, et la coordination des Business Analysts basés à Paris. Contexte fonctionnel : Le projet principal porte sur la gestion des référentiels de données produit et fournisseur. Une appétence forte pour les problématiques de référentiel est donc attendue.

Freelance

Mission freelance
Protection des données personnelles Opérationnel

Mon Consultant Indépendant
Publiée le
Data management

12 mois
490-510 €
Paris, France

La mission consiste à intervenir de façon opérationnelle sur les enjeux liés à la protection des données personnelles : RGPD, construire et mettre à jour un registre des traitements, faire les analyses de risques, assurer les entretiens. Compétences INDISPENSABLES attendues : METIER : - Expériences significatives et maitrise de RGPD et capacité à construire un registre des traitements. - Capacité à faire les analyses de risques, assurer les entretiens. - Fortes compétences en data management. Excellent niveau d’anglais.

Freelance

Mission freelance
Data & AI - Data Architect

Montreal Associates
Publiée le
AI
Cloudera
Teradata

1 an
480-550 €
Indre-et-Loire, France

Contexte de la mission : Dans le cadre de l'évolution de notre écosystème décisionnel, nous lançons un projet de migration des environnements de Cloudera vers Teradata . Ce projet stratégique vise à assurer la continuité et l’optimisation des traitements de données critiques. Objectif de la mission : Assurer la migration des programmes existants sur Cloudera vers Teradata, ainsi que l’ adaptation des traitements en lien avec les nouveaux environnements cibles. Compétences techniques attendues : Maîtrise avancée de Teradata , en particulier BTEQ SQL avancé (optimisation, requêtes complexes) Conception et évolution de modèles de données décisionnels Développement de solutions d’alimentation d'entrepôts de données Gestion des traitements batch en production Rédaction de spécifications techniques et fonctionnelles

Freelance
CDI
CDD

Offre d'emploi
Data engineer teradata

JEMS
Publiée le
Shell
Teradata

1 an
55k-65k €
400-550 €
Paris 14e Arrondissement, France

Au sein de la Squad Data, vous serez garant des évolutions techniques, de la maintenance et de la performance du Datamart centralisant les données financières du client. Vous interviendrez sur : Développement et optimisation des traitements, modèles de données et flux. Gestion des incidents et actions correctives. Monitoring, alerting et documentation technique. Collaboration étroite avec les Métiers, autres Squads et entités du Groupe 2jours de présence sur site sont requis dans le cadre de cette mission.

Freelance

Mission freelance
Chef de projet Data

Tenth Revolution Group
Publiée le
Azure
Microsoft Power BI

6 mois
400-600 €
Tarare, Auvergne-Rhône-Alpes

🚀 Freelance - Chef de Projet Data 🚀 Vous souhaitez piloter un programme Data stratégique, transversal et ambitieux ? 🌟 Contexte du projet Depuis 2 ans, le client mène le programme Data Foundation : Refonte complète de l’architecture Data Création d’un Data Lake sur Azure Migration du Data Warehouse d’Oracle vers Microsoft Fabric Mise en place et centralisation du reporting Power BI Déploiement d’outils de Data Gouvernance (IBM MDM, Data Quality, Data Catalogue) Gestion de 24 ERP au niveau groupe 📌 Vos missions Pilotage de projets Data (BUILD & amélioration continue) Gestion du portefeuille projets et respect des jalons Interface entre équipes métier, IT, marketing et communication Analyse d’impacts et traduction des besoins en usages business Contribution aux projets en cours : intégration PIM, DAM, données de stock 🛠 Stack & environnement Microsoft Dynamics CRM, Azure Data Lake, Power BI Équipe : 6 personnes (chefs de projet, business analysts, architecte, data stewards) Partenariats avec Micropole, IBM, Cleverage, etc. 📍 Modalités Démarrage : fin septembre 2025 Contrat : 6 mois Localisation : Tarare (2 jours télétravail/semaine après période d’essai) Déplacements ponctuels (Paris, Grenoble) 💡 Profil recherché Un chef de projet transversal, capable de comprendre les enjeux business et techniques, facilitateur, orienté résultats et collaboration. 📩 Intéressé(e) ? Contactez-moi en message privé pour échanger.

Freelance

Mission freelance
Testeur Data

MLMCONSEIL
Publiée le
Confluence
Databricks
JIRA

6 mois
300-400 €
Paris, France

Pour le besoin de mon client, je suis à la recherche d'un Testeur Data Être le testeur référent de l’équipe Big Data Porter les chantiers d’automatisation de test, cahier de recette, TNR sur Squash... ... .... ... .... ... .... ... ... ... ... .. ... .. .. ... .. ... ... ... ... ... ... .. .. ... ... ... ... ... ... .. . . .. ... .. .. .. .. .. .. .. .. .. .. .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... . ...

Freelance
CDI

Offre d'emploi
DATA ARCHITECTE DATAIKU

BEEZEN
Publiée le
Dataiku

3 mois
40k-45k €
400-600 €
Île-de-France, France

Le profil recherché rejoindra l’équipe en charge de l’offre de service, en tant que Data Architecte. Cette mission nécessite des connaissances : - Métiers (principaux concepts autour du risque de crédit) - techniques : outil SGBD (idéalement Teradata) et plateforme analytique (idéalement Dataiku) La mission se déroulant dans un environnement international, la maîtrise de l’Anglais est impérative. Les missions sont: - Accompagnement de la montée en compétences des nouveaux utilisateurs sur l’offre de service - Accompagnement les utilisateurs dans la conception et l'optimisation de leurs projets Dataiku - Réalisation des audits de qualité des projets Dataiku - Maîtrise du modèle de données et les concepts Métier - Participation au support et au développement de l’offre de service, et notamment sa couche d’exposition - Participation aux montées de version Dataiku, au travers de tests de non régression

CDI

Offre d'emploi
Data Architecte - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance
CDI

Offre d'emploi
Data engineer BI

VISIAN
Publiée le
AWS Cloud
Azure
Databricks

3 ans
40k-70k €
400-700 €
La Défense, Île-de-France

Contexte de la mission Dans le cadre d’un projet stratégique de reporting opérationnel , nous recherchons un·e Data Engineer expérimenté·e , orienté·e modélisation BI et performance , pour intervenir de bout en bout : structuration des données, création de modèles, alimentation du Lakehouse, et support à la datavisualisation métier (Tableau). Objectif : construire des tableaux de bord à forte valeur ajoutée tout en optimisant la qualité, les temps de réponse et les coûts liés à la plateforme. Missions principales Modélisation de données BI : modèle en étoile, flocon, Data Vault (si applicable) Manipulation avancée de données avec SQL Création de pipelines Databricks (Delta Lake, Notebooks, optimisation via Z-Order, caching, partitionnement…) Collaboration sur des notebooks pour analyses avancées Optimisation des performances sur environnement Lakehouse Intégration de Databricks avec des environnements cloud (Azure ou AWS) Participation à la conception des dashboards dans Tableau (Salesforce) Contribution active à la qualité de la donnée, documentation et bonnes pratiques

Freelance

Mission freelance
Product Owner IA / Data

PARTENOR
Publiée le
Data analysis
Product management

1 an
400-550 €
Île-de-France, France

Contexte de la mission Dans le cadre du programme d’accélération de l’Intelligence Artificielle, nous recherche un Product Owner expérimenté afin d’accompagner la Direction Informatique dans la mise en place et le pilotage de produits et services IA. La mission s’inscrit dans un environnement agile à grande échelle et international, avec une forte interaction entre équipes métiers, équipes data/IA et parties prenantes techniques. Le consultant sera en charge des activités suivantes : Définir la stratégie produit sur son périmètre, en lien avec la vision globale de l’entreprise. Identifier, prioriser et gérer les backlogs des différents axes stratégiques. Garantir la mise en œuvre des méthodes de discovery et le suivi du delivery . Coordonner et collaborer avec les équipes de développement, data scientists, ingénieurs IA, métiers et partenaires externes. Définir et suivre les KPIs liés aux produits IA, analyser les résultats et proposer des axes d’amélioration. Participer à la définition des stratégies de gestion et de sécurisation des données. Accompagner la mise en main des produits (documentation, formation, support en conditions opérationnelles).

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP x PYTHON

UCASE CONSULTING
Publiée le
Google Cloud Platform (GCP)
MySQL
Python

6 mois
40k-45k €
400-550 €
Paris, France

Je recherche pour un de mes clients un Data Engineer Python x GCP : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Compétences techniques : • Langages de programmation : Python, Scripts Shell • Modélisation des données : Modèle Physique des Données (MPD), requêtes SQL. • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XM

976 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous