Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 343 résultats.
Freelance

Mission freelance
Lead Data Quality Analyst

Publiée le
Dataiku
Qlik
ServiceNow

12 mois
600-700 €
Paris, France
Télétravail partiel
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Freelance
CDI

Offre d'emploi
Data Engineer (21)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Freelance

Mission freelance
Profil Data (Data Analyst ou Data Scientist)

Publiée le
Microsoft Excel
PowerBI
Python

2 mois
100-500 €
Paris, France
Pour le besoi de mon client ,je suis à la recherche d’ un profil expérimenté, autonome, avec des compétences DATA forte (Data analyst ou Data scientist senior) Analyser les parcours d’achat des usagers et leurs besoins dans différents types de gares. Construire une planification fiable des besoins en canaux de distribution à horizon 2027 à partir d’un modèle dynamique. Faire évoluer ce modèle vers un outil d’anticipation permettant de projeter les besoins par gare à moyen terme. Compétences attendues : maîtrise de Python, SQL, Excel et Power BI.
Freelance

Mission freelance
[SCH] Data Analyst Senior – Power BI - 1161

Publiée le

10 mois
350-390 €
Rennes, Bretagne
Télétravail partiel
Contexte de la mission : Accompagnement dans le déploiement de l’outil Self-Service BI. La mission consiste à apporter une expertise Data afin de structurer, déployer et faire adopter la solution Power BI, tout en assurant la gouvernance technique et la transition depuis les outils existants. Missions : -Affiner la feuille de route de déploiement du Self-Service BI -Apporter une expertise pour l’instanciation du socle technique -Accompagner le changement et l’adoption de l’outil auprès des équipes Data et métiers -Installer et administrer Power BI -Créer la documentation de prise en main -Mettre en place la gouvernance technique -Assurer la gouvernance des assets -Piloter le décommissionnement de l’outillage existant Profil recherché : Data Analyst senior disposant d’une forte expertise sur Power BI et intervenant sur des projets de déploiement de solutions de Self-Service BI, incluant les enjeux de gouvernance, d’adoption utilisateur et de transition d’outils décisionnels.
Freelance

Mission freelance
Data product Modélisation H/F

Publiée le
Database

3 ans
Paris, France
Télétravail partiel
La mission a pour objectif de faciliter la manipulation des données par les Data Analysts. Les Data Analysts ont besoin d'avoir des vues Métiers de données, des Data Product pour être plus efficace dans la phase de recherche des données. La mission repose sur la modélisation des objets Métiers pour constituer ces vues, ces data product Les taches de la mission: - Préparation, Organisation et Animation des ateliers avec les Métiers, les architectes fonctionnels... - Coordination et déclination des actions à faire - Définition du modèle des objets Métiers avec les données - Animation du comité de pilotage avec les slides de présentation et CR - Mise en œuvre opérationnelle de ces vues métiers - Accompagnement des utilisateurs à monter en compétence sur la plateforme *Analytics via ces vues métiers
CDD
CDI

Offre d'emploi
Proxy Product Owner Senior - Sophia Antipolis

Publiée le
MySQL
Spring

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte & Enjeux Dans le cadre d’un projet au sein d’une équipe multisite , nous recherchons un Proxy Product Owner Senior capable d’assurer la continuité opérationnelle et la coordination fonctionnelle entre les équipes métiers, techniques et produit. 🛠️ Missions principales Collaborer étroitement avec le Product Owner et le Product Manager pour construire et affiner la vision produit. Rédiger des User Stories claires et détaillées. Gérer et maintenir le backlog de l’équipe : priorisation, organisation, cohérence globale et roadmap. Garantir la bonne compréhension de chaque User Story tout au long de son cycle de vie : présentation pour estimation, support aux développeurs, validation fonctionnelle, suivi de la stratégie d’automatisation des tests, support aux analyses d’incidents en production. Assurer une synchronisation fluide avec les autres équipes du programme (feature teams, exploitation technique) via : PO Sync, ateliers de conception, comités d’architecture, PI Planning. 📄 Livrables attendus User Stories Dossier de spécification (Confluence) 🧩 Compétences requises Techniques : SQL : Confirmé – indispensable Spring : Junior – un plus apprécié Linguistiques : Français : courant – impératif Anglais : professionnel – souhaité
Freelance

Mission freelance
[LFR] Ops DATA controlling, Sénior à Guyancourt - 1166

Publiée le

10 mois
100-340 €
Guyancourt, Île-de-France
Télétravail partiel
OPS: Ingénierie d'exploitation Open Contexte de la mission Posséder une expertise des applications, des outils et des systèmes d'information afin de réaliser la majorité des activités de production informatique dans toutes les étapes du Cycle de vie Produit et dans tous les environnements (Prod et hors Prod). En charge de la fabrication et de l'exploitation au quotidien, avec une responsabilité de bout en bout (Build & Run), en collaboration avec les équipes de développement de l’entité. Expérience dans le métier d'ingénierie d'exploitation informatique. Contexte métier / technique L’OPS possède une bonne connaissance des chaînes de traitement en production. Il est le responsable du fonctionnement et de la continuité du service en relation avec l’entité. L’OPS possède une bonne connaissance de la technique d'exploitation. Il est responsable de la journée de production dans le respect des engagements de service de l'exploitation. Description de la mission La mission portera sur le suivi et le maintien en condition opérationnel des plans de productions des environnements DATA du LCL (Teradata, MongoDB, Cloudera). Une vigilance particulière sera apportée sur les compétences CTRLM du profil. Assurer la relation opérationnelle avec l'équipe de développement entité • Informer la Squad des actualités sur les sujets de fonctionnement • Participer aux rituels de la Squad selon les besoins/sujets du moment • Assurer la complétude des référentiels (y/c documentaires) • Gestion de bout en bout l'intégrité des DTA (Dossier Technique Application), déclinaison en opérations techniques (traitements et schéma d’enchainement) • Validation fonctionnelle et technique des procédures • Mise en place de la supervision et des consignes de production • Création du DEX (Dossier d’Exploitation) • Assurer le suivi des incidents techniques • Prendre en charge les METIS (Service Now) de la Squad (mise en relation des changements, incidents, niveaux de service) • Responsable de la qualité des informations saisies dans METIS (heure de résolution, cause/origine et responsabilité). • Coordonner l’ensemble des compétences et expertises nécessaires pour éradiquer les incidents et traiter les problèmes • Gérer les problèmes de son périmètre et être responsable des plans d’actions et des tâches assignés • Être force de proposition sur les engagements RSE (exemple : purge de données, réajustement des moyens techniques, décommissionnement), en lien avec le FinOps • S'appuyer sur les toutes les ressources mises à disposition (FinOps, Architectes, Outils et Développements, Socles, …) • Développer la posture service Accompagner les développeurs dans la fabrication des solutions • Mettre en place des éléments de surveillance et des consignes associées en collaboration avec le développeur • Exprimer des besoins d’automatisation de tâches techniques auprès de l’équipe Outils et Développement • Mettre en place les indicateurs d'observabilité et vérifier l'intégration des exigences de production et d’exploitation dans les développements Réaliser les actions de mise en production des solutions • Assurer les MEP et vérifier l'absence d'impact (y/c en HNO) • Évaluation des impacts des changements et la préparation des changements • Autorisation des changements en coordination avec l’entité cliente et les équipe Type de projet (support / maintenance / implementation /…) : Implémentation Type de prestation (Client / Hybrid / Remote) : Client Nombre de jours/semaine ou par mois chez le client : 3 jours / semaine
Freelance

Mission freelance
Consultant Technique SAP S/4HANA (Intégration & Data) H/F

Publiée le
API
Architecture
Idoc

6 mois
Montpellier, Occitanie
Télétravail partiel
Et si vous rejoigniez un programme S/4HANA qui compte vraiment ? Notre client, groupe industriel international , transforme en profondeur son écosystème IT autour de SAP S/4HANA. Un programme structuré, soutenu, avec une vraie vision long terme : qualité de la donnée, intégration inter-systèmes, alignement stratégique et excellence opérationnelle. Pour accompagner cette transformation, nous recherchons un Consultant Technique SAP S/4HANA passionné par l’intégration, la data et les architectures applicatives modernes. Ici, vous n’êtes pas une “ressource”. Vous devenez le référent technique d’un programme SAP à haute visibilité.
Freelance

Mission freelance
Master data management

Publiée le
Cybersécurité
Gestion de projet
Master Data Management (MDM)

3 mois
500-600 €
Yvelines, France
Télétravail partiel
Périmètre technique La Prestation s’inscrit dans le cadre du remplacement des outils Après-Vente et particulièrement sur les données à remplacer dans les nouveaux SI. Objet de la Prestation La Prestation consiste à - Concevoir, piloter et sécuriser l’architecture Master Data pour l’ensemble des données de l’après-vente (pièces de rechange, réseaux, client, pricing, logistique). - Garantir la qualité, la cohérence et la disponibilité des données afin de soutenir les processus métier (Order to Cash, Procure to Pay, Supply Chain, Customer Relationship Management). - Suivre et coordonner les projets de migration ou d’évolution (ex. passage à un MDM cloud). Missions Les livrables attendus du PRESTATAIRE sont : - Schéma d’architecture cible et roadmap de mise en œuvre (données, flux, référentiels, gouvernance). - Catalogue de données et dictionnaire des référentiels (produit, client, fournisseur, réseau) compatibles avec les standards RENAULT et l’écosystème digital (ERP, PIM, DMS, TMS, etc.). - Indicateurs de qualité (complétude, unicité, conformité) et rapports mensuels. - Vérification du respect RGPD et des exigences cybersécurité. - Mise en place la traçabilité et l’audit des données sensibles. - Plans de remédiation (nettoyage, dé-duplication, normalisation). - Mise en place des règles de gouvernance : ownership, rôles, workflow de validation. - Rédaction des spécifications techniques et fonctionnelles. - Tableau de bord sur l’état d’avancement des projets de migration ou d’évolution, avec point d’alerte en cas dysfonctionnement et solution proposée. - Dossier de capitalisation.
Freelance

Mission freelance
Data Engineer / Développeur Talend - Niort

Publiée le
Apache Maven
JIRA
Talend

2 ans
380-480 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Pour l'un de nos clients niortais, nous recherchons un data engineer / développeur talend : · Participer à l'évaluation de la charge de travail d'analyse et de réalisation, · Contrôler la qualité des développements, · Développer et maintenir, le cas échéant, les applications informatiques, · Participer aux tests d'intégration, · Rédiger les dossiers afférents aux phases précédentes, · Respecter les normes de développement et de planification, · Participer à l'industrialisation des applications, · Participer à la formation des utilisateurs.
Freelance
CDI

Offre d'emploi
Data analyst

Publiée le
Microsoft Power BI
Microsoft SSIS
SQL

12 mois
40k-44k €
370-400 €
Toulouse, Occitanie
Télétravail partiel
Nous mettons à disposition de différentes équipes des dashboards Power BI. Nous sommes autonomes sur toute la chaîne de liaison, incluant : -Récupération des besoins -Récupération de la donnée -Modélisation -Intégration de la donnée à l'entrepôt de données -Dashboarding -Livraison -Administration du service Power BI -Support et formation des utilisateurs aux dashboards Nous cherchons quelqu'un d'organisé, rigoureux, logique et doté d'un bon sens de communication (écoute et restitution) pour intégrer le pôle BI de 4 personnes. Votre travail consistera à : -Concevoir et développer les rapports attendus sur Power BI -Intégrer de nouvelles données dans notre entrepôt de données -Concevoir et développer des bases de données agrégées -Récupérer les nouveaux besoins -Intégrer ces données -Suivre les tâches dans Jira -Assurer le support sur les dashboards et répondre aux interrogations des utilisateurs Les rapports sont des dashboards à destination des équipes supports informatique : -Cycle de vie des incidents -Flux d'incidents entre les différentes équipes -Source de données : ITSM, Service Now
Freelance

Mission freelance
Data analyst

Publiée le
SQL

12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
CDI
Freelance

Offre d'emploi
Data web analyst

Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Microsoft SQL Server

1 an
43k-45k €
430-500 €
Île-de-France, France
Télétravail partiel
L’équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Prestations attendues : Déroulement des analyses : - Être à l’écoute et comprendre les besoins métier, - Proposer des méthodes et des axes d’analyses pertinents pour y répondre, - Tirer des enseignements et faire des recommandations en se basant sur les résultats de l’analyse - Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l’oral aux équipes métier - Communiquer régulièrement sur les résultats des analyses réalisées à l’ensemble de la direction Analyses pour enrichir l’animation et la stratégie éditoriales : - Profiling utilisateurs : par catégories de contenus, programmes, par chaines, par device … - Analyses de parcours : programmes ou catégories recrutants, fidélisants - Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation, … Analyses pour enrichir la stratégie produit : - Audit des données issues des nouvelles fonctionnalités - Analyse de l’usage des fonctionnalités, profiling - Analyse de l’impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement - Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus, … Dashboards : - Être référent sur les dashboards de connaissance utilisateurs - Garantir la maintenance et la bonne mise à jour des dashboards existants - Ajustement des existants (nouveaux indicateurs, modifications de calculs,…) - Être force de proposition sur les évolutions des dashboards existants - Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI - Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos, … Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : · Au moins 2 ans d’expérience sur des analyses de connaissance utilisateurs ou clients dans les secteurs de l’audiovisuel, du retail ou du ecommerce · Maîtrise avancée de SQL (au moins 2 ans d’expérience en SQL) · Maîtrise de Google Cloud Platform et maîtrise de Big Query · Connaissance de Power Bi · Connaissance des données issues de Piano Analytics · Connaissance de l’interface Piano Analytics · Connaissance de la mesure Mediametrie et des données Nielsen · Expérience dans le secteur audiovisuel sur des problématiques éditoriales · Expérience dans le secteur digital, ecommerce · Goût pour les contenus audiovisuels / vidéos · Capacité d’analyse, de synthétisation et de vulgarisation
Freelance

Mission freelance
Concepteur Développeur Big Data

Publiée le
Apache Spark
AWS Cloud
Azure

12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Freelance
CDI

Offre d'emploi
Data Engineer (15)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-470 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 DE) qui alimente le pilotage des offres numériques via le produit Data4All. Stack technologique : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, autres services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; accompagner les utilisateurs ; mettre en place le contrôle qualité des données. Concevoir et maintenir des modèles et pipelines robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables, sécurité et stabilité des environnements, workflows CI/CD. Gouvernance et documentation (qualité, fiabilité, intégrité), partage de bonnes pratiques et veille ; participation aux instances Data Ingénieurs.
Freelance

Mission freelance
Data Engineer Sénior (5 ans d’expérience minimum)

Publiée le
Azure

12 mois
380 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer autonome disposant d’au moins 5 ans d’expérience, capable de collecter, analyser et exploiter les données pour améliorer le pilotage des activités et identifier les leviers de création de valeur. Le consultant accompagnera également les équipes métier dans le développement, le déploiement et l’exploitation de solutions data afin d’atteindre leurs objectifs. Missions principales : – Collecter, préparer et structurer les données pertinentes pour les besoins des utilisateurs. – Construire et optimiser des pipelines ETL/ELT robustes et performants. – Analyser les données et produire des visualisations accessibles via les outils décisionnels. – Proposer des recommandations et lignes directrices pour créer de la valeur au sein des activités métier. – Accompagner l’optimisation des offres, services et processus grâce à l’analyse et l’évaluation des données. – Garantir la conformité aux règles d’éthique et de gouvernance du groupe. – Présenter les fonctionnalités des produits data et faciliter leur maintenance. – Réaliser des tests conformément à la stratégie définie. – Maintenir à jour le catalogue des produits data (datasets). – Fournir des kits de formation et des outils pour les utilisateurs. Résultats attendus : – Identification et sélection des données pertinentes pour les besoins opérationnels. – Optimisation du temps, des ressources et des outils dédiés à l’analyse de données. – Production de jeux de données et visualisations compréhensibles et accessibles. – Mise à disposition de recommandations métier génératrices de valeur. – Amélioration des processus, services et offres grâce aux analyses. – Application stricte des règles de gouvernance et d’éthique data. – Tests réalisés et conformes aux exigences. – Catalogue des datasets à jour. – Mise à disposition de supports et kits de formation pour les utilisateurs. Compétences requises en Data Engineering : – Modélisation de données : modèles relationnels, dimensionnels, Data Vault. – ETL / ELT : conception, optimisation et gestion des dépendances. – Gouvernance et qualité de données : data lineage, qualité, catalogage, gestion des métadonnées. – Architecture data : maîtrise des patterns modernes (Data Lakehouse, Data Mesh…). Langages : – SQL avancé – Python avancé – PySpark avancé Outils et technologies : – Dataiku – Power BI – Databricks – Azure Data Factory – Azure Logic Apps
1343 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous