L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 042 résultats.
Offre d'emploi
Consultant Senior Data Catalog Collibra (H/F)
ASTRELYA
Publiée le
Collibra
Data governance
IA
92800, Puteaux, Île-de-France
Votre mission : En tant que Consultant Data Catalog spécialisé Collibra, vous accompagnerez nos clients dans la structuration, l’opérationnalisation et la gouvernance de leur Data Catalog. Vous interviendrez sur des projets stratégiques visant à renforcer la maîtrise, la qualité et la valorisation des données, en vous appuyant sur les capacités avancées de Collibra Data Intelligence Platform. Votre rôle sera clé pour aider les organisations à déployer un Data Catalog robuste, gouverné, adopté et aligné avec les enjeux Data & IA Concrètement, vous allez : 1. Structurer & Opérationnaliser le Data Catalog · Définir la stratégie Data Catalog et accompagner les clients dans leur transformation Data Governance. · Paramétrer Collibra : communautés, domaines, rôles, workflows, policies, règles de qualité, operating model. · Concevoir et adapter le métamodèle Collibra : Data Domains, Data Sets, Data Elements, Data Owners, Stewards, modèles IA, indicateurs de qualité… · Mettre en place les connecteurs d’ingestion (Collibra Connect, Collibra Data Quality, ingestion automatisée). · Modéliser les objets métiers et assurer leur documentation dans Collibra. · Déployer les workflows de gouvernance (validation, certification, demandes d’accès, gestion des changements). 2. Assurer la valorisation & l’adoption du Data Catalog · Définir et déployer les cadres de Data & AI Governance. · Structurer les Data Domains, Data Objects, Data Contracts, glossaires métier et usages IA. · Accompagner les Data Owners, Stewards et équipes IT dans la prise en main de Collibra. · Concevoir des parcours d’acculturation : formations, vidéos, kits, communautés Data, webinaires. · Promouvoir les bonnes pratiques d’usage et faire évoluer la culture Data. Votre futur environnement de travail : · Data Catalog : Collibra (Data Governance, Data Quality, Lineage, Workflow, Operating Model). · Outils de documentation & IA Responsable : Model Cards, risk matrices, AI Act traceability. · Outils collaboratifs : Notion, Miro.
Mission freelance
Data Engineer
SKILL EXPERT
Publiée le
DBT
Microsoft Power BI
Python
6 mois
450 €
Bordeaux, Nouvelle-Aquitaine
A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : • Effectuer des alimentations de données, • Travailler en binome avec un Data Analyst sur un sujet IA/Data. • Travailler autour d'agent IA pour du requetage SQL en langage naturelle • Mise à dispo d'outillage d'aide aux développement, monitoring… , • Faire une veille technologique autour des architectures data,
Mission freelance
Chef de projet Data / Analytics Engineer Senior
MEETSHAKE
Publiée le
Data Engineering
DBT
Modélisation
2 mois
La Défense, Île-de-France
Contexte Dans le cadre d’une refonte de la stack Data , un acteur de grande taille a engagé la construction from scratch d’un nouveau Datawarehouse basé sur une architecture Médaillon , suite au rapprochement de plusieurs périmètres métiers. Les travaux ont démarré il y a moins d’un an et le projet arrive dans sa phase finale. Objectifs de la mission Nous recherchons un Analytics Engineer expérimenté pour intervenir en renfort et accélérer le delivery sur la fin du projet. Les objectifs principaux sont : Accélérer la livraison des modèles de données Fiabiliser et sécuriser les pipelines existants Contribuer fortement à la modélisation fonctionnelle des données Exploiter les données issues du Data Lake vers le Datawarehouse Environnement technique Data Lake / Data Warehouse : Databricks Transformations : DBT Data Catalog : outil de catalogage data Versioning : Git Missions principales Concevoir et maintenir des modèles de données analytiques avec DBT Travailler à partir du Data Lake existant Garantir la qualité, la cohérence et la fiabilité des données Collaborer étroitement avec l’équipe Analytics Engineering et les parties prenantes métiers Documenter et industrialiser les modèles livrés
Mission freelance
Business Analyst Data / MLOps – Plateformes Data Science (H/F)
CELAD
Publiée le
1 an
600-680 €
Paris, France
Contexte de la mission Vous intervenez au sein d’une Squad dédiée à la mise en place et à l’exploitation des outils Data Science et MLOps utilisés par les équipes Data (Data Scientists, Data Engineers) d’un grand groupe bancaire (réseau de 39 entités). Le périmètre couvre : Une plateforme Big Data basée sur Cloudera Des outils open source Data Science : JupyterLab, TensorFlow, librairies Python Un portail de services facilitant l’accès aux ressources Data Des services associés (accès aux données SI, environnements de travail, composants MLOps) Vous êtes un point central entre les utilisateurs métiers Data et les équipes techniques. Missions principales 1. Analyse fonctionnelle & cadrage Recueillir et analyser les besoins des utilisateurs (Data Scientists, Data Engineers) Animer des ateliers de cadrage et de conception Traduire les besoins en spécifications fonctionnelles et user stories Maintenir une documentation claire et exploitable 2. Pilotage de projets Data / MLOps Piloter les projets liés aux plateformes Data et outils IA Coordonner les équipes techniques et les parties prenantes Assurer le suivi des livraisons et des dépendances Contribuer à la roadmap produit avec le Product Owner 3. Gestion du backlog & Agile Rédiger et prioriser les user stories dans Jira Gérer le backlog produit et suivre son avancement Participer aux rituels Agile (daily, sprint planning, reviews) 4. Tests & qualité Concevoir et exécuter les campagnes de tests fonctionnels Rédiger les plans de tests et scénarios de recette (XRAY) Identifier, analyser et suivre les anomalies Garantir la qualité des livraisons 5. Gestion des risques & conformité Analyser les risques métiers liés aux solutions Data Travailler avec les équipes SSI, conformité et juridique Intégrer les contraintes réglementaires : RGPD, gouvernance des données Assurer la conformité des usages Data (sécurité, confidentialité, éthique) 6. Accompagnement des utilisateurs Produire la documentation fonctionnelle et supports de formation Assurer l’assistance fonctionnelle aux utilisateurs (Caisses Régionales) Accompagner les migrations et la conduite du changement 7. Amélioration continue Collecter les feedbacks utilisateurs Analyser les usages et proposer des optimisations Contribuer à l’évolution des plateformes et services Environnement technique Big Data : Cloudera, Hadoop ecosystem Data Science : Python, TensorFlow, JupyterLab Requêtage : SQL / HQL Outils : Jira, XRAY Méthodologie : Agile Contexte : SI bancaire, plateformes Data & MLOps Accès aux données Accès à des données à caractère personnel via plateforme ZEUS (en production) Respect strict des règles de sécurité, confidentialité et conformité
Mission freelance
Expert Data Engineer – Looker Core
Nicholson SAS
Publiée le
BigQuery
IA
Legacy System Migration Workbench (LSMW)
6 mois
700-850 €
Paris, France
Contexte de la mission Dans le cadre d’un projet stratégique de migration vers le Cloud (« Data Move To Cloud »), vous rejoignez une entité majeure du secteur du transport aérien. Votre rôle sera d’évaluer et d’accompagner l’adoption de Looker Core comme futur standard de Dataviz du groupe. Missions principales Accompagnement de POCs : Piloter le développement technique et soutenir les équipes métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique et structurant sur l'architecture, la sécurité et l'optimisation FinOps liées à l'outil. Acculturation & Pédagogie : Former les utilisateurs finaux et assurer l'interface technique avec les équipes IT (Ops, Architectes). Étude Stratégique : Évaluer la capacité de Looker à répondre aux nouveaux enjeux (analyses ad-hoc, IA conversationnelle) et sa pertinence pour remplacer les solutions legacy (SAP BO, Spotfire). Informations pratiques Lieu : Paris (Rythme hybride : 2 à 3 jours de télétravail / semaine). Démarrage : ASAP. Durée : Jusqu’au 11/11/2026 (Visibilité long terme). TJM : Selon profil (séniorité et expertise) Note : Looker Studio est hors périmètre. Le client cherche un profil expert en Looker Core/ LookML. Looker Studio et ses dérives ne rentrent pas en perspective.
Offre d'emploi
Data Engineer Databricks
Atlanse
Publiée le
Databricks
Python
SQL
1 an
50k-60k €
400-500 €
Châtillon, Île-de-France
Vous intégrerez une équipe, responsable de la migration de traitements existants depuis une plateforme on premise vers une plateforme Data Cloud basée sur Azure et Databricks. Dans ce contexte, vous interviendrez sur la conception et la structuration des traitements data. Votre rôle Conception et développement de solutions data · Concevoir les architectures techniques nécessaires pour la valorisation des données · Concevoir les solutions permettant le traitement des données · Réaliser les croisements de données nécessaires ainsi que les opérations de validation, correction et contrôle qualité · Apporter une expertise technique pour développer les solutions data appropriées aux différents cas d'usage Gouvernance et gestion de la donnée · Structurer les données en intégrant les enjeux de cycle de vie · Identifier et qualifier les sources de données pertinentes · Garantir la cohérence et la qualité de l'intégration des données · Veiller au respect des exigences de traitement et de sécurité sur les données · Suivre et référencer l’usage des données Documentation et collaboration · Documenter et maintenir à jour les référentiels et catalogues de données · Travailler en collaboration avec les Architectes d'Entreprise Data
Offre d'emploi
Data Engineer
Signe +
Publiée le
24 mois
40k-45k €
286-450 €
Niort, Nouvelle-Aquitaine
Mission : Un profilData ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d'une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d'amélioration continue -Participation active aux rituels agiles 3j/semaine sur site Compétences techniques requises : Azure Databricks PySpark Delta Lake Python
Offre d'emploi
Ingénieur SRE (H/F)
RIDCHA DATA
Publiée le
Ansible
AWS Cloud
Azure
1 an
40k-45k €
400-500 €
La Défense, Île-de-France
🧩 Contexte de la mission Dans un environnement complexe et exigeant, vous intervenez au sein d’une équipe SRE (Site Reliability Engineering) afin d’assurer la fiabilité, la performance et la disponibilité de plateformes critiques en production. Le projet s’inscrit dans un contexte de transformation et d’industrialisation des systèmes, avec une forte orientation vers l’automatisation, la qualité de service et l’amélioration continue. 🎯 Vos missions principales Rattaché(e) au responsable SRE, vous intervenez sur les activités suivantes : Assurer la gestion opérationnelle des applications critiques en haute disponibilité Participer à la maintenance et à l’évolution des plateformes techniques (environnements Linux, Docker, Kubernetes) Gérer des environnements hybrides (Cloud & Data Center privé) Contribuer à la sécurisation des plateformes (design, configuration, implémentation) Développer et améliorer des outils liés à la production Optimiser le monitoring technique et fonctionnel des plateformes Garantir le maintien en condition opérationnelle (MCO) et la performance des systèmes Gérer les incidents, évolutions et reporting dans le respect des SLA Participer à la mise en production via des tests automatisés (unitaires, fonctionnels, smoke tests) Apporter un support technique aux équipes internes et utilisateurs Participer aux astreintes (support 24/7) 🛠️ Compétences requises ✔️ Techniques Développement (niveau confirmé) SRE / Production Engineering (confirmé) Environnements Linux / UNIX Conteneurisation : Docker, Kubernetes Outils : Git, Jenkins, Ansible / Saltstack Cloud : AWS / Azure Monitoring : Grafana, Zabbix, Nagios Scripting : Bash Notions en réseaux distribués ➕ Atouts Kubernetes (certification CKA appréciée) Java / SQL Architecture API Normes ITIL / Sécurité SI (ISO 27001) Connaissances en cryptographie / PKI
Offre d'emploi
Chargé de projets SI et data H/F
HAYS France
Publiée le
50k-65k €
75001, Paris, Île-de-France
Rattaché à la Direction Financière, le chargé SI & Data est le référent technique de l'entreprise sur l'ensemble du périmètre informatique. Véritable profil couteau-suisse, il intervient aussi bien sur la gestion de la donnée que sur l'architecture des logiciels métiers, l'infrastructure réseau du siège et la gestion du parc matériel. Il est l'interlocuteur(trice) de confiance des équipes internes pour tout sujet lié aux systèmes d'information. Data Collecter, structurer et fiabiliser les données issues des différents systèmes (ventes, opérations, RH, finance) Mettre en place et maintenir les outils de reporting et de visualisation de données (dashboards, tableaux de bord) Accompagner les équipes métiers dans l'exploitation et l'analyse de leurs données Logiciels et architecture SI Administrer et maintenir les logiciels métiers du siège (ERP, CRM, outils de caisse, plateformes SaaS) Gérer les intégrations entre les différentes applications et assurer la cohérence de l'architecture SI Piloter les projets de déploiement ou de migration logicielle : cahier des charges, suivi prestataires, recette Infrastructure réseau Administrer et superviser l'infrastructure réseau du siège (LAN, Wi-Fi, VPN, pare-feu) Assurer la disponibilité, la performance et la sécurité des connexions et des accès Gérer les accès utilisateurs, les droits et les politiques de sécurité informatique Parc matériel Gérer le parc informatique : ordinateurs, serveurs, terminaux de caisse, tablettes, périphériques Assurer les achats, la configuration, le déploiement et le renouvellement du matériel Mettre en place et suivre l'inventaire du parc et les contrats de maintenance associés
Offre d'emploi
Lead data engineer H/F
HAYS France
Publiée le
45k-50k €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer de nouveaux pipelines et transformations de données à partir de spécifications fonctionnelles Créer, maintenir et faire évoluer des rapports et tableaux de bord Power BI Optimiser les performances des traitements et des modèles de données Analyser et corriger les incidents techniques sur les flux de données et les tableaux de bord Garantir des délais de résolution adaptés, notamment pour les incidents bloquants liés aux données clients Assurer le suivi des tickets de bugs et produire un reporting clair à destination du management Animer les revues de code hebdomadaires pour l'ensemble de l'équipe data Accompagner techniquement et méthodologiquement les développeurs plus juniors Être force de proposition et interlocuteur technique de référence pour l'équipe Reprendre temporairement le périmètre d'un autre développeur en cas d'incident, d'urgence ou d'évolution critique Garantir la continuité opérationnelle du RUN data
Mission freelance
consultant SAP MM / ML / LE
W Executive France SAS
Publiée le
SAP
3 ans
Paris, France
Bonjour, je recherche pour l'un de mes clients un(e) consultant(e) SAP MM / ML / LE . Skills : MM - ML - LE - anglais Mission : -intervenir sur les modules Materials Management (MM), Material Ledger (ML) et Logistics Execution (LE) -participer aux projets de transformation digitale et déploiement SAP -analyser les besoins métiers (achats, logistique, transport) -configurer et paramétrer SAP MM, ML et LE -gérer les flux d’approvisionnement et de transport -assurer les phases de test et de recette -former et accompagner les utilisateurs N'hésitez pas à revenir vers moi pour des informations complémentaires.
Offre d'emploi
Data Quality Analyst h/f
Ela Technology
Publiée le
Alteryx
Batch
ETL (Extract-transform-load)
6 mois
Seine-Saint-Denis, France
🎯 Contexte & Enjeux Dans le cadre d’un programme de transformation d’envergure autour des processus KYC , une équipe dédiée à la qualité des données intervient au cœur du dispositif pour sécuriser la migration vers un outil cible commun et garantir l’intégrité des données entre plusieurs systèmes historiques. L’enjeu est double : accompagner les déploiements tout en assurant une continuité opérationnelle sans rupture , dans un environnement international et fortement industrialisé. Suite à un départ à la retraite programmé en milieu d’année , une mission clé est ouverte afin d’assurer la reprise, la stabilisation et l’évolution des processus existants. 🚀 Mission Au sein de l’équipe Data Quality, vous êtes garant(e) de la fiabilité des données , du bon déroulement des réconciliations et de la continuité de la chaîne de valeur , depuis les systèmes legacy jusqu’à la solution cible. Votre mission s’articule autour de deux piliers équilibrés : 🧩 50 % Développement | ⚙️ 50 % Production & Pilotage opérationnel Vos responsabilités principales Qualité & Migration des données Piloter les réconciliations quotidiennes , en mode run the business , pour assurer un flux de données continu. Piloter les réconciliations hebdomadaires , préparer et suivre les indicateurs de performance (KPI) . Superviser les processus de bulk permettant la remédiation des données dans l’outil cible. Garantir la conformité des données migrées tout au long du programme. Développement & Maintenance Maintenir, faire évoluer et sécuriser un socle VBA existant (lecture, débogage, amélioration, mises en production). Assurer la stabilité et la traçabilité des évolutions de code. Environnement collaboratif Assurer l’ administration et la migration de SharePoint vers la version Online : Organisation documentaire Gestion des accès et permissions Migration des environnements et livrables. Gouvernance & Continuité opérationnelle Être le/la garant(e) de la rigueur opérationnelle , du respect des SLA et des processus. Veiller à ne jamais interrompre l’activité des Task Forces internationales (Inde & Portugal). Documenter les procédures et accompagner la structuration des processus pérennes vers l’architecture cible.
Offre d'emploi
Développeur Data industrelle/MES H/F
VIVERIS
Publiée le
45k-55k €
France
Contexte de la mission : Dans le cadre de la transformation digitale de ses activités industrielles, notre client, acteur majeur du secteur pharmaceutique, renforce ses équipes en charge des systèmes de gestion de production (MES) et de la valorisation des données industrielles. La mission s'inscrit au sein d'un environnement de production exigeant, avec des enjeux forts autour de la traçabilité, de la performance industrielle et de l'exploitation de données en temps réel. Le consultant interviendra en lien avec les équipes IT, les équipes métiers (production, qualité) ainsi que les systèmes industriels.L'environnement technique repose notamment sur un historian industriel (AspenTech IP.21) permettant de collecter, historiser et exploiter les données issues des équipements de production. Des développements spécifiques sont nécessaires afin de répondre aux besoins métiers en matière de reporting, d'analyse et d'intégration avec les systèmes existants. Responsabilités : Intervenir sur des activités de développement et de gestion des données industrielles, avec un rôle clé dans leur exploitation et leur valorisation Etre en charge de la conception et du développement de requêtes et scripts permettant d'extraire, transformer et structurer les données issues du système IP.21 Contribuer à l'optimisation des performances des traitements et à la fiabilisation des flux de données Participer à la compréhension des besoins fonctionnels et à leur traduction en solutions techniques adaptées Intervenir sur des sujets d'intégration avec d'autres systèmes (MES etc.).
Offre d'emploi
Business Analyst Data F/H
AIS
Publiée le
Business
1 mois
42k-52k €
260-520 €
Nantes, Pays de la Loire
Intégré(e) aux équipes d'un de nos clients grand compte, vous interviendrez sur un projet de déploiement d'une fonctionnalité "Talk to your data", permettant aux collaborateurs d'interroger les données en langage naturel grâce à un AI Agent (LLM) capable de générer automatiquement des requêtes SQL fiables. La mission se concentre sur le backend et la couche sémantique, garantissant la qualité, la cohérence et la pertinence des requêtes générées par l'IA. Le détail de vos missions sera le suivant : - Assurer l'alignement entre les besoins métiers et les capacités du data product. - Garantir la cohérence fonctionnelle et la qualité globale de la plateforme. - Collaborer avec les équipes sources pour clarifier les besoins et garantir la disponibilité des données. - Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités. - Participer à la rédaction des user stories et à la définition des fonctionnalités. - Contribuer à la planification des releases. - Prioriser les features et ajuster le périmètre au fil des itérations. - S'assurer que les user stories sont prêtes pour le développement et alignées avec la roadmap. - Valider ou rejeter les livrables selon les critères d'acceptation. - Contribuer à la création et à l'exécution des cas de test. - Valider les modèles de données et leur adéquation aux besoins analytiques. - Participer aux contrôles de qualité des données et aux tests fonctionnels. Environnement technique : - SQL - Snowflake - Modélisation de données - Data quality, tests et validation - Concepts AI / GenAI - Projet data-driven - Excel - Méthodologie : Agile (Scrum) - Langues : Anglais (Courant - Niveau C1)
Mission freelance
Expertise en sécurité des données / Data Protection(H/F)
Freelance.com
Publiée le
Cybersécurité
3 ans
100-500 €
Toulouse, Occitanie
🔐 Contexte & Objectifs Au sein d’une direction sécurité, vous intervenez sur des projets stratégiques liés à la protection des données sensibles et à la sécurisation des environnements collaboratifs . Vous évoluez dans un contexte international avec une collaboration étroite avec des équipes basées à Porto. ⸻ 🎯 Vos missions Pilotage des projets de protection des données Analyse de sécurité et gestion du RUN Déploiement et exploitation de solutions DSPM (Varonis) Sécurisation des environnements Microsoft 365 Gestion des accès et campagnes de revue Suivi des incidents et remédiation (N2/N3) Production de livrables sécurité (guides, standards) Mise en place de tableaux de bord et reporting Veille technologique sur les solutions de sécurité ⸻ 🛠️ Environnement technique Microsoft 365 / O365 Microsoft Purview Azure / Entra ID ADRMS / DKE Varonis SailPoint Splunk PowerShell / Power BI / Power Apps / Python
Offre d'emploi
Data analyst (Databricks) H/F
HAYS France
Publiée le
La Ferté-Bernard, Pays de la Loire
Vos responsabilités incluent notamment : Concevoir et développer un modèle de données global pour le périmètre France Exploiter les bases de données Corporate sous Databricks (couche Silver) Réaliser les transformations de données jusqu'à la couche Gold Consolider des données métiers variées : Finance, Comptabilité, Logistique, Qualité, Production, RH Participer à la conception des modèles analytiques, au développement des indicateurs, ratios financiers et KPI métiers Développer et maintenir des dashboards Power BI à destination des équipes opérationnelles et managériales Contribuer à la standardisation, à la fiabilité et à la gouvernance de la donnée au niveau France Collaborer étroitement avec le futur profil Contrôle de Gestion / BI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6042 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois