L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 307 résultats.
Offre d'emploi
Expert Collibra - Senior Data Management - Data Governance Lead Collibra ; MDM ; DAMA / DCAM
Inventiv IT
Publiée le
Collibra
Data governance
IA
6 mois
60k-70k €
600-700 €
Île-de-France, France
Data Management Lead - Chef de projet - Senior Data Management / Data Governance Lead Collibra ; MDM ; DAMA / DCAM - réglementations Data & IA (IA Act) Conduite de programme Data complexe – environnement grand groupe. 10+ ans en Data Management / Data Governance ET GESTION DE PROJETS COMPLEXES Pilotage de programmes data transverses Contexte multi-métiers, réglementé Data Management & Gouvernance Gouvernance de la donnée (DAMA / DCAM) Data catalog, glossaire, dictionnaire de données Données de référence (MDM), qualité de la donnée Cycle de vie, linéage, classification des données Outil clé : Collibra (expert) Certification DAMA appréciée – pas nécessaire
Offre d'emploi
Directeur Engineering – Distribution (H/F)
CITECH
Publiée le
Architecture
Cloud
6 mois
60k-70k €
450-550 €
Paris, France
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet stratégique à forte visibilité, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Directeur Engineering – Distribution (H/F) 🚀 💡 Votre mission est pour un client acteur majeur du secteur Travel & Hospitality , dont l’objectif est de concevoir et faire évoluer des plateformes technologiques de distribution permettant de connecter produits, partenaires et marchés à grande échelle. Vous interviendrez au cœur d’un environnement technologique complexe et international, afin de piloter les équipes d’ingénierie responsables des systèmes de distribution et des intégrations avec les plateformes partenaires (CRS, APIs, connecteurs, flux de données) . Votre rôle consistera à définir la stratégie technique, concevoir des architectures scalables et accompagner les équipes dans la livraison de solutions performantes et fiables . 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Piloter et encadrer les équipes d’ingénierie dédiées aux systèmes de distribution. 🔸 Définir et mettre en œuvre la stratégie technologique des plateformes de distribution en alignement avec les enjeux business. 🔸 Concevoir et valider des architectures techniques robustes, performantes et scalables pour des plateformes à fort trafic. 🔸 Superviser les intégrations avec les CRS, APIs partenaires, connecteurs tiers et flux de données . 🔸 Garantir la cohérence et l’interopérabilité des systèmes de distribution avec l’écosystème technique global. 🔸 Collaborer étroitement avec les équipes Produit, partenaires CRS, équipes commerciales et support afin de prioriser les roadmaps et assurer la livraison des projets. 🔸 Assurer la gestion des performances, de la disponibilité et de la scalabilité des plateformes. 🔸 Superviser la gestion des incidents critiques et mettre en place des solutions durables. 🔸 Identifier des opportunités d’innovation technologique et piloter l’amélioration continue des systèmes. 🔸 Gérer les relations techniques avec les partenaires externes et les fournisseurs de solutions de distribution.
Mission freelance
POT8947 - Un Développeur Mobile / Data Engineering sur Chatillon
Almatek
Publiée le
SQL
6 mois
250-330 €
Châtillon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients Un Développeur Mobile / Data Engineering sur Chatillon. Description détaillée 1) Développement mobile -Assurer la maintenance évolutive et corrective d’une application mobile en React Native. -Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité). -Implémenter de nouvelles fonctionnalités et les tests associés, en suivant une démarche Clean Code (sécurité, maintenabilité). 2) Data Engineering -Concevoir, développer et implémenter des solutions Big Data Analytics. -Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake. -Développer des notebooks avancés sous Databricks (SQL, Framework Spark). -Rédiger la documentation technique (DAT, release notes, etc.). -Réaliser les tests unitaires et assurer la qualité des livrables. -Contribuer à la maintenance évolutive et corrective des traitements. -Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés. Profil recherché -Expérience confirmée en développement d’applications React Native en production (minimum 5 ans). -Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (minimum 3 ans). -Maîtrise des APIs REST. -Bonne connaissance de Git et première expérience en CI/CD / DevOps. **Compétences techniques** -React Native – Expert – Impératif -Databricks – Confirmé – Impératif -Spark – Confirmé – Impératif -SQL – Confirmé – Impératif Localisation : Chatillon + 2 jrs de TT
Offre d'emploi
Expert Data & Cloud Azure (H/F)
Amiltone
Publiée le
Azure
Cloud
40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Intégré à nos équipes sur notre Factory ou chez nos clients, nous recherchons un Expert Data & Cloud Azure : Objectifs de la mission - Migrer une application data existante vers une architecture cloud Azure moderne - Améliorer les performances, la sécurité et la supervision - Mettre en place des pipelines data robustes et automatisés - Garantir la fiabilité et la maintenabilité de la solution Responsabilités principales - Analyser l'existant et définir l'architecture cible sur Azure - Concevoir et implémenter des pipelines ETL / ELT avec Azure Data Factory / Fabric - Migrer les données et traitements Oracle vers le cloud - Mettre en place les bonnes pratiques DevOps (CI/CD) via GitLab et/ou Azure DevOps - Assurer la supervision des flux et plateformes (monitoring, logs, alertes) - Implémenter les mécanismes de sécurité (RBAC, chiffrement, conformité) - Moderniser et automatiser les scripts et traitements legacy - Rédiger la documentation technique et accompagner le transfert de compétences Compétences techniques requises - Excellente maîtrise de Microsoft Azure - Azure Data Factory / Fabric - Services data et intégration cloud - Forte expérience en migration de solutions data vers le cloud - Expertise confirmée sur bases de données Oracle - Bonne connaissance des pratiques CI/CD et DevOps - Expérience en supervision et sécurisation d'applications cloud
Mission freelance
Ingénieur Data & IA Générative (H/F)
Link Consulting
Publiée le
Python
RAG
Rest
12 mois
500-600 €
31860, Pins-Justaret, Occitanie
Notre client, acteur innovant en pleine transformation digitale, recherche son futur Ingénieur Data & IA Générative (H/F) afin de concevoir et déployer des solutions d’IA agentique connectées aux systèmes d’information de l’entreprise. L’objectif : automatiser et optimiser des processus métier grâce à l’intelligence artificielle, en construisant des systèmes capables d’interagir avec les données, les applications internes et les utilisateurs. Vos missions : Intégré à une équipe technique en pleine évolution, vous interviendrez sur des projets à forte dimension data, IA et automatisation : * Concevoir et développer des agents IA basés sur des LLM * Construire des systèmes agentiques (mono-agent ou multi-agents) capables d’interagir avec les outils métiers * Développer des assistants conversationnels et automatisations intelligentes * Concevoir des pipelines de données fiables pour alimenter les modèles et les applications * Connecter les APIs internes et externes aux systèmes IA * Mettre en place l’accès sécurisé aux bases de données et aux systèmes d’information * Orchestrer des workflows intelligents et automatisés * Développer des mini-applications internes (low-code / no-code) à forte valeur ajoutée pour les équipes métiers * Garantir la qualité, la sécurité et la gouvernance des données Les compétences techniques ### Langages & outils * Python (indispensable) * SQL avancé * APIs REST * Zoho (apprécié) ### IA & systèmes agentiques * LLM (OpenAI ou modèles open source) * RAG * Prompt engineering * Orchestration d’agents ### Data & infrastructure * Bases SQL (PostgreSQL, MySQL, SQL Server…) * Construction de pipelines data * Docker (apprécié) ### Sécurité * RBAC * Gestion des accès * Authentification * Bonnes pratiques cybersécurité
Offre d'emploi
Consultant Junior Data Strategy F/H
COEXYA
Publiée le
35k-45k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Dans un monde où l'innovation est un levier de performance, la transformation numérique ne se limite plus à l'adoption de nouvelles technologies. Elle repose sur des stratégies data claires, une gouvernance des données structurée, et une capacité à aligner les enjeux métiers, organisationnels et technologiques. Chez Coexya Consulting, nous sommes convaincus que la donnée est un actif stratégique au service de la transformation des organisations. Pour accompagner la croissance de notre practice Data Strategy, nous recherchons un Consultant Junior Data Strategy F/H, désireux de développer une expertise en gouvernance des données, data management et accompagnement des métiers. CE QUE L'ON VOUS PROPOSE En lien avec le responsable opérationnel de la practice Data Strategy, vos missions sont les suivantes : - Contribuer aux missions de conseil en Data Strategy et Data Gouvernance auprès de nos clients, de la phase de cadrage jusqu'à l'opérationnalisation. - Participer à la définition de cadres de gouvernance des données. - Contribuer aux diagnostics de maturité data, à l'identification des irritants métiers et à la construction de feuilles de route data. - Intervenir sur des sujets de Data Management : catalogage, glossaires métiers, métadonnées, qualité des données, référentiels MDM. - Participer à l'animation d'ateliers métiers. - Produire des livrables de conseil. - Contribuer au développement de l'offre Data Strategy. - Participer ponctuellement aux avant-ventes : contribution aux propositions commerciales, supports de soutenance.
Offre d'emploi
Lead DevOps (CKAD)
Craftman data
Publiée le
Argo CD
Docker
FLUXCD
1 an
46k-60k €
500-700 €
Le Havre, Normandie
Rôle attendu Référent technique opérationnel de la squad DevOps, responsable de l’implémentation des pipelines CI/CD et de la démarche GitOps. Missions principales · Mise en œuvre et maintien des pipelines CI/CD · Déploiement d’une approche GitOps (ArgoCD / FluxCD) · Industrialisation des builds, tests, déploiements et rollbacks · Structuration des repositories GitOps · Supervision technique des ingénieurs DevOps Compétences requises · Jenkins, GitHub Actions, GitLab CI · ArgoCD, FluxCD · Docker (multi-stage builds) · Helm (charts, templating, hooks) · Vault, External Secrets · SonarQube, tests automatisés GitLab CI, Nexus, Root-Ceph
Offre d'emploi
TECH LEAD DATA (H/F)
WE +
Publiée le
Agile Scrum
AWS Cloudwatch
AWS Glue
9 mois
Roissy-en-France, Île-de-France
Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs. => Pilotage technique du Datalake AWS CAP 2.0 Ingestion et transformation des données Gouvernance, qualité et bonnes pratiques Management de projets et méthodologies BI, reporting & outils analytiques TMA, incidents et opérations Monitoring, FinOps & optimisation Profil & atouts clés : ▪Expérience de projets technique au sein d’environnements complexes (minimum 5 ans) ▪Capacité à piloter une équipe de développement internationale ▪Capacité à challenger les développements, à solutionner les problématiques rencontrées ▪Solide expertise Cloud AWS et architectures data modernes ▪Maîtrise des concepts de Data Mesh et des bonnes pratiques de gouvernance ▪Vision globale : technique, fonctionnelle, projet, qualité, budget ▪Capacité à structurer, documenter, rationaliser et optimiser les environnements data ▪Aptitude à la synthèse et à la communication claire avec les équipes techniques et métiers ▪Approche orientée performance, fiabilité et amélioration continue ▪Anglais lu, écrit, parlé
Mission freelance
Experienced DATA ENGINEER / TECH LEAD
Codezys
Publiée le
Data management
SQL
12 mois
Toulouse, Occitanie
Contexte de la mission Nous sommes à la recherche d’un(e) expert(e) en gestion de projets techniques, combinant compétences en ingénierie de données, SQL, ETL, et en outils de reporting, pour intervenir sur un secteur crucial lié à la gestion des données du cargo. La mission concerne principalement la manipulation, le chargement et la raffinage de données dans un datawarehouse dédié au domaine du cargo, en particulier pour les filiales d’Air France et KLM (AF&KL). Le(la) candidat(e) retenu(e) aura pour responsabilité d’assister l’équipe dans la maintenance des flux de données existants ainsi que dans le développement de nouvelles fonctionnalités. Il/elle participera activement aux projets en cours, apportant son expertise pour corriger d’éventuels dysfonctionnements et enrichir les solutions existantes. La mission nécessite une capacité à comprendre les enjeux métiers liés au transport de fret aérien et à traduire ces exigences en solutions techniques robustes et efficaces. L’équipe cible est composée de 8 professionnels, ce qui implique une forte collaboration et une communication fluide pour assurer la cohérence et la qualité du livrable dans un contexte dynamique et en constante évolution.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
PROPULSE IT
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Offre d'emploi
Business Analyst IT Data AML/KYC Automation Luxembourg
Cogniwave dynamics
Publiée le
AML (Anti-Money Laundering)
Big Data
Know your customer (KYC)
1 an
Luxembourg
Pour une mission long terme sur Luxembourg , nous recherchons un BA IT Data compliance Automation Poste en CDI au Luxembourg de préférence : Salaire + Bonus à discuter Ouvert aux freelances (3/4 jours sur site par semaine) -Possible part time sur Paris à discuter Au sein de l’équipe IT Data Compliance Automation, vous intervenez sur un projet stratégique d’automatisation de la révision des dossiers de conformité AML/KYC Vous êtes au cœur de la transformation digitale de la fonction Compliance, en combinant technologies de pointe ( RPA, Intelligence Artificielle, OCR ) et expertise métier pour accélérer et fiabiliser les processus de révision client. MISSION Pilotage projet (Business Analyst) • Étude de l’existant : Analyser les processus existants via des ateliers métiers et de la documentation • Définition de la cible : Concevoir les processus et outils cibles, identifier les écarts fonctionnels • Cadrage fonctionnel : Rédiger les dossiers d’exigences et les expressions de besoins • Support IT : Accompagner les équipes de développement durant les phases techniques • Tests & recette : Concevoir et exécuter les plans de tests, coordonner la recette métier • Conduite du changement : Créer les supports de formation, animer les sessions, accompagner les utilisateurs Support applicatif (Run) • Support N2/N3 : Traiter les incidents et demandes des équipes opérationnelles • Investigation : Reproduire les anomalies, investiguer en base de données, diagnostiquer • Maintenance : Assurer le suivi des maintenances correctives et évolutives • Releases : Coordonner et communiquer les releases applicatifs • Amélioration continue : Proposer et mettre en œuvre des actions d’optimisation
Mission freelance
Data Engineer - IA (Bordeaux)
Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT
12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Offre d'emploi
CHEF DE PROJET DATA
UCASE CONSULTING
Publiée le
Azure
Microsoft Power BI
3 ans
40k-60k €
400-620 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un chef de projet data. La mission consiste à renforcer une équipe de Chefs de projets Data pilotant des portefeuilles projets pour le compte de nos clients. 1.2 Contexte de la prestation La prestation faisant l’objet de cette consultation correspond à une régie reconductible (Pilotage de projet). Au sein de la Direction de notre client, vous intégrerez la Factory Data & IA. 2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Chef de Projet Data et BI. Vous interviendrez en tant que responsable d’un projet sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes ainsi que leur visualisation via PowerBI ou Qlik. Le projet doit tourner autour de plusieurs axes stratégiques dont le chef de projet aura comme responsabilité de construire la roadmap sur 3 à 4 ans : - Maintenance et évolutions d’un entrepôt de données - Maintenance et évolutions des rapports Qlik existants - Migration des rapports Qlik vers PowerBI (36 uses cases identifiés) - Adaptation de l’entrepôt de données pour les besoins de PowerBI Les projets sont menés en équipe de Data Engineers/Data Scientists, accompagnés d’ops, architectes, de développeurs/concepteurs Qlik et PowerBI et encadrés par le Chef de projet Data. 2.2 Description détaillée des tâches qui constituent la mission Il s’agit de piloter un projet stratégique à très haute visibilité. Le chef de projet retenu sera rattaché à une équipe constituée exclusivement de Chef de Projets mais sera dédié au projet et devra être en capacité : - D’assurer un pilotage de qualité tout en garantissant que les livrables sont disponibles dans le respect des contraintes en terme de qualité/coûts/délais, - De construire la roadmap du projet dans sa globalité pour une visibilité sur 3 / 4 ans avec priorisation des enjeux stratégiques métiers et utilisateurs - Devra animer les instances de comitologie et mettre en place une animation d’équipe afin de faire adhérer chaque acteur à la construction de ce projet « one team » - Challenger les acteurs sur la conduite du changement importante liée à la migration des outils et les accompagner dans cette transformation - D’assurer la juste communication auprès des clients et des différents acteurs du projet Au sein de la direction, la plupart des projets sont menés en agilité ; le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Autres Points essentiels de la Mission : - Validation des spécifications fonctionnelles avant présentations aux équipes en charge du développement et backlog refining - Pilotage opérationnel des différents acteurs SI internes à la SNCF et rattachés à D2D/DEA - Assurer l’interface avec la DSI cliente - Pilotage opérationnel des différents domaines projets, notamment : o Conception et consolidation régulière du Planning o Elaboration des supports et Participation aux instances de pilotage (COPROJ, et COPIL) o Alimente le Responsable de Clientèle ou le Directeur de mission avec les données nécessaires au pilotage financier/économique (Imputations des différents acteurs) - Garant de la qualité des livrables - Pilotage opérationnel des actions sur les différents environnements (déploiement, pilote la mise en place des Flux de Données, habilitation et Gestion des Arborescences Datalakes…) - Garant et principal interlocuteur du support N3 applicatif et acteur de l’exploitation
Mission freelance
Data Engineer – GCP (H/F)
CELAD
Publiée le
1 an
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, dans le secteur bancaire. L’enjeu : structurer et industrialiser l’écosystème Data & ML sur Google Cloud Platform. Vous intervenez à la fois sur l’architecture, le build, le run et la structuration des bonnes pratiques. Industrialiser les pipelines data sur l’écosystème GCP Gérer les montées de version des services managés Garantir performance, capacité et fiabilité Développer des pipelines en Python Exploiter et optimiser BigQuery Mettre en place des pratiques CI/CD adaptées aux projets data Structurer l’industrialisation des modèles de Data Science Gestion des IAM, droits d’accès et conformité Sécurisation des environnements Encadrement des accès aux données de production anonymisées Suivi des incidents Amélioration continue des livrables Gestion des évolutions techniques avec les éditeurs
Mission freelance
Data Product Manager
DEVIK CONSULTING
Publiée le
Analyse
Data visualisation
ERP
1 an
500-750 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Data Product Manager afin de piloter le projet migration client sur le volet Data & Visualisation L’objectif étant de construire un nouveau modèle de BDD et reporting basé sur S/4HANA ainsi que d’évaluer les impacte sur les systèmes legacy. Tâches principales Organiser l’étude et collecter les éléments auprès de l’ensemble des parties prenantes Comprendre les ambitions, enjeux et objectifs métiers Organiser et animer des ateliers avec les équipes métiers Collecter l’ensemble des besoins métiers nécessaires à l’étude Documenter l’architecture fonctionnelle Réaliser la modélisation des données / concevoir les couches métiers (Silver layer) Coordonner les contributeurs Data as a Service (Architecte technique, Data Engineers, BI Engineers) Documenter la valeur de la solution Préparer le budget et le planning build/run Formaliser les propositions finales de passage en projet (« Go to project ») Compétences demandées Analyse de données : Expert ERP : Expert Data Modeling : Expert Power BI : Confirmé SAP : Expert Communication : Expert SQL : Expert Data : Expert Langues Français : Courant Anglais : Courant Requis Lieu : Paris
Offre d'emploi
SENIOR DATA AND AI ENGINEER
ANDEMA
Publiée le
Azure
Databricks
36 mois
Lille, Hauts-de-France
Projet : Dans un contexte de transformation et d’accélération, la Data de la DSI opère la plateforme internationale Data et IA, reposant sur une architecture Cloud AZURE / Lakehouse et animée en agilité, se renforce en expertise de Data Engineers. L’équipe est en charge de : • La collecte et l’intégration des données • La structuration et la modélisation • La qualité et la performance des traitements • La préparation des datasets pour les usages métiers, analytiques et IA Votre mission : En tant que Senior Data and AI Engineer, vous travaillerez en collaboration étroite avec les métiers. Vous aurez la responsabilité de vérifier et d'améliorer les pratiques de développement ainsi que la mise en œuvre et l’amélioration de la plateforme Data en réponse aux besoins des différents projets. Localisation : métropole lilloise (3j de présentiel par semaine) Durée : mission longue
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4307 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois