L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 268 résultats.
Mission freelance
Data Product Manager (Data Solution Architect)
Publiée le
Business Intelligence
Data analysis
ERP
6 mois
600-650 €
La Défense, Île-de-France
Télétravail partiel
En tant que membre de l'équipe Data as a Service Customer, vous serez en charge de conduire des études et de participer à la phase d’exécution projet. Profil recherché : Senior Responsabilités principales : Organiser la phase d’étude et recueillir les besoins auprès de l’ensemble des parties prenantes Planifier et animer des ateliers de travail avec les équipes métiers Rédiger la documentation de l’architecture fonctionnelle Réaliser la modélisation des données et concevoir les couches métier (Silver layer) Coordonner les différents contributeurs Data as a Service (architecte technique, data engineers, ingénieurs BI) Préparer le budget et le planning des phases de réalisation (build) et d’exploitation (run) Formaliser la proposition finale en vue du passage en phase projet (« Go to Project ») Compétences : Excellente communication en français et en anglais Maîtrise de l’analyse et de la modélisation des données (modélisation conceptuelle et physique) Bonne connaissance des systèmes ERP (SAP, QAD) et CRM (Salesforce) ; une expérience dans les systèmes de production est un plus. Méthodique, sens de l’organisation et approche structurée. Focus Client (capacité à mener des entretiens clients, réactivité et clarté dans les réponses).
Offre d'emploi
Data Cloud Architect
Publiée le
Azure
Domain Driven Design (DDD)
1 an
La Défense, Île-de-France
Télétravail partiel
🎯 En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture)
Mission freelance
POT8670 - Un Data Scientist sur Paris
Publiée le
Machine Learning
6 mois
220-480 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Scientist sur Paris Fonctions et responsabilités En tant que Data Scientist confirmé(e), vous disposez d’une expérience avérée dans la conception et le développement de solutions centrées Machine Learning / Deep Learning. Vous souhaitez développer et approfondir cette expertise. Vous rejoignez notre pôle d’expertise Data & IA pour accompagner nos clients dans la valorisation de leurs données et le déploiement de solutions d’intelligence artificielle à impact. Vous interviendrez sur des projets variés, de l’idéation à l’industrialisation, en apportant votre expertise technique et votre capacité à créer de la valeur métier. Vous pourrez développer vos compétences clés dans la résolution de problèmes, le passage à l’échelle et l’industrialisation des solutions, le déploiement de solutions dans le cloud, …etc. Vous pourrez également développer vos compétences autour des technologiques et des cas d’usage de l’IA Genarative. Vos missions seront les suivantes : Comprendre les enjeux métiers et les traduire en cas d’usage pertinents Collecter, explorer, nettoyer et structurer des données hétérogènes Concevoir et entraîner des modèles de machine learning et deep learning (classification, NLP, vision, séries temporelles…) Collaborer avec des équipes pluridisciplinaires (consultants, data engineers, architectes…) Participer à la mise en production des modèles (MLOps, monitoring, robustesse) Contribuer au cadrage, à la méthodologie et à l’innovation continue sur les projets IA Mais aussi : Déployer des solutions d’IA générative (LLMs, RAG, embeddings, agentique) dans des cas concrets : copilotes métiers, assistants intelligents, extraction d’information, etc. Qualités requises pour réussir dans ce rôle De formation Bac+5 (école d’Ingénieurs/ Université), vous avec une expérience d’au moins 3 ans en tant que Data Scientist. Vos compétences sont les suivantes : Une première expérience en ESN ou en cabinet de conseil Autonomie, esprit d’équipe, proactivité et curiosité technologique Capacité à vulgariser les concepts techniques et à co-construire des solutions IA avec les métiers Expérience en méthodologies Agile (Scrum, Kanban, SAFe…)
Offre d'emploi
Tech Lead Data
Publiée le
Azure
Azure Data Factory
Microsoft Fabric
6 mois
Paris, France
Télétravail partiel
Mission Freelance – Tech Lead Data Client : secteur Minéraux / Industrie Localisation : Paris 16ᵉ Télétravail : 1 à 2 jours par semaine Équipe : environ 10 collaborateurs Durée : 6 mois minimum Contexte et enjeux Le client engage une transformation data ambitieuse avec la mise en place d’une Data Factory moderne et scalable basée sur Microsoft Fabric . Le dispositif repose sur trois volets complémentaires : Program Management – pilotage global et coordination. Tech Enablers – construction des fondations techniques de la plateforme. Data Use Cases – livraison de cas d’usage métiers à fort impact (supply chain, finance, production, etc.). L’objectif est double : livrer rapidement 2 à 3 cas d’usage prioritaires et structurer une organisation agile et durable , intégrée à l’écosystème Azure. Rôle : Tech Lead Data En tant que référent technique , vous jouerez un rôle clé dans la conception, la structuration et la mise en œuvre de la Data Factory. Vous serez le garant de la cohérence technique et du bon niveau d’exécution des équipes. Missions principales : Piloter la mise en œuvre technique des cas d’usage et assurer leur intégration dans la plateforme cible. Encadrer et accompagner une équipe de 2 Data Engineers et 1 Analytical Engineer. Définir les standards d’architecture, bonnes pratiques et guidelines techniques. Garantir la qualité du code, des pipelines et des livrables. Participer activement aux décisions d’architecture et aux revues techniques. Contribuer à la mise en place d’une gouvernance agile structurée (PI Planning, rituels d’équipe). Environnement technique Cloud & Data Platform : Microsoft Fabric, Azure Traitement & Intégration : Spark, Data Factory, Synapse Langages : Python, SQL, Scala CI/CD & Infrastructure as Code : Git, Terraform Méthodologie : Agile SAFe / Scrum Profil recherché Expérience confirmée en tant que Tech Lead ou Architecte Data (5+ ans) , idéalement dans un environnement Microsoft. Maîtrise des architectures cloud Azure et des pipelines de données (ETL/ELT). Leadership technique, sens du collectif et goût du mentoring. Bonne compréhension des enjeux d’intégration et de gouvernance data. Anglais courant, environnement international. Atouts de la mission Projet stratégique et structurant : construction d’une Data Factory from scratch. Rôle clé dans la définition de l’architecture et des standards techniques. Environnement de travail moderne et exigeant, favorisant l’excellence technique.
Mission freelance
Product Owner _ Data
Publiée le
Apache NiFi
12 mois
500-550 €
Paris, France
Télétravail partiel
Nous sommes à la recherche pour l'un de nos clients dans le domaine de l'assurance d'un Product Owner sur des projets DATA : Tâches : - Piloter le backlog Data autour des technologies de la plateforme data - Définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories pour les équipes techniques (Data Engineers, DevOps). - Piloter les développements et les intégrations sur NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Piloter les cérémonies agiles : Daily, Sprint planning, Sprint déma, Sprint rétrospectives - Assurer la qualité des données et la performance des flux. - Suivre les indicateurs clés : latence des flux, disponibilité des dashboards, pertinence des recherches. -Collaboration : Collaborer avec les équipes interfonctionnelles, notamment les ingénieurs logiciels, les architectes de données et les analystes, pour comprendre les exigences métier et assurer une intégration harmonieuse des pipelines de données.
Offre d'emploi
Chef(fe) de Projet Coordinateur(rice) - Pilotage de flux - Data
Publiée le
Azure
Databricks
Méthode Agile
14 mois
Châtillon, Île-de-France
Télétravail partiel
Contexte de la mission - Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Expertises REQUISES - Tableaux de bord de suivi des flux - Azure - Modélisation data - Databricks - Agilité Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition
Mission freelance
Développeur QlikSens/Talend
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Qlik Sense
6 mois
Lille, Hauts-de-France
Télétravail partiel
Data Engineer – Projet Data/BI/EDIVos missions : Collecter, transformer et intégrer des données issues de différentes sources (ERP, CRM, WMS, TMS) au sein de la plateforme décisionnelle. Développer, automatiser et maintenir des flux ETL performants et sécurisés avec Talend . Mettre en place des processus de Data Quality pour fiabiliser les informations exploitées par les métiers. Contribuer à la conception de l’architecture Data Warehouse et modéliser des schémas adaptés aux besoins analytiques. Déployer et optimiser des modèles et applications QlikSense pour rendre les données accessibles et compréhensibles. Participer à la configuration et à l’intégration des flux EDI , en choisissant les protocoles adaptés (EDIFACT, AS2, SFTP, etc.). Surveiller la performance des traitements, détecter et corriger les anomalies dans les pipelines de données. Collaborer avec les chefs de projets Data et les équipes métiers pour traduire les besoins en solutions techniques concrètes. Contribuer aux phases de tests, de validation et de mise en production des projets BI et EDI.
Mission freelance
Product Owner Data (H/F)
Publiée le
Agile Scrum
Apache NiFi
Data Warehouse
12 mois
550-620 €
Paris, France
Télétravail partiel
Freelance / Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Paris 8 - 🛠 Expérience de 5 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Product Owner Data pour intervenir chez un de nos clients dans le secteur bancaire & assurance. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter le backlog Data et définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories et collaborer étroitement avec les Data Engineers et DevOps. - Piloter les développements et intégrations sur Apache NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Animer les cérémonies agiles : Daily, Sprint planning, Sprint demo, rétrospectives. - Assurer la qualité des données et la performance des flux. - Suivre les KPI clés : latence, disponibilité, pertinence des recherches. - Collaborer avec les équipes interfonctionnelles (ingénieurs logiciels, architectes, analystes).
Mission freelance
Architecte Solution Data AWS
Publiée le
AWS Cloud
AWS Glue
Big Data
3 ans
600-700 €
Paris, France
Missions principales : * Conception et définition de la plateforme Data : -Définir le plan fonctionnel de la plateforme Data en fonction des besoins -stratégiques et opérationnels de l'entreprise. -Conceptualiser et structurer les fonctionnalités de la plateforme pour répondre aux exigences métiers. * Industrialisation et optimisation des processus : -Optimiser les processus de collecte, gestion, transformation et restitution des données pour les rendre plus efficaces. -Garantir la performance et la scalabilité des solutions mises en œuvre. * Urbanisation des Data Lakes : -Concevoir un schéma d'architecture fonctionnelle pour l’urbanisation des Data Lakes existants. -Mettre en place un référentiel des schémas d'interface d’entrée et gérer le versionning des données. -Assurer la cohérence de la circulation de la donnée, de l'acquisition jusqu’à son utilisation. *Collaboration avec les équipes métiers et techniques : -Travailler en étroite collaboration avec les chefs de projets Data, les architectes techniques et les Data Engineers. -Collecter et classifier les besoins fonctionnels des métiers pour les traduire en solutions techniques. *Rédaction de la documentation fonctionnelle : -Élaborer et maintenir à jour la documentation technique et fonctionnelle de l’architecture Data. -Proposer et formaliser des nomenclatures et des règles de gestion adaptées. *Référent technique : -Jouer un rôle de conseil et d’appui sur la conception des flux de données et la structuration des objets (Data Lake, Dataware, Datamart). -Être un point de référence pour l’équipe Data et garantir l’application des bonnes pratiques dans le cadre de la conception des solutions. Compétences requises :
Offre d'emploi
Data Architect
Publiée le
AWS Cloud
Azure
BI
65k-80k €
Paris, France
Télétravail partiel
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps
Offre d'emploi
Chef de projet data
Publiée le
Azure
Data Lake
Databricks
3 ans
40k-45k €
400-550 €
Île-de-France, France
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client basé à Paris, un CHEF(FE) DE PROJET MAITRISE D'OUVRAGE – MOE - Confirmé (4-10 ans d’exp) azure - Confirmé - Impératif modelisation data - Confirmé - Impératif databricks - Junior - Important méthodo agile - Junior - Important - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Peut contribuer à l'Etude d'Opportunité (EO) pour le lancement d'un projet Est responsable de l'Etude de Faisabilité (EF) des projets qui lui sont confiés et prend en compte l'ensemble des éléments fonctionnels et techniques S'assure de l'adéquation des ressources avec les besoins du projet S'assure de l'application des directives définies en DAG (Dossier d'Architecture Général) pour structurer le projet et mobiliser les ressources nécessaires à sa bonne réalisation Contribue à la revue et à la négociation des contrats, en lien avec la Direction Juridique, les Achats Non Marchands et la Direction porteuse du projet Met en application les procédures internes ou externes Est responsable de la bonne mise en œuvre de la gouvernance du projet Pilote les actions nécessaires au respect du budget du projet Pilote et coordonne les partenaires et sous-traitants Gère et anime la communication auprès des équipes et des différentes instances Contribue à la préparation et mise en œuvre de la conduite du changement avec les métiers Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
Ingénieur Ops Data Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille/co
Publiée le
Kubernetes
Python
12 mois
400-450 €
Lille, Hauts-de-France
Télétravail partiel
Ingénieur Ops Data & IA Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
268 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois