Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 230 résultats.
Offre d'emploi
Consultant data MDM F/H
Publiée le
45k-50k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Dans un monde où l'innovation est un levier de performance, la transformation numérique ne se limite plus à l'adoption de nouvelles technologies. Elle repose sur des stratégies audacieuses, un accompagnement humain adapté, et une capacité à anticiper les enjeux à venir. Chez Coexya Consulting, nous considérons que les femmes et les hommes sont au coeur de la réussite des projets de transformation. Pour renforcer notre équipe, nous recherchons une personne expérimentée pour un poste de consultant Data MDM F/H. CE QUE L'ON VOUS PROPOSE En lien avec le responsable opérationnel de la practice Data Strategy et notamment de l'offre MDM, vos missions sont les suivantes : - Contribuer au développement de l'offre Data MDM : participation à la structuration de notre démarche, production de contenus méthodologiques, diffusion de bonnes pratiques, veille. - Intervenir, en particulier sur les aspects fonctionnels et technologiques, sur les phases clés associées à la construction d'un projet MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation. - Mener les ateliers de cadrage puis la définition des modèles de données et des processus de gestion des données référentielles. - Concevoir et préconiser les solutions technologiques répondant aux besoins par un benchmark des solutions du marché. - Echanger avec les équipes techniques. - Identifier les opportunités de missions et de besoins chez vos clients. - Participer aux avant-ventes : rédaction d'offres, soutenances orales, valorisation de notre savoir-faire.
Mission freelance
Chef de Projet Data / BI
Publiée le
BI
Data management
6 mois
550-580 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet BI / Data stratégique, notre client final basé à Paris recherche un Chef de Projet BI / Data freelance pour piloter la mission et assurer le lien entre les équipes internes et l’éditeur Suadeo . Le consultant interviendra comme véritable chef d’orchestre du projet, garantissant la bonne organisation des travaux, le respect des délais et la qualité des livrables. Missions principales Jouer le rôle de Chef de Projet BI / Data côté client final Assurer l’interface entre le client et l’éditeur Suadeo Organiser et animer les ateliers métiers et techniques Piloter le planning, le delivery et les priorités projet Coordonner les différents interlocuteurs (métiers, IT, éditeur) Suivre l’avancement, identifier les risques et proposer des actions correctives Arbitrer les sujets opérationnels et faciliter les échanges Assurer le reporting projet auprès des parties prenantes Gérer les allers-retours avec l’éditeur sur les spécifications, évolutions et correctifs Profil recherché Expérience confirmée en gestion de projets BI / Data Solide compréhension des environnements Data / BI Très bon relationnel et capacité à interagir avec des équipes métiers et techniques Capacité à structurer, organiser et piloter des projets complexes Autonomie, rigueur et sens des priorités
Mission freelance
[SCH] Data Engineer – Confirmé - 1162
Publiée le
10 mois
385-418 €
Niort, Nouvelle-Aquitaine
Contexte de la mission : Mon client recherche un Data Engineer confirmé pour intervenir sur des activités d’analyse, de spécification, de développement, de test et de maintenance au sein d’un environnement Data. Missions : -Analyser les besoins et spécifier les solutions Data -Développer les traitements et flux de données -Réaliser les tests -Assurer la maintenance des développements existants Environnement technique : -Outils de développement : PowerCenter (Informatica), SQL Developer, DbVisualizer -Langages : SQL, PL/SQL -SGBD : Oracle, Hive -Méthodologie : SAFE Profil recherché : Data Engineer confirmé (3 à 8 ans) disposant d’une expérience significative sur des environnements Data, avec une forte maîtrise des outils ETL, des bases de données et des langages SQL / PL-SQL.
Mission freelance
Data Engineer Azure Synapse / Databricks / dbt
Publiée le
Azure
Azure DevOps
Azure Synapse
3 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Offre d'emploi
Consultant·e Senior Data et Power BI
Publiée le
40k-60k €
France
Télétravail partiel
Nous recrutons en CDI un·e Consultant.e Senior Data & BI - Microsoft Fabric & Power BI ! Vous rejoignez une équipe orientée Business Applications et Intelligence Artificielle, avec pour mission de structurer et développer la pratique Data autour de Microsoft Fabric et Power BI. Ce rôle est stratégique pour accompagner nos clients dans la modernisation de leurs solutions analytiques. Vos futurs défis : o Architecture & Data Engineering - Déployer des solutions Microsoft Fabric (OneLake, Lakehouse, Dataflows Gen2, pipelines). - Mettre en place la gouvernance des données, la sécurité et les processus CI/CD. - Collaborer avec les experts Business Apps & IA pour intégrer la donnée dans les applications métiers. o Business Intelligence & Reporting - Concevoir des rapports et dashboards interactifs avec Power BI. - Optimiser les modèles de données et les performances (DAX, M). - Accompagner les métiers dans le self-service BI. o Innovation & Conseil - Participer à la définition de notre offre Data & Analytics. - Contribuer à des projets IA en exploitant les données (préparation, qualité, intégration). - Assurer une veille technologique sur Fabric, BI et IA.
Mission freelance
Développeur Service Cloud
Publiée le
Big Data
Data management
Machine Learning
1 an
Lille, Hauts-de-France
Télétravail partiel
L’objectif de la mission est d’effecteur la maintenance corrective et évolutive de l'application Salesforce Service Cloud au sein du SI de notre client. - Gestion des incidents de production - Analyse et correction de problèmes - Développement de correctifs et/ou d'évolutions - Rédaction de spécifications fonctionnelles et techniques - Conception de solution technique Expertises spécifiques : Salesforce Service Cloud Maitrise de l’anglais Compétences rédactionnelles Maitrise du SQL Bon niveau de communication (orale et écrite) Fonctionnement mode proiet (Cycle V et agile : scrum) Capacité à gérer des sujets divers en parallèle sur des problématiques fonctionnelles différentes liées aux métiers de la banque. Bonne capacité de compréhension des besoins fonctionnels, d’écoute et de communication, bon esprit d’analyse
Offre d'emploi
Data Architecte Databricks
Publiée le
Databricks
65k-80k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Architecte Databricks
Publiée le
Databricks
65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Engineer / Data Analyst (H/F)
Publiée le
Databricks
6 mois
55k-65k €
450-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👌 Dans le cadre du renforcement de son pôle dédié à l’architecture, la valorisation et l’exploitation de la donnée, une grande entreprise nationale du secteur de l’énergie recherche un Data Engineer / Data Analyst (H/F) .🚀 L’objectif : contribuer à la fiabilité, la qualité et l’analyse des données nécessaires à la gestion des réseaux, ainsi qu’au développement de plateformes Data avancées. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Data Engineering 🔸Concevoir, développer et maintenir des pipelines de données robustes et scalables. 🔸Industrialiser les traitements dans un environnement Databricks (Spark, Delta Lake). 🔸Optimiser la qualité, la performance et la disponibilité des données. 🔸Participer à l’architecture des solutions Data, notamment dans un contexte cloud. Data Analysis 🔸Structurer, analyser et valoriser les données issues des réseaux et services. 🔸Construire des Dashboard et indicateurs fiables pour les équipes métiers et techniques. 🔸Contribuer à la mise en place d’une gouvernance efficace des données. Collaboration & Support 🔸Travailler étroitement avec les équipes Architecture, Exploitation et SI. 🔸Participer à la documentation, la standardisation et l’amélioration continue des pratiques Data. 🔸Accompagner les utilisateurs internes dans la compréhension et l’exploitation des datasets.
Mission freelance
241208/Data Scientist Azure ML Python Gitlab LLM
Publiée le
Azure
Python
3 mois
400-420 £GB
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Data Scientist Azure ML Python Gitlab LLM La mission concerne, une nouvelle entité du client créée pour développer de nouveaux cas d’utilisation en Intelligence Artificielle. La mission s’organise autour de trois axes : - Identification et analyse des besoins : participation à des ateliers d’idéation pour identifier les besoins du client et proposition de solutions algorithmiques sur mesure adaptées aux besoins. - Développement et validation des modèles d’IA : analyse des données disponibles, développement, test et validation des algorithmes de traitement de données en utilisant des méthodes d’algorithmes d’optimisation, de LLM, de Machine Learning et de Deep Learning en tenant compte des besoins en termes de sensibilité des données. - Partage de connaissance et communication : diffusion de la connaissance au sein de l'entité, partage des avancées réalisés, communication des succès et apprentissages, montée en compétence au sein de l’équipe. Objectifs et livrables Participer activement à l’identification des besoins des clients à travers des ateliers d’idéation Proposer des solutions algorithmiques sur mesure adaptées aux besoins Analyser rapidement les données disponibles pour sélectionner les modèles d'IA les plus pertinents face aux défis identifiés. Développer et tester des applications. Partager régulièrement des insights et des innovations issues des projets avec l'équipe . Communiquer efficacement en interne pour mettre en valeur les succès, les avancées réalisées et les leçons apprises. Compétences demandées Compétences Niveau de compétence Expérience solide dans le déploiement d’algorithmes d’optimisation Azure Machine Learning Gitlab CI/CD Connaissance approfondie des modèles algorithmiques (ML/DL). Programmation Python Confirmé Conduite d'atelier et de réunion Deep learning LLM
Mission freelance
Profil MOA bancaire - Business analyst et data (plus de 8 ans d'expérience)
Publiée le
MOA
6 mois
550-590 €
Paris, France
Télétravail partiel
Pour l’un de nos clients du secteur bancaire, nous recherchons un profil MOA senior disposant d’une forte expertise en Business Analysis et en Data. Le consultant interviendra à l’interface entre les équipes métiers, IT et data afin d’accompagner des projets de transformation, d’évolution réglementaire ou d’optimisation des processus. Il aura en charge le cadrage des besoins métiers, la rédaction des expressions de besoins et spécifications fonctionnelles, l’analyse et la manipulation des données, ainsi que l’accompagnement des équipes IT dans la mise en œuvre des solutions. Le rôle inclut également la participation aux phases de tests, de recette et au pilotage de la qualité des données dans un environnement bancaire exigeant.
Offre d'emploi
Data Engineer
Publiée le
Ansible
Big Data
Elasticsearch
1 an
40k-45k €
250-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission se déroule au sein de l'équipe Infrastructure CaaS (Container As a Service) pour la gestion, la maintenance et le contrôle de la Data et des assets de l'équipe. Nous proposons une mission de Data Engineering avec des expertises des produits récents sur le Big Data. Responsabilités Interaction avec REST APIs Gestion des jobs et administration Ansible + Scripts Python BigData Opensearch / Elastic + Dashboard Kibana / Power BI Technologies Confluence / JIRA pour la gestion documentaire, Git / Bitbucket
Mission freelance
Data Engineering Manager (Bordeaux)
Publiée le
AWS Cloud
6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
Mission freelance
Lead data en Ile de France
Publiée le
Apache Airflow
AWS Cloud
DBT
6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Offre d'emploi
Data Engineer – Data Analyste spécialiste DATAIKU
Publiée le
CI/CD
Cloudera
Git
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
La mission proposée sera d’accompagner les métiers dans la cadre du projet de sortie du progiciel SAS vers le progiciel DATAIKU. Dans ce cadre, les activités principales sont : • Accompagner les utilisateurs dans la prise en main de Dataiku et le déploiement des solutions pour leurs cas d’usage. Cela passe par la compréhension de leurs besoins et contraintes opérationnelles, l’étude des solutions potentielles basées sur le progiciel, et l’aide et support à la réalisation. • Appliquer et diffuser les bonnes pratiques Dataiku ainsi que du processus MLOPS. • Assurer le Support et RUN post déploiement : surveillance, maintenance et optimisation des traitements DATAIKU. Dans le cadre de cette mission, il y a de fortes exigences sur : • Le sens de service. • La pédagogie pour accompagner efficacement les utilisateurs SAS. • L’échange et la communication avec le reste de l’équipe SOD/IA Factory ainsi que les différents interlocuteurs sur ce sujet. A savoir, l’architecte SOD/SAS, l’architecte technique SOD, les architectes DATA ainsi que les interlocuteurs CAGIP. Le critère d’expérience doit s’appliquer à tous ces éléments pour garantir l’adéquation du profil à la demande. Expertise DATAIKU DSS avec certifications : • Core Designer • Advanced Designer • ML Practitioner • MLOps Practitioner • Developer • Generative AI Practitioner
Offre d'emploi
Data Engineer (H/F)- AWS, Scala, Spark
Publiée le
Apache Spark
AWS Cloud
Microsoft SQL Server
40k-55k €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un programme de transformation DATA, l’objectif est de doter l’entreprise d’outils permettant une exploitation avancée des données pour des prises de décisions optimisées. Ce programme impacte à la fois les technologies utilisées, l’organisation et les processus internes. Les projets en cours sont variés et incluent : L’optimisation des algorithmes de recommandation et segmentation ; Le développement d’un Feature Store pour la gestion des données ; La modernisation des flux financiers et des plateformes de contenu ; La mise en place d’architectures Big Data traitant plus de 100 To de données par jour ; Le partage d’informations clients avec des partenaires stratégiques. Missions : Intégré(e) à l’équipe DATA Delivery , vous interviendrez sur l’évolution et la maintenance des socles de données (Usage, VOD, Advertising, CRM...) et leur interconnexion avec divers partenaires. Vous travaillerez sur des architectures de Streaming Data full AWS et des technologies Big Data avancées. Vos responsabilités incluront notamment : La conception et le développement de pipelines de données performants ; L’implémentation d’ architectures de Streaming Data scalables et robustes ; Le développement de traitements de données en temps réel avec Scala, Spark et Terraform ; L’optimisation et la modernisation des flux de données dans un environnement Big Data ; La contribution aux initiatives FinOps pour optimiser l’infrastructure et les coûts ; La mise en œuvre de bonnes pratiques en termes de qualité et de gouvernance des données ; La collaboration avec les équipes métiers pour garantir leur autonomie dans l’exploitation des données et des KPI. Environnement technique : Cloud & Big Data : AWS (Lambda, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB) Développement : Scala, Spark, SQL, Terraform, Python CI/CD & Orchestration : GitLab CI/CD, Jenkins Méthodologies : Agile (Scrum, Kanban)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1230 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois