Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
- Data Quality Analyst -
Nous recherchons un data quality analyst pour une mission chez un de nos clients grand compte. Contexte : Au sein de la DSI du groupe, la direction Data s’appuie sur les meilleures expertises et technologies pour accompagner les équipes opérationnelles au quotidien en leur mettant à disposition outils, insights et KPI Elle intervient sur tous les domaines opérationnels de notre client, notamment les produits, le CRM, les ventes, le merchandinsing, le demand planning, la logistique, les opérations et la finance dans une logique de collaboration, de résolution des problèmes et d’amélioration de la performance. Description de la mission En tant que Data Quality, vos responsabilités seront les suivantes : • Assister les Product Owners dans la mise en place du dispositif de qualité des données défini par les Data Owners (définition des exigences qualité, des contrôles, des KPIs et seuils d’alerte) • Animer le processus de gestion des incidents de qualité de données en faisant le lien entre les utilisateurs opérationnels et les équipes Data & IT • Aider les équipes opérationnelles à qualifier les incidents (impacts sur les usages, chiffrage, sévérité) • Analyser les root causes des incidents grâce à l’exploration des données des différentes bases • Proposer et instruire des plans de remédiations (identifier les solutions de contournement si besoin) • Prioriser les sujets en fonction de leur importance / urgence et de la difficulté à les développer • Collaborer avec les équipes de développement (Data Enginer, Dataviz Enginer) pour les analyses et la mise en place de solutions de correction • Collaborer avec les Data Owners afin de s’assurer de la cohérence et pertinence des solutions proposées • Proposer des outils / process / KPI afin de contribuer à l’amélioration continue de la qualité des données • Assister le Product Owner Master Data dans la conception de tableau de bord de pilotage de la qualité des données Environnement Technique : • ETL : Matillion (Cloud) • Dataviz : QlikSense • Cloud Data Platform : Snowflake sur Microsoft Azure • Langages : SQL , Python • Méthodologie Kanban orientée produit ou agile Informations Localisation : Paris, des déplacements sur le terrain sont à prévoir Date : Dès que possible
Mission freelance
Azure Data Expert
Data & Microsoft Fabric Specialist, freelance, full remote Opportunité attrayante pour un(e) Expert(e) Data avec une expérience sur la toute dernière solution analytique Microsoft Fabric afin de rejoindre acteur agile qui ne cesse d’innover en data basé à Londres. Vous prendrez part à un POC que vous développerez pour un important projet de migration de données. Vous aurez l’opportunité de collaborer sur l’un des tous premiers projets Microsoft Fabric en Europe et d’ajouter ce projet disruptif à votre portfolio tout en étant reconnu dans la communauté en tant que pionnier ! Si vous êtes un(e) spécialiste de la donnée avec un background en ingénierie et architecture avec une première expérience sur Fabric, si vous affectionnez les projets de grande ampleur de bout en bout et si vous souhaitez de rejoindre une équipe internationale de passionnés de la data alors cette mission est faite pour vous !
Mission freelance
Data Scientist confirmé
Description du projet : Nous recherchons un(e) Data Scientist Freelance pour rejoindre notre client, une entreprise développant une application Chatbot basées sur ChatGPT. En tant que Data Scientist, vous jouerez un rôle essentiel dans le développement et l'amélioration de leurs solutions de Chatbot, en utilisant les dernières technologies en intelligence artificielle générative. Responsabilités : Concevoir et développer des Chatbots avancés en utilisant ChatGPT, langchain, chainlit, et FastAPI, en assurant leur documentation complète, mise en production et optimisation continue. Gérer de manière autonome des projets de développement de Chatbot, de la conception à la mise en production, en garantissant un suivi rigoureux et une amélioration constante. Utiliser votre expertise en intelligence artificielle générative pour proposer des solutions innovantes et pertinentes. Identifier les opportunités d'amélioration des solutions existantes et assurer leur maintenance efficace. Collaborer avec les équipes techniques et non techniques pour comprendre et répondre à leurs besoins.
Mission freelance
Data Architecte
👉 Contexte : Architecte de données / Data Architect pour l’accompagnement sur un projet structurant et de grande envergure Les objectifs de la prestation sont de soutenir l'équipe dans la conception et la maintenance des modèles et bases de données. Ce rôle offre une opportunité exceptionnelle d'acquérir de l'expérience pratique dans la gestion et la structuration des données au sein d'un environnement professionnel dynamique. Vous serez un acteur clé de la co-construction d'un modèle d'entreprise commun, en garantissant une communication fluide et une interopérabilité entre les différents systèmes.
Offre d'emploi
Développeur - Big Data | Spark (H/F)
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur – Big Data | Spark pour intervenir chez un de nos clients. 💻💼 Contexte : vos missions tournent autour de 4 axes : - Fournir une expertise en Big Data pour simplifier la manipulation des données. - Concevoir des solutions techniques pour le traitement massif de données. - Implémenter des solutions de stockage de données (SQL, NoSQL, etc.). - Assurer la sécurité et la lisibilité des pipelines de données pour faciliter l'analyse et la transformation. Voici un aperçu détaillé de vos missions 🎯 : - Création, maintenance, optimisation et sécurisation des bases de données pour garantir leur intégrité et leur performance. - Détection, proposition et suivi des optimisations des requêtes SQL, PL/SQL afin d'assurer l'efficacité des applications métier en termes de traitement des données. - Fournir un soutien aux équipes de développement en identifiant et en recommandant des solutions SGBD adaptées aux besoins métier, tout en assurant leur performance et leur pertinence. - Effectuer une veille technologique sur les outils utilisés dans le cadre du projet, afin de maintenir la pertinence et la compétitivité des solutions mises en œuvre. - Partager et dispenser des formations sur les bonnes pratiques en matière de gestion des bases de données, contribuant ainsi à l'amélioration continue des processus et des compétences au sein de l'équipe.
Mission freelance
IA/Data Change Management
Nous recherchons pour l'un de nos clients, un Data/IA Change Management. Missions : Contribuer au déploiement d'une culture orientée données Construire des actifs pour accroître la compréhension et l'utilisation de l'IA parmi tous les employés Ajuster la stratégie de communication global Identifier et créer de nouveaux contenus de communication Gérer et déployer le plan de communication global Organiser des événements Centraliser les actifs de communication Coordonner avec les parties prenantes clés Administrer Sharepoint Développer des KPI pour la mesure de la communication Assurer la conformité avec les lignes directrices graphiques
Mission freelance
Lead technique Java Spark
Nous recherchons un Lead technique Java Spark Mission: Devenir le Pilier technique du socle Big Data en Java Spark pour aider les utilisateurs de différentes 6 squads à l’utiliser, répondre aux tickets, analyser les bugs et savoir coder les corrections et livrer (CI/CD Jenkins Maven) Rôle orienté RUN mais quelques évolutions peuvent toujours intervenir, avec donc la capacité de comprendre le besoin fonctionnel et développer l’évolution Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.Compétences techniquesJava - Confirmé - Impératif Spark - Confirmé - Impératif Hive, Hbase, MongoDB ou S3 - Confirmé - Impératif Evènementiel : Kafka, Kafka Connect, KStream - Confirmé - Impératif
Offre d'emploi
Business Analyst
• Accompagner le métier pour formuler ses user stories et les rédiger, • Challenger les besoins exprimés par le métier, approfondir les expressions de besoin en précisant les détails des règles fonctionnelles et en s'assurant de leur complétude, • Accompagner les équipes de développement en précisant ou en faisant préciser les points qui le nécessitent • Rédiger les critères d’acceptance et tester les fonctionnalités développées. • Assurer au besoin une phase de change management La mission comporte également une part de suivi de production, comprenant : • Réalisation d'actions récurrentes (mensuelles) de contrôle et chargement de données, demandes de lancements de traitements, et suivi de leur bon déroulé • Support aux utilisateurs
Mission freelance
Business Analyst - Market & Trading Data (FH)
Contexte : Au sein de l'équipe Market & Trading Data de la DSI Global Markets, le Business Analyst aura pour mission d'intervenir sur les projets liés au Datalake PreTrade & Execution sur les plateformes de trading électroniques (Forex, Fixed Income, Equities et Commodities). L'objectif est d'enrichir ce datalake avec l'ensemble des ordres et exécutions des plateformes électroniques utilisées par Global Markets, puis de valoriser les données de ce datalake. La mission a une durée prévue d'un an renouvelable et est située à Paris 13è. Principales missions : Interaction avec les plateformes électroniques et recueil des besoins utilisateurs (traders, vendeurs, compliance, …) Rédaction de spécifications fonctionnelles Tests Suivi des projets et sujets autour du Datalake Support fonctionnel
Mission freelance
Data Steward (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Steward (H/F) à Lyon, Auvergne-Rhône-Alpes, France. Contexte : Fonctionnement : sur site en périphérie à lyon 3 jours par semaine Les missions attendues par le Data Steward (H/F) : Nous recherchons un(e) Data Steward expérimenté(e) pour : - Diriger le cycle de gestion de la qualité des données pour le domaine Client - Sécuriser la qualité des données, y compris la définition des règles de qualité des données, s'assurer que la qualité des données est mesurée, suivre et rendre compte de la qualité des données. - Identifier, prioriser et initier des améliorations potentielles des données - Collaborer avec d'autres gestionnaires de données (concessionnaire, véhicule...) en ce qui concerne les règles communes pour les données partagées et les liens entre les sources de données de base. - Collaborer avec le digital product manager master data, les architectes de l'information et les architectes IT pour sécuriser les investissements IT clés et la feuille de route technique. - Communiquer sur la qualité des données et fournir un point de contact - Collaborer avec les responsables des processus d'entreprise et les gestionnaires des processus d'entreprise sur l'utilisation des données par les processus.
Mission freelance
Data Engineer Informatica
Bonjour, VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit et la data. Dans un marché où les enjeux de recrutement sont clés et où le nombre de freelances est en constante augmentation, Visian a créé une entité dédiée au recrutement de freelances experts du digital et d’IT: VASKA. Dans le cadre de ses projets clients, VISIAN recherche un/e Data Engineer. Contexte : Le candidat intégrera un pôle Data à la DSI et une équipe projet qui sera responsable de migrer des flux d'intégration de données de POWER Center vers Databricks. Missions : Le candidat sera responsable de migrer des flux ETL développés sur Informatica vers Databricks. Une connaissance d'informatica et AWS est très appréciée. Le candidat doit maitriser le langage SQL et Python et avoir une bonne culture Data des best practices en terme de nettoyage, de transformation et modélisation de données Une certification sur Databricks est également fortement appréciée. Si vous êtes à l’écoute du marché en ce moment, je vous invite à postuler en m’envoyant votre candidature. Bien à vous, Justine
Offre d'emploi
Master Data Manager - Expert PIM Informatica
Nous recherchons un Consultant expérimenté en Master Data Management / PIM Informatica pour soutenir le déploiement réussi du PIM dans le cadre d'un programme de transformation. Les prérequis incluent une expertise démontrée avec le PIM Informatica et une compréhension approfondie des processus d'intégration de données. Responsabilités : Reprise de données dans le PIM : Analyse des données existantes à intégrer. Définition des processus et outils pour l'extraction, le nettoyage et le transfert des données. Collaboration étroite avec l'équipe PIM pour une intégration efficace. Coordination avec les équipes techniques et fonctionnelles : Collaboration avec les équipes des systèmes ERP, WMS et WCS pour assurer l'alignement des données. Coordination des flux de données entre le PIM (Informatica), l'ERP (D365) et le WMS (Manhattan). Intégration du PIM avec le site web de commandes : Assurer l'intégration du PIM avec le nouveau site web de commandes. Garantir l'alimentation correcte des informations produit pour une expérience utilisateur optimale. Assurance de la qualité des données : Vérification de la cohérence et qualité des données françaises. Mise en place de processus de contrôle qualité pour garantir l'intégrité des données. Support à l'équipe Master Data : Soutien sur d'autres sujets en cours selon les besoins. Contribution à l'amélioration des processus et outils de gestion des données.
Offre d'emploi
Data Architect (H/F)
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Architect pour intervenir chez un de nos clients. 💻💼 Votre mission 🎯 : Vous arrivez avec votre expertise technique et vous plongez dans le développement. Vous serez là, au cœur de la guilde des architectes, assurant la bonne marche du flux de données et donnant un coup de main aux équipes de développement. C'est vous qui aurez la responsabilité de donner vie à la solution dans votre domaine, en documentant chaque étape du processus. Et puis, vous avez l'habitude de façonner, documenter et garder en bon état les modèles de données, tant logiques que physiques.
Offre d'emploi
Data Ingénieur | Big Data (H/F)
🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Ingénieur | Big Data pour intervenir chez un de nos clients. 💻💼 Contexte : Vous ferez partie d'une équipe dynamique de 6 personnes, répartie sur plusieurs sites, et vous participerez activement au développement informatique utilisant des technologies telles que Hadoop, HDFS, Hive, Spark SQL et PySpark, ainsi que Sqoop. Vos principales responsabilités seront les suivantes 🎯 : - Contribuer au maintien en conditions opérationnelles - Participer à la conception - Effectuer des développements - Assurer les livraisons - Réaliser les recettes
Mission freelance
Data Engineer - Elasticsearch
Chers consultants, Nous recherchons actuellement, pour un client du secteur bancaire en Ile-de-France, un data engineer spécialiste Elasticsearch. Profil : Qui ai fait de la construction d’archi d’un cluster Elasticsearch Choix des noeuds Déployer des clusters onprem Qqn qui ait administré des clusters ElasticSearch au quotidien Traitement d'incidents Elasticsearch Montée de versions Elasticsearch 6 ans d'exp min Conception et définitions des stratégies et des fonctionnalités de notre service de log management; - Implémentation et enrichissement de l'automatisation du déploiement de nos solutions; - Déploiement (via ansible) des différents composants de notre service; - Maintien en conditions opérationnelles des plateformes et réalisation de leur monitoring; - Optimisation et sécurisation des composants du fait des grandes exigences de performance, fiabilité et sécurité de la plateforme; - Analyse et résolution des problèmes de performances ou les incidents non triviaux; - Gestion de l'ingestion des flux de données et traitement des erreurs éventuelles; - Création de l'outillage nécessaire à la bonne administration et au bon suivi de la plateforme; - Conseil vers clients internes sur les bons usages et aide dans les implémentations utilisant nos plateformes. Les principales technologies sont Elasticsearch, Linux et Kafka, et en secondaire Ansible et Python Si vous êtes intéressé, envoyez-moi votre CV par mail. Cordialement,
Mission freelance
MLOps Engineer
Vous serez notamment chargé de : - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Participer au déploiement de la démarche MLOps, - Participer à la généralisation de la mise en place de l'IA générative - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CICD, - Proposer des architectures techniques en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Former et accompagner les ML Engineer et datascientist aux outils DS. - Optimisation de code Python, - Contribuer à la réduction des coûts dans une démarche FinOps, - Faire une veille technologique autour des architectures data et datascience. Nous recherchons un profil avec de l'expérience sur la partie DevOps, mais sur des tools open-source.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes