L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 790 résultats.
Offre d'emploi
Concepteur Développeur Full Stack (JSP / EJB / Maven / Bootstrap) - Sophia Antipolis (H/F)
Publiée le
Apache Maven
Boostrap
Entreprise Java Bean (EJB)
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🧩 Contexte de la mission Dans le cadre de la maintenance et de l’évolution du projet Bilans Service , nous recherchons un Développeur Full Stack afin de renforcer l’équipe en charge de la Tierce Maintenance Applicative (TMA) . Le consultant interviendra sur la conception, le développement et les tests des évolutions applicatives ainsi que sur la correction d’anomalies. ⚙️ Objectifs et missions principales Le prestataire aura pour responsabilités : Participer à l’analyse des spécifications fonctionnelles et techniques. Développer de nouvelles fonctionnalités conformément aux besoins exprimés. Assurer la correction et l’amélioration des applications existantes. Réaliser les tests unitaires et d’intégration. Documenter les développements réalisés. Contribuer à la qualité et à la stabilité des versions livrées. 🧠 Compétences techniques requises JSP / Servlet / EJB – Confirmé – Impératif JUnit – Confirmé – Impératif Maven / Git – Confirmé – Impératif Bootstrap – Confirmé – Important
Offre d'emploi
Data Analyst Senior
Publiée le
Eclipse
PowerBI
Python
1 an
30k-55k €
310-490 €
Île-de-France, France
Télétravail partiel
Description du poste Nous recherchons un Data Analyst expérimenté. La mission consiste à migrer des programmes SAS existants vers SharePoint et automatiser la production des reportings réglementaires. La personne interviendra au sein de la direction interne en charge de la conformité et du contrôle des données. Objectifs et responsabilités Objectifs principaux Réaliser la cartographie des traitements récurrents et les prioriser pour la migration des programmes SAS vers SharePoint. Vérifier la présence des données dans les nouveaux environnements ou assurer leur migration si nécessaire. Mettre en place un suivi des avancées, incluant le reste à faire et les échéances. Migrer les programmes SAS vers SharePoint (adapter codes et architecture, tester la non-régression). Produire les chiffres pour les reportings réglementaires de fin d’année. Automatiser la production des reportings.
Mission freelance
Chef de Projet Déploiement & Support Medius
Publiée le
Data management
1 an
400-690 €
Île-de-France, France
Télétravail partiel
Missions principales 1. Gestion de projets de déploiement Medius Élaboration du planning / vagues en coordination avec le Program Manager Définition et validation du scope avec les CSP Organisation des kick-off et ateliers de Gap Analysis Suivi des gaps, change management et livrables par phase Coordination et validation des tests, gestion de l’issue list et escalades Préparation du Go-live : cutover, hypercare, transfert au support Reporting aux comités de pilotage (outil interne Concerto) 2. Gestion du support Medius – QAD (intégration) Collecte et qualification des demandes auprès des CSP Coordination du delivery avec équipes Medius / QAD Suivi des tickets (Jira + Medius Portal) Escalade et suivi de résolution
Mission freelance
Solution Data Architect H/F
Publiée le
Architecture
12 mois
400-550 €
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Périmètre et objectifs de la mission Mission principale : Prendre en charge l’architecture de bout en bout des solutions data pour les produits et cas d’usage analytiques, au sein d’un ou plusieurs value streams. Traduire les besoins métiers en solutions data sécurisées, scalables et optimisées en coût, s’appuyant sur la plateforme data d’entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). 2. Responsabilités principales Architecture : Ingestion batch/stream, DWH (modélisation Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL/API/couche sémantique, gestion des flux de features ML si besoin. Modélisation : Transformation des concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation…). BI & Analytics : Gouvernance des KPIs, optimisation des dashboards et des requêtes, gestion du cache et des agrégats, promotion du self-service (dbt/metrics layer + catalogue). Ops & FinOps : Suivi des SLOs (fraîcheur, latence, coût), observabilité, runbooks, backfills, tuning du stockage et des requêtes pour réduire les coûts. Gouvernance/Mesh : Gestion des métadonnées, documentation, publication de blueprints et d’ADRs.
Mission freelance
Data Analyst - Dataiku (Bordeaux) H/F
Publiée le
Dataiku
6 mois
400-480 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Conseil et audit recherche un/une Data Analyst H/F Description de la mission: Contexte : Notre client recherche un Data Analyst confirmé pour renforcer son département data dans le cadre d’un projet stratégique autour de la valorisation des données métiers. Objectif de la mission : Le consultant interviendra sur la construction d’indicateurs transverses complexes à partir de données issues de plusieurs sources (SI interne et données partenaires). L’objectif est de soutenir la performance et le pilotage des produits métiers via la mise en place de tableaux de bord thématiques Enjeux principaux : Collecter, structurer et exploiter de larges volumes de données hétérogènes Définir et suivre des indicateurs de pilotage Créer et automatiser des tableaux de bord analytiques Collaborer avec les équipes métiers et IT pour fiabiliser les données Compétences requises : Maîtrise confirmée de Dataiku (critère indispensable) Excellente compréhension des modèles de données et des outils de visualisation Capacité à manipuler des données issues de plusieurs systèmes Rigueur, autonomie et esprit d’analyse
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Offre d'emploi
Consultant junior en CMDB / ServiceNow
Publiée le
CMDB
Data management
Data quality
12 mois
35k-45k €
400 €
Toulouse, Occitanie
Télétravail partiel
Votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.
Mission freelance
Consultant SAP DATA MIGRATION
Publiée le
SAP
1 an
620-700 €
Toulouse, Occitanie
Télétravail 100%
Bonjour, Je recherche un consultant SAP Data Migration, pour intervenir sur une mission , chez un de nos clients.
Mission freelance
Data Engineer GCP (Rouen)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
Offre d'emploi
Responsable projets Data BI - CDI - Belgique - Bruxelles
Publiée le
BI
24 mois
70k-77k €
385-770 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Responsable Projet Data (H/F) - poste en CDI direct Liaisons fonctionnelles : À l'intérieur de l'entreprise : Le Directeur général et l'ensemble des salariés A l'extérieur : • Les squads Data, les squads en charge des données de référentiel, le service Etudes et Mesures • Les Direction Systèmes d'informations, les responsables des pays (Espagne / Pologne /Portugal / France / Slovénie / Luxembourg) • Prestataires : les intégrateurs, Ingénieur Data, Directeur de projet externe • Industriels (clients) Description générale du poste : Le Responsable projet Data (H/F) joue un rôle central dans la gestion des données, qui portent sur l'intégralité de la fiabilité des prestations vendues aux industriels. À ce titre, il doit définir et mettre en œuvre la stratégie globale de gestion des données disponibles, maintenir l'existant et identifier les opportunités, tout en s'inscrivant dans les modalités définies par le Mouvement. C'est un poste clé qui comporte les dimensions suivantes : - Techniques : manipulation de la donnée, utilisation approfondie des outils mis à disposition, - Stratégiques : enjeux, opportunité, sécurité, - Relationnelles : avec les pays, la DSI, une multitude d'acteurs variés - Une forte sensibilité sur la dimension gestion des systèmes d'informations est attendue Les missions principales : • assurer la qualité et la fiabilité des données en coordonnant avec des acteurs internes - externes • contrôler et mettre à jour les données référentiels spécifiques à notre client • construire, maintenir et faire évoluer les rapports mis à disposition • contrôler et valider la sécurité de l'accès aux données (rapports et données) • piloter la mise en qualité de l'ensemble des données, avec les pays • Participer au développement des services
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Mission freelance
Data Scientist – Complexité Moyenne
Publiée le
IA Générative
Sécurité informatique
1 an
500-700 €
Paris, France
Télétravail partiel
Renforcer la sécurisation des solutions d’intelligence artificielle générative dans un contexte d’industrialisation et de déploiement à grande échelle au sein du système d’information. L’objectif est de garantir la conformité, la traçabilité et la protection des données, tout en maîtrisant les risques liés à l’usage de modèles génératifs (fuites d’informations, biais, gouvernance des modèles, etc.), afin d’assurer une intégration fiable et sécurisée dans les environnements métiers de l’entreprise.
Mission freelance
Data Analyst
Publiée le
Data analysis
Microsoft Power BI
Python
6 mois
Centre-Val de Loire, France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un Data analyst/Power BI L’objectif est d’optimiser les processus internes, améliorer la connaissance client, et soutenir les décisions stratégiques à travers la donnée. Missions principales Collecter, nettoyer et structurer les données issues de différentes sources (internes et externes) Réaliser des analyses exploratoires et statistiques pour identifier des tendances, anomalies ou leviers d’optimisation Construire des dashboards interactifs et automatisés (Power BI, Tableau, etc.) Collaborer avec les équipes métiers (actuariat, marketing, gestion des sinistres) pour traduire les besoins en analyses concrètes Participer à la mise en place de modèles prédictifs en lien avec les Data Scientists Documenter les processus et assurer la traçabilité des traitements
Mission freelance
Data analyste équipes Produit & Métiers
Publiée le
Reporting
18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Le pôle « Analyse de la Performance » de la Direction Data recherche un data analyste en charge d’accompagner les équipes produit dans l’analyse d’impact de leurs activités et de gérer le run de notre activité de reporting automatique. MISSIONS Accompagnement stratégique des équipes Produit & Métiers (80% de l’activité) • Assurer un coaching régulier des équipes Produit, pour renforcer l’intégration de la donnée dans les processus de décision, de roadmap et de priorisation. • Réaliser des analyses d’impact des produits et services digitaux à partir des outils analytics (Piano Analytics, eStat Streaming, Nielsen), en lien avec les équipes Études. • Identifier les besoins de tracking, construire les prérequis analytiques et suivre leur implémentation auprès des équipes techniques. • Accompagner les équipes internes dans l’identification et la définition des KPIs clés, tout en assurant une cohérence transversale sur les indicateurs suivis. • Identifier les besoins en reporting, structurer des tableaux de bord sur mesure, et assurer leur appropriation par les équipes. Production et maintenance de reportings automatisés (20% de l’activité) • Garantir le bon fonctionnement des dashboards existants sur Power BI, faire évoluer les modèles si nécessaire. • Concevoir de nouveaux rapports Power BI, en méthode projet : recueil du besoin, sourcing de la donnée, requêtage, réalisation de maquettes, validation en itérations.
Offre d'emploi
Data Consultant (Tableau to Power BI Migration)
Publiée le
MSBI
Oracle SQL Developer
Tableau software
Île-de-France, France
Télétravail partiel
Dans le cadre de ses projets de transformation data, Hextaem accompagne l’un de ses clients majeurs dans la migration de sa plateforme BI de Tableau vers Power BI . L’objectif est de moderniser l’écosystème de reporting , d’améliorer la performance des analyses et de renforcer l’autonomie des utilisateurs métiers. Le/la Consultant(e) Data interviendra sur l’ensemble du cycle de migration : analyse du parc existant, conception de l’architecture cible, migration technique et fonctionnelle, validation des données et accompagnement des utilisateurs. Missions principales 1. Analyse et cadrage Cartographier les rapports et jeux de données existants sous Tableau. Identifier les sources de données, flux et dépendances techniques. Définir l’architecture cible Power BI (datasets, dataflows, workspaces). Établir la stratégie, le plan de migration et le calendrier associé. 2. Migration et développement Reproduire et optimiser les dashboards, indicateurs et modèles dans Power BI. Concevoir des modèles de données performants (DAX, Power Query). Garantir la cohérence visuelle et fonctionnelle entre Tableau et Power BI. Gérer la publication, les jeux de données, les rafraîchissements et les droits d’accès sur Power BI Service. 3. Tests et validation Réaliser les tests de recette technique et fonctionnelle. Comparer les résultats entre Tableau et Power BI pour assurer la justesse des données. Documenter et corriger les écarts identifiés. 4. Formation et accompagnement Former les utilisateurs clés à Power BI et aux bonnes pratiques. Documenter les nouveaux rapports et processus de gouvernance. Accompagner les équipes métiers dans l’adoption de Power BI. Compétences techniques Maîtrise de Tableau Software et Power BI (Desktop & Service) . Excellente connaissance de SQL , DAX et Power Query (M) . Solides compétences en modélisation de données (étoile / flocon). Connaissance des principales sources de données : SQL Server, Oracle, Excel, API, Data Lake. Une expérience sur (ADF, Synapse, Databricks) est un plus. Maîtrise des bonnes pratiques en gouvernance BI , performance et sécurité.
Mission freelance
Business Analyst DATA Modélisation HF
Publiée le
Google Cloud Platform (GCP)
6 mois
400-490 €
Île-de-France, France
Télétravail partiel
Missions principales » Analyse & recueil des besoins Recueillir les besoins métiers auprès des équipes métier. Traduire ces besoins en spécifications fonctionnelles centrées sur la donnée. Formaliser les cas d’usage de consommation et d’exposition des données. Modélisation & structuration des données Participer à la modélisation logique et physique des données du Shopping Data Hub sur BigQuery. Construire des dictionnaires de données, des mappings et des modèles documentés et évolutifs. Travailler en lien étroit avec les data engineers GCP et les data architects. Contribution GCP & data engineering Collaborer avec les équipes techniques sur les pipelines de données (Dataflow, Cloud Composer, Pub/Sub...). Veiller à la performance, la scalabilité et l’optimisation des modèles sur GCP. Aider à la définition des bonnes pratiques GCP (naming, stockage, partitionnement, sécurisation...). Gouvernance & documentation Contribuer à la mise en place de la gouvernance des données (qualité, traçabilité, respect du RGPD). Rédiger et maintenir à jour la documentation métier et technique du modèle de données. Participer à l’amélioration continue du hub (monitoring, automatisation, audits...).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Identifier les partenaires directs des Grands Groupes (sans intermédiaires)
- Quelles nouvelles fonctionnalités aimeriez-vous voir sur Free-Work ?
- Stratégie épuisement des fonds jusqu'à la retraite
- Offre archivée
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
- Job Consultant Service now Suisse. 200 euros par jour!
1790 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois