Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 124 résultats.
Freelance

Mission freelance
Ingénierie et Pilotage de Projets de Transformation Data (Assurance)

FINAX Consulting
Publiée le
Data governance

12 mois
400-850 €
Paris, France

Ingénierie et Pilotage de Projets de Transformation Data (Assurance) Nous recherchons des consultants (Ingénieur Data, Analyste Fonctionnel Data ou Directeur de Programme Data) pour le compte d’un de nos clients assurance dans le cadre d’un projet de transformation et de modernisation de son écosystème Data. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un programme stratégique visant à moderniser son paysage applicatif analytique et à optimiser son infrastructure Data. Ce programme inclut l'intégration de données au sein de son datalakehouse et la refonte d'applications orientées client. Dans ce cadre, nous recherchons plusieurs profils Experts et Seniors pour garantir le succès de cette transformation Data. Rôles et Responsabilités Selon votre expertise, vous interviendrez sur l'une des missions suivantes : Pilotage de Programme Data : Diriger la modernisation d'applications analytiques ou assurer la gestion de projet Agile/Product Management pour des applications client. Ingénierie Data & Développement : Assurer la conception, la maintenance et l'industrialisation des applications web et applications orientées client, y compris le développement spécifique. Analyse Fonctionnelle Data : Prendre en charge l'analyse fonctionnelle des besoins en intégration de données vers le datalakehouse ou pour la maintenance d'applications web. Compétences Clés & Techniques Une expertise de niveau Expert ou Senior est exigée sur les points suivants : Expertise Métier : Solide connaissance du secteur de l'Assurance (ou Banque/Finance) et des problématiques de données associées. Compétences Data : Maîtrise des concepts de Data Integration, Data Lakehouse, et des outils ETL (Informatica IDQ, Data Stage, etc.). Technologies : Cloud & DevOps : AWS Cloud (EKS, ArgoCD), Azure, GIT. Langages & Frameworks : JAVA (8, 11, 17), Springboot, NodeJS, ANGULAR, API, REST, SOAP. Bases de Données : DB2, Oracle, Mainframe, NDBX. Outils Complémentaires : IBM WAS, SAS, Microstrategy, OneBI, Power BI, Cobol, JCL, PL/SQL (selon le poste visé). Anglais : Capacité à travailler dans un environnement international, la maîtrise de l'anglais technique étant un prérequis. Détails de la Mission Localisation : Paris (Île-de-France). Date de Démarrage : ASAP. Durée : 12 mois. Taux Journalier Cible (TJM) : Les TJM cibles varient en fonction du rôle et de l'expertise (e.g., Program Director <850€, Data Engineer <950€, Functional Analyst <450€, etc.).

Freelance
CDI

Offre d'emploi
Data Engineer Azure / Python

VISIAN
Publiée le
Azure
Azure Data Factory
Azure DevOps

1 an
Paris, France

Le rôle consiste à piloter des projets d’intégration temps réel et de data (big data & insights) , en assurant la conception et le déploiement de pipelines de données robustes pour les data scientists et data analysts. Il implique de proposer des solutions techniques adaptées , d’apporter une expertise sur les architectures Cloud , de garantir la qualité et la gouvernance des données (préparation, traçabilité, conformité) et d’optimiser les processus internes. Le poste demande également une collaboration internationale pour partager les bonnes pratiques et améliorer le data-sharing et la protection des données .

Freelance

Mission freelance
Testeur QA Data

Cherry Pick
Publiée le
Data analysis
Microsoft Power BI
Postman

36 mois
380-430 €
Paris, France

Testeur confirmé avec des compétences de Data Analyste En tant que QA Data, vous ferez partie du pôle Qualité Data sera d'assurer la préparation, l'exécution et le suivi de la recette technico fonctionnelle tout en contribuant à l'amélioration de la qualité de données. Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les anomalies avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Une expérience/compétence dans le domaine de la Data est nécéssaire Vous serez amené à tester : collecte et ingestion des données vérifications de la conformité et cohérence des données dans les différentes zones (brute/raffinée/capitalisation/Factorisation) vérifications des règles de gestion des zones capitalisation et factorisation Vérification de la restitution des données dans les reportings Profil : De formation supérieure en informatique, vous avez une expérience minimum de 3/4 ans sur un rôle de QA orienté Data ou BI. Un profil technico fonctionnel est demandé pour traiter les sujets d'ingestion des données, les tests d'API via Postman, les tests d'intégration 2 à 2 et les tests de bout en bout. Compétences techniques SQL - Confirmé - Impératif Azure event hub - Confirmé - Important Postman - Confirmé - Important" Méthodes & outils nécéssaires Outils de gestion des tests/anomalies : Jira , Xray . Chaînes CI/CD : Microsoft Azure . Plateforme : Databricks . Tests API : Postman . Restitution : Power BI . Profil attendu : technico-fonctionnel , à l’aise sur la collecte et ingestion de données, tests de flux et tests de surface en production.

CDI
CDD

Offre d'emploi
Développeur BI Senior (MSBI/GCP)

Hexateam
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
MSBI

12 mois
Paris, France

Contexte: Nous recherchons un Data Analyst / Développeur BI Senior afin de renforcer l’équipe existante. Le profil attendu doit avoir une expertise confirmée dans les environnements GCP et Power BI Online, avec une forte capacité à produire des développements BI robustes, scalables et maintenables. Missions principales: - Réaliser les reportings et tableaux de bord. - Assurer la maîtrise et la modélisation des données. - Concevoir, développer et maintenir des solutions BI performantes, optimisées et réutilisables. - Réaliser des tests fonctionnels et des recettes métiers. - Garantir l’application des bonnes pratiques de développement BI. - Produire la documentation technico-fonctionnelle en fin de sprint. - Conseiller et accompagner les équipes métiers (devoir de conseil). - Collaborer étroitement avec le Product Owner et l’équipe de développement. - Concevoir des maquettes en lien avec le Product Owner. - Participer à l’assistance utilisateurs (formation, transmission de connaissances, support niveau 3). - Débloquer et accompagner les autres développeurs si nécessaire. Environnement technique & compétences attendues Environnement GCP (Google Cloud Platform) : - BigQuery - PySpark - Dataflow - Airflow / DAG - Cloud Storage - Administration de plateforme (IAM, gestion des droits, monitoring, etc.) BI & Data Visualisation : - Power BI Desktop & Online - Modélisation BI - DevOps / CI/CD - Bonnes pratiques BI (scalabilité, performance, maintenabilité). Profil recherché Expérience : minimum 7 ans dans le développement BI et l’exploitation de données. Compétences techniques : maîtrise confirmée de GCP et Power BI Online, avec une bonne pratique des outils de traitement et d’orchestration des données (BigQuery, PySpark, Airflow, Dataflow).

Freelance
CDI

Offre d'emploi
Data Engineer GCP + Talend

HIGHTEAM
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Microsoft SQL Server

3 ans
40k-55k €
400-550 €
Île-de-France, France

Pour l’un de nos clients Grand Compte, nous recherchons un Data Engineer spécialisé sur GCP et Talend . Missions principales : Analyser les besoins métiers et comprendre les impacts business des données afin de proposer une conception pertinente et alignée avec les objectifs stratégiques. Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub Cloud Composer). Améliorer la performance et la scalabilité des solutions existantes. Collaborer étroitement avec les architectes, PO et data analystes pour garantir la qualité et la bonne exploitation des données. Maintenir une documentation technique claire et à jour des processus et solutions mises en place. Réaliser la recette technique et participer à l’animation de la recette fonctionnelle avec les utilisateurs et le PO. Mettre en place et gérer des systèmes de monitoring pour assurer la supervision proactive des pipelines. Participer aux phases de déploiement et assurer la maintenance corrective et évolutive. Veiller à la cohérence des livrables avec les standards et bonnes pratiques de l’équipe. Compétences techniques requises :

Freelance
CDI
CDD

Offre d'emploi
Testeur Data confirmé

SARIEL
Publiée le
Azure
Postman
SQL

24 mois
45k-60k €
360-500 €
Châtillon, Île-de-France

Bonjour, Nous recherchons pour notre client basé en région parisienne un Testeur Data confirmé (4 à 10 ans d’expérience). Objectif global Testeur confirmé avec compétences Data Analyste Les livrables sont Construction du référentiel de tests Détection et remontées des défauts Élaboration PV de recette Compétences techniques SQL - Confirmé - Impératif Azure event hub - Confirmé - Important Postman - Confirmé – Important Description détaillée Au sein de la Direction Digital et Data, vous intégrerez le département Data Lab en charge des projets BI et Data pour notre client. En tant que QA Data, vous ferez partie du pôle Qualité Data sera d'assurer la préparation, l'exécution et le suivi de la recette technico fonctionnelle tout en contribuant à l'amélioration de la qualité de données. Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les anomalies avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Une expérience/compétence dans le retail et dans le domaine de la Data serait un plus. Vous serez amené à tester : - collecte et ingestion des données - vérifications de la conformité et cohérence des données dans les différentes zones (brute/raffinée/capitalisation/Factorisation) - vérifications des règles de gestion des zones capitalisation et factorisation - Vérification de la restitution des données dans les reportings De formation supérieure en informatique, vous avez une expérience minimum de 3/4 ans sur un rôle de QA orienté Data ou BI. Un profil technico fonctionnel est demandé pour traiter les sujets d'ingestion des données, les tests d'API via Postman, les tests d'intégration 2 à 2 et les tests de bout en bout. Nous cherchons des personnes autonomes, rigoureuses, force de proposition et reconnues pour leurs qualités organisationnelles. Une bonne communication, un sens du contact et coopération en équipe est indispensable SYNTHESE DES TESTS Réalise un bilan des tests effectués Données complémentaires Date de démarrage 01/10/2025 Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes non Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?

Freelance
CDI

Offre d'emploi
Data Scientist F/H

GENIOUS
Publiée le
Apache Spark
Data science
PySpark

3 ans
40k-47k €
400-550 €
Île-de-France, France

Genious Systèmes recherche pour son client un(e) Data Scientist F/H Dans le cadre d’un renfort d’équipe avec des compétences de Data Scientist, il participera aux bons usages techniques et fonctionnels des données au sein d’une direction métier. Accompagner les utilisateurs lors de la mise en place de Data Prep, d’analyse de données, de KPIs, de dashboards... Accompagner techniquement et former d’autres Data Scientists ainsi que des Data Analysts, Valider la mise en place des bonnes pratiques. Assurer le suivi des performances et participera aux phases d’optimisation. Participation à l’homogénéisation et l’industrialisation des phases de Data Prep. Maîtrise Python Spark sur un environnement Cloud ainsi que le dashboarding et la Data Viz (Looker, Kibana, Grafana). L’environnement technique sera principalement constitué de : Databricks Looker Prometheus Tempo Grafana Elastic Kibana

Freelance
CDI

Offre d'emploi
Data Engineer GCP & Talend

Espritek
Publiée le
Google Cloud Platform (GCP)
SQL
Talend

3 ans
Ivry-sur-Seine, Île-de-France

Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. Description  Missions principales • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe Livrables Développements Cahiers de test/recette Dossier de recette / Mise en production Spécifications Document d'exploitation Fiche consigne Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • Talend : Solides compétences dans la conception et la gestion des workflows • GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d’autres services GCP liés aux données. • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).

Freelance
CDI

Offre d'emploi
Dev Engineer

Management Square
Publiée le
Control-M
Data analysis

1 an
38k-43k €
380-430 €
Bruxelles, Bruxelles-Capitale, Belgique

Contexte Nous recherchons un Data Operations Engineer chargé d’assurer le bon fonctionnement des pipelines de données, des workflows et des systèmes de gouvernance des données . Votre rôle sera essentiel pour soutenir les activités de gouvernance des données au quotidien, en garantissant la qualité, l’intégrité et la disponibilité des données . Vous travaillerez en étroite collaboration avec les data engineers, analystes et autres parties prenantes pour optimiser les workflows, gérer la planification et les mises en production , et résoudre les incidents afin d’assurer des opérations de données stables et fiables. Vos missions Opérations des pipelines de données Gérer et maintenir des pipelines de données sous Linux , en garantissant des flux fiables et performants. Développer et maintenir des scripts Shell pour automatiser le traitement, la transformation et le chargement des données. Collaborer avec les data engineers pour optimiser les workflows et améliorer la qualité des données. Planification des jobs & Release Management Créer, planifier et gérer des jobs dans Control-M pour assurer un traitement et une livraison des données dans les délais. Préparer et exécuter les mises en production, en limitant l’impact opérationnel. Surveiller l’exécution des jobs, analyser les logs et résoudre les échecs pour garantir l’intégrité des données. Gestion des incidents Identifier et résoudre rapidement les incidents liés aux données, en minimisant leur impact sur les utilisateurs. Réaliser des analyses de causes racines et mettre en place des mesures préventives Documenter les incidents, les actions correctives et les enseignements pour enrichir la base de connaissances. Gestion des données Administrer les bases de données, exécuter des requêtes et résoudre les problèmes de connectivité pour assurer la disponibilité des données. Collaborer avec les analystes et les ingénieurs pour renforcer la gouvernance et la qualité des données. Mettre en place et maintenir des contrôles de qualité pour garantir la fiabilité et la cohérence des données.

Freelance

Mission freelance
CP/BA DATA-BI

SQLI
Publiée le
BI

6 mois
400-550 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients situé sur Paris, je suis à la recherche d'un chef de Projet / Business Analyst Data BI. Contexte du poste : Dans le cadre du renforcement du dispositif projet Dataplatform, nous recherchons un(e) Chef de Projet / Business Analyst Data pour piloter les activités de delivery, structurer les besoins métiers et accompagner les équipes techniques dans la mise en œuvre de la plateforme data. Vos missions : Pilotage projet : Suivi du planning, des charges, des livrables et des risques Animation des comités projet et reporting auprès du management Coordination des équipes internes et partenaires Business Analysis : Recueil et formalisation des besoins métiers (ateliers, interviews) Rédaction des spécifications fonctionnelles et des cas d’usage Élaboration du dictionnaire de données et des modèles conceptuels Delivery & Qualité : Suivi des développements et des tests Définition de la stratégie de recette et accompagnement des utilisateurs Garantie de la qualité des livrables et de la satisfaction client

Freelance

Mission freelance
Product Owner IA

Signe +
Publiée le
Agile Scrum

6 mois
400-620 €
Grenoble, Auvergne-Rhône-Alpes

Contexte : Le Product Owner sera responsable de la définition, la priorisation et la livraison des fonctionnalités d’une plateforme supportant : Les workflows de machine learning classique. Les outils low-code/no-code destinés aux citizen developers et utilisateurs métiers. Il travaillera en étroite collaboration avec les équipes d’ingénierie, MLOps, gouvernance des données et conformité afin d’assurer des solutions robustes, scalables et orientées utilisateurs. Missions principales : Backlog Definition & Prioritization Définir et maintenir un backlog clair et actionnable aligné avec les besoins utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités concrètes. Contribuer à la planification PI et aux activités de refinement selon les pratiques Agile SAFe. Product Discovery & Validation Mener des activités de découverte pour valider les besoins utilisateurs et tester les idées de solution. Garantir que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transversale Coordonner avec les parties prenantes internes (engineering, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption & Enablement Accompagner l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’usage et collecter les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et autonomiser les citizen developers grâce à des outils intuitifs et une documentation adaptée. Contribution stratégique Définir et communiquer la vision sur le ML classique et le low-code/no-code. Identifier des opportunités d’innovation et d’efficacité. Suivre les tendances marché et les technologies émergentes. Compétences requises : Expérience confirmée en Product Ownership ou Product Management, idéalement sur des plateformes IA/Data. Bonne compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience en environnements cloud (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion de parties prenantes. Langues : Anglais courant (impératif). Français : un plus.

Freelance
CDI

Offre d'emploi
Product Owner BI

Sapiens Group
Publiée le
Looker Studio
Qlik
SAS

6 mois
40k-45k €
400-550 €
Paris, France

La mission s’articulera autour de : Pilotage produit des besoins BI (backlog, cas d’usage, priorisation, validation produit) Vision stratégique BI (choix d’outils, plan de transformation, montée en compétences) Périmètre de la mission Pilotage produit & backlog BI Recueillir, analyser et formaliser les besoins métier en collaboration avec les directions utilisatrices Prioriser les cas d’usage BI selon leur valeur, urgence et faisabilité Rédiger et maintenir un backlog BI clair et structuré (user stories, critères d’acceptation, jeux de test) Suivre l’avancement des développements et valider les livrables avec les utilisateurs et les Business Lines Animation agile & coordination fonctionnelle Préparer et co-animer les rituels agiles avec le Scrum Master (affinements, plannings, revues) Collaborer quotidiennement avec les développeurs, Tech Leads et Data Analysts Représenter la voix du métier et des Business Lines au sein de l’équipe Qualité fonctionnelle & validation métier Garantir la cohérence et la qualité des tableaux de bord, rapports et datamarts livrés Valider les livrables BI avec les utilisateurs finaux Documenter les solutions de manière claire et accessible Vision stratégique & transformation BI Apporter son expertise aux équipes data et à la hiérarchie sur la vision stratégique et la transformation BI Identifier les cas d’usage pertinents pour tester de nouveaux outils BI, en coordination avec les métiers et Business Lines Piloter les POCs : cadrage, expérimentation et retour d’expérience Élaborer un plan de montée en compétences pour l’équipe (formations, coaching, accompagnement) Contribuer à la stratégie de gouvernance et au développement du self-service BI Interface métier & conduite du changement Animer les ateliers de cadrage fonctionnel avec les métiers Présenter les livrables de manière claire et orientée valeur Être ambassadeur de la transformation BI auprès des directions utilisatrices Suivre les retours utilisateurs et les indicateurs d’adoption

124 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous