L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 705 résultats.
Mission freelance
Ingénieur Big Data / Cloudera – Automatisation & Production (H/F)
Publiée le
Apache Kafka
3 ans
Île-de-France, France
Le service réalise le développement de l'ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Environnement technique : Ansible Apache NiFi Hadoop (Big Data) Kafka Scripting (GuitHub, Ansible, AWX, shell, vba)
Mission freelance
Ingénieur DevOps Cloud Azure – Confirmé / Expert (Data & BI)
Publiée le
Architecture ARM
Azure
Azure DevOps
6 mois
Île-de-France, France
Description du poste : Intégré au Data Lab de la Direction Digital & Data d'un grand groupe Retail, vous pilotez l'architecture et l'industrialisation des projets BI et Data sur le Cloud Microsoft Azure. Au sein d'une équipe Agile d'une dizaine de personnes, vous assurez la liaison entre les équipes techniques (Dev, Sécurité, Ops) et projets. Vos missions s’articulent autour de trois axes majeurs : Construction et Déploiement : Vous concevez et dimensionnez les infrastructures Cloud Public (Azure). Vous déployez les architectures cibles pour les projets Big Data (DataLake, EventHub, Databricks). Industrialisation (DevOps) : Vous garantissez l'approche "Infrastructure as Code" (IaC) via ARM et YAML. Vous configurez et maintenez les pipelines CI/CD (Azure DevOps, Git) pour automatiser les déploiements. Exploitation et Sécurité : Vous mettez en place la supervision et assurez la haute disponibilité des services. Vous gérez le Maintien en Condition Opérationnelle (MCO), les sauvegardes, les accès et la sécurité, tout en participant aux validations techniques et aux audits.
Offre d'emploi
Data Analyst Dataiku/Dremio
Publiée le
Dataiku
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
L'équipe Reporting & Analyse du risque contribue au pilotage mensuel du risque avec la mise à jour du datamart risque et des reportings risque. Pour cela un RUN mensuel devra perdurer en même temps que les développements induits pour les nouveaux usages data ( nouvelles expositions de données, nouveaux outils de data préparation DREMIO-DATAIKU et utilisation de PBI report server). Cette mission a pour objectif de développer des flux dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. La construction et le fonctionnement de ces mises en place devront être documentés. L’équipe reporting tient à cœur de développer des suivis automatisés et optimisés. Une intégration au run mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées dans le but de s’imprégner du fonctionnement de l’équipe. Prestations demandées • Comprendre le fonctionnement actuel du datamart risque. • Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU • Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel • Participation au double run mensuel
Offre d'emploi
Poste de Business Analyst en Belgique (ayant des compétences secteur médical / hospitalier)
Publiée le
Business Analyst
Conduite du changement
1 an
38k-48k €
360-590 €
Belgique
Contexte de la mission Dans le cadre de projets d’implémentation de solutions informatiques au sein d’établissements hospitaliers en Belgique, nous recherchons un consultant pour accompagner le déploiement de logiciels métiers, principalement le Dossier Patient Informatisé (DPI) XCare de Zorgi . La mission implique des déplacements réguliers sur l’ensemble du territoire belge . Durée et démarrage Démarrage : début janvier 2026 Durée : mission couvrant l’ensemble de l’année 2026 Type de mission : consulting (freelance ou assimilé) Le consultant interviendra sur des projets d’implémentation de logiciels hospitaliers, avec les responsabilités suivantes : Analyse des besoins des utilisateurs Recueil et formalisation des besoins métier Rôle de Business Analyst auprès des équipes hospitalières Paramétrage du logiciel Configuration du DPI XCare en fonction des processus et contraintes des établissements Collaboration avec les équipes techniques et fonctionnelles Gestion du changement et accompagnement des utilisateurs Préparation et animation d’actions d’accompagnement Support à l’adoption des outils par les équipes Cette dimension représente environ 50 % du temps de la mission et est considérée comme critique pour la réussite des projets
Offre d'emploi
Data scientist
Publiée le
Python
40k-60k €
Paris, France
Télétravail partiel
Ce rôle de Data Scientist est une nouvelle création de poste, avec un démarrage envisagé en janvier 2026 . Le Data Scientist rejoindra l'équipe pour travailler sur des projets d'analyse de données, d'apprentissage automatique (Machine Learning - ML), de collecte de données et de développement d'applications/solutions. Les principales responsabilités incluent : L'analyse approfondie de la donnée. La récolte et le traitement des jeux de données. Le développement et l'implémentation de modèles de Machine Learning. Le déploiement des solutions développées.
Offre d'emploi
Business analyste
Publiée le
Business Analyst
12 mois
42k-45k €
380-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
- Contribuer au découpage et affinage des besoins en lien avec le Métier (via le Business Coverage le cas échéant) en soutien du Product Owner - Participer, le cas échéant, au suivi du Backlog et à la priorisation des demandes, sur mon périmètre d’activité - Rédiger ou contribuer à la rédaction de la déclinaison de la Feature en stories - Challenger les stories puis estimer avec l’équipe de réalisation et les clarifier par discussion - Aider à mettre à jour le Backlog Produit et intégrer les éléments spécifiés en réunion dont les critères d’acceptation, les cas de test associés… - Accompagner le Testeur dans la phase de test et, le cas échéant, réaliser les tests de la User Story - Participer à l’identification des impacts Métier engendrés par la solution, et à l’élaboration des plans d’actions. - Partager ses connaissances sur son domaine d’expertise et assurer le support fonctionnel - Participer aux différentes cérémonies de la Squad et plus largement si nécessaire. - Accompagner la conduite du changement fonctionnel et l’insertion opérationnelle Compétences métier et/ou techniques • La connaissance du métier de la mobilité est un plus • Connaissances informatiques • Relations IT/ Business • Développement commercial et relation client • Expérience utilisateur (UX) et approche parcours client • Analyse du risque • Connaissances produits crédit et Assurance • Connaissance des processus métier et règle de gestion • Maitrise de l‘anglais opérationnel Qualités requises • Compétences en gestion de projet : Compréhension des méthodes agiles (Scrum, Kanban) et capacité à coordonner les différents acteurs d’un projet. • Esprit critique : Capacité à poser les bonnes questions et à proposer des améliorations concrètes en se basant sur les données. • Qualités relationnelles : Bonnes compétences en communication pour interagir avec les équipes métiers, techniques et marketing. • Curiosité et adaptabilité : En veille constante sur les évolutions du secteur e-commerce et prêt à s’adapter aux changements rapides de ce domaine.
Offre d'emploi
Data Engineer (21)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Offre d'emploi
Concepteur base de données Oracle (H/F)
Publiée le
Oracle Database
Oracle SQL Developer
PL/SQL
6 mois
Écully, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un(e) Concepteur(trice) base de données Oracle capable de transformer les besoins métiers en modèles de données clairs, cohérents et évolutifs. Vous travaillerez en collaboration avec les équipes métiers et techniques pour structurer et ordonner les objets de la base, garantissant un modèle adapté aux évolutions futures. Vos missions : Analyser les besoins métiers et formaliser le modèle de données. Concevoir et modéliser les objets de la base (tables, vues, relations, contraintes). Organiser le schéma de manière cohérente et évolutive. Produire la documentation fonctionnelle (dictionnaire de données, schémas conceptuels et logiques). Collaborer avec les équipes techniques pour assurer la bonne implémentation du modèle.
Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Offre d'emploi
Business Analyst H/F
Publiée le
AMOA
Business Analyst
MOA
36 mois
32k-42k €
380-470 €
Nantes, Pays de la Loire
Télétravail partiel
Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Nantes (44), deux Business Analyst H/F . 🌟 Quel sera votre poste ? 🌟 Démarrage : 05/01/2025 ( URGENT) Durée : 36 mois Lieu : Nantes Télétravail : 2 jours/semaine (non-négo) Contrat : Ouvert à tous types de contrats (indep, portage, CDI) 👉 Contexte client : Dans le cadre d’un renfort d’équipe sur un projet stratégique de notre client, vous interviendrez en tant que Business Analyst H/F. A ce titre vos missions seront : Comprendre les besoins métiers Élaborer des solutions adaptées au contexte client Décliner les solutions en analyses fonctionnelles Accompagner les équipes de développement (Java / Windev) Participer à la validation des solutions mises en œuvre
Mission freelance
Chef de Projet Technique DATA
Publiée le
BigQuery
Cloud
Comité de pilotage (COPIL)
6 mois
Paris, France
Télétravail partiel
Dans le cadre de la modernisation de son écosystème Data et de la montée en charge de projets stratégiques Cloud, nous recherchons un Chef de Projet Technique confirmé spécialisé GCP. Vous interviendrez au sein d’une DSI Assurance mobilisée autour de l’industrialisation de ses usages Data et de l’accélération des livraisons sur la plateforme Cloud. Votre rôle Vous jouez un rôle clé dans la coordination technique, la structuration des travaux DATA sur GCP et le pilotage global de l’avancement du programme. Vos responsabilités • Piloter les projets Data hébergés sur Google Cloud Platform. • Coordonner les équipes techniques (Data, IT, Cloud, Transverse). • Assurer le suivi planning, risques, charges et dépendances. • Organiser et animer les comités projet / comités techniques. • Consolider les besoins techniques et suivre l’avancement des actions. • Garantir la qualité des livrables, la cohérence technique et la bonne circulation de l’information. • Veiller au respect des normes internes, bonnes pratiques Cloud et exigences de sécurité.
Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Le Plessis-Robinson, Île-de-France
Télétravail partiel
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Mission freelance
PRODUCT OWNER DATA PRODUIT
Publiée le
Snowflake
12 mois
560-570 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à dimension internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes structurée par domaines fonctionnels. Le rôle est rattaché au Lead PO Data Sales / Finance / CRM. Objectif : piloter la vision, la roadmap et la valeur du produit DATA autour du périmètre PRODUIT. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (manipulation et analyse de gros volumes de données). – Environnement actuel : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT à venir – QlikSense (visualisation et reporting) ENVIRONNEMENT FONCTIONNEL Intervention sur des sujets Data stratégiques autour du PRODUIT. Le PO aura en charge : – La conception des parcours utilisateurs et la définition des KPIs. – La rédaction des spécifications fonctionnelles pour les Data Engineers / Data Analysts. – La gestion et la mise à jour du Data Catalog. – La participation au design produit et à la qualité des livrables. – L’animation des rituels agiles (sprints de 3 semaines). Outils : JIRA, Confluence. Le rôle nécessite un esprit critique fort, une capacité à challenger le besoin et à proposer de la valeur. PROFIL RECHERCHÉ – Expérience : 8 ans dans la Data, dont minimum 4 ans en Chef de Projet Data ou Product Owner. – Connaissances solides du Retail (processus opérationnels, planification, référentiel produit). – Qualités attendues : – Autonomie et prise d’initiative – Leadership naturel pour fédérer les équipes – Capacité d’analyse poussée et esprit critique – Sens de la communication vers les métiers comme vers la tech
Mission freelance
Architecte data
Publiée le
Architecture
1 an
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Nous cherchons un Architecte Data, dont la mission sera de travailler sur différents aspects de l'architecture de données. Il sera le garant de l'urbanisation de la donnée, de sa cohérence et de sa circulation de la donnée au sein d'un écosystème complexe et siloté. Il assure l'interopérabilité, la qualité et la valorisation des données issues des différents silos applicatifs. Objectifs principaux de la mission : · Urbaniser le SI Data : Définir et piloter la trajectoire pour passer d'un SI siloté à une architecture data-centric (orientée service/API et/ou hub de données). · Garantir la cohérence technique : Assurer la définition d'un langage commun et la gestion des données de référence (MDM) à travers les applications. · Définir le cadre d’implémentation des données : proposer la méthode pour rendre les données accessibles et interopérables pour les usages Métier (BI, reporting opérationnel, information voyageurs temps réel, maintenance prédictive…) Activités et Responsabilités Clés Ø Architecture & Modélisation · Cartographie du SI Data en lien avec le gestionnaire des données : Établir et maintenir la cartographie des données (conceptuelle, logique) et des flux inter-applicatifs, en cohérence avec la cartographie globale du SI. · Modélisation des données : Définir et gouverner les objets métier centraux conformément aux spécifications fournies par les métiers et définir les modalités d’interactions des différents systèmes avec ces objets (fréquence, pattern, performance, liaisons entre les différents objets.) · Standards & Normes : Aider à l’intégration et la bonne implémentation des standards du transport public (NeTEx pour l'offre théorique et tarifaire, SIRI pour le temps réel…) dans les projets internes et externe, il doit également assurer une veille sur les standards. Ø Conception des Échanges & Interopérabilité · Définition des Interfaces : En collaboration avec les équipes d’architecture et de développement, concevoir les ‘contrats d'interface’ (API, Webservices, Messages, ETL) entre les solutions éditeur ou solutions maison en utilisant les plateformes d'intégration (ESB, API Management, Message Broker…). · Validation des flux : S'assurer que le dimensionnement des flux de données répondent aux besoins fonctionnels et aux contraintes de performance (ex : criticité du temps réel entre le SAE et l'application mobile). Ø Gouvernance, Qualité & Conformité des Données · Master Data Management (MDM) : En collaboration avec les gestionnaires de la donnée Identifier les applications ‘ maîtres ’ pour chaque donnée de référence (produit / billettique, véhicule/Mainta…) · Stratégie de Mise en Qualité (Data Quality) : Contribuer à la définition de la stratégie de qualité des données, en combinant des approches métier et techniques : o Stratégie Métier : Accompagner les référents métier (Ex : Gestionnaires des données) dans la définition des règles de gestion et dans les processus de correction des anomalies à la source o Stratégie Technique : Définir et contribuer à la mise en œuvre des contrôles de qualité automatisés (profiling, dédoublonnage, validation de format) au sein des flux de données (via l'ETL, l'ESB) et des tableaux de bord de suivi de la qualité des données (Data Quality Monitoring) à destination des métiers et de la DSI. · Sécurité & Conformité : Garantir que l'architecture data respecte les contraintes de sécurité (NIS2) et de protection des données personnelles (RGPD sur le CRM et la Billettique…). Ø Pilotage de Projets & Vision Stratégique · Support aux Projets : Agir en tant qu'expert Data pour tous les nouveaux projets · Cadrage Architectural : Rédiger les Dossiers d'Architecture Technique (DAT) sur le volet Data
Mission freelance
H/F - Product Owner CRM & Data Client
Publiée le
Backlog management
Rédaction des spécifications fonctionnelles
Salesforce Sales Cloud
3 mois
Paris, France
Télétravail partiel
Niveau : Confirmé (+8 ans d’expérience) Au sein de la DSI, vous rejoignez l’équipe produit responsable du référentiel client et des processus de prospection associés. Votre mission consiste à définir la vision produit, piloter les évolutions fonctionnelles et assurer la cohérence globale de la solution CRM orientée Data. Acteur central de l’organisation agile, vous êtes garant de la valeur métier, de la priorisation du backlog et de la qualité des livrables. Vous travaillez en coordination avec les équipes techniques, data et commerciales afin d’assurer un delivery performant et une adoption optimale des fonctionnalités. Missions principales • Définir et piloter la vision produit et la roadmap. • Recueillir, analyser et formaliser les besoins métiers. • Rédiger les spécifications fonctionnelles et critères d'acceptation. • Prioriser et maintenir le backlog produit. • Coordonner les équipes techniques et assurer la qualité du delivery. • Garantir la cohérence du SI avec les autres produits et services. • Accompagner le déploiement, la conduite du changement et l’adoption des nouvelles fonctionnalités. • Assurer la valeur délivrée à chaque itération.
Mission freelance
Administrateur BDD PostgreSQL (H/F)
Publiée le
Batch
Linux
Microsoft SQL Server
3 mois
500-570 €
Courbevoie, Île-de-France
Télétravail partiel
Les missions - Réaliser les opérations MCO/MCS des services de bases de donnée (MS SQL/postgreSQL) - Assurer la disponibilité du socle infrastructure et des environnements applicatifs - Gérer le déploiement des environnements applicatifs 3DX - Analyser la DB et proposer des axes d’amélioration/optimisation - Expertise de gestion et d’automatisation de DB Une expérience confirmée et des connaissances approfondies parmi les domaines suivants sont nécessaires : - Installation et exploitation de plateformes applicatives en environnement automatisé et contraint par des standards de Cyber Sécurité - Outillage orienté MS SQL/postgreSQL - Rédaction de documents d’exploitation - Maitrise des opérations de delivery et des outils associés (CMDB, supervision, gestion des tests, de la qualité)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
3705 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois