Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 307 résultats.
Freelance

Mission freelance
ARCHITECTE DATA / BI

Publiée le
Azure
Microsoft Power BI

6 jours
280-750 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons un Architecte Data / BI. 🎯 But du projet Mettre en place une donnée fiable, robuste et gouvernée , permettant de soutenir la croissance client et de disposer d’une BI performante, maintenable et alignée avec les enjeux métiers . L’objectif global est de : Réaliser un état des lieux complet de l’environnement Data (technique, organisationnel et fonctionnel), Identifier les points de faiblesse et les opportunités d’amélioration , Définir une vision cible à 3–5 ans (schéma directeur Data), Recommander les bonnes pratiques et les outils adaptés , en tenant compte à la fois de l’écosystème Microsoft (Power BI, SQL Server, Azure) et Open Source , Aligner la stratégie Data sur la croissance business et les besoins des métiers (Marketing, Facturation, Supply, Procurement). 🔍 État actuel et contexte technique Architecture et sources : 3 principales sources de données : Open Bravo (ERP / gestion opérationnelle) Magento (e-commerce) SAP BI Design (reporting financier) Environ 30 tables , avec 500 000 lignes / an chacune (volumétrie modérée mais non négligeable). Pas de datamart complet et enrichi , architecture fragmentée. Stack BI : Power BI pour le reporting, mais performances dégradées et pas de mise à jour temps réel sur certains indicateurs clés (notamment CA e-commerce ). Problématiques techniques : Flux SQL complexes et peu optimisés , générant des lenteurs et un risque d’erreur. Manque de gouvernance de la donnée (règles de gestion hétérogènes, absence de traçabilité claire du cycle de vie des données). Pas d’unicité de la donnée → incohérences possibles entre sources. Dépendance forte aux sources brutes , sans couche d’intégration stable (Data Warehouse/Data Lake structuré manquant). ⚠️ Points critiques identifiés Manque de vision globale de l’écosystème Data : absence de cartographie claire des flux, processus, et responsabilités. Architecture sous-optimale : pas de modèle de données central (datamart/warehouse) consolidant les flux multi-sources. Performance Power BI insuffisante : SQL non optimisés, données non préparées, calculs coûteux. Gouvernance et qualité de données à structurer : pas de cadre formalisé de validation, de définition des KPIs ni de dictionnaire de données. Dépendance aux équipes techniques pour chaque évolution de reporting. Pas de benchmark / comparaison sectorielle pour ajuster la stratégie Data à la croissance du groupe. Rapport d’audit Data (état des lieux complet, points critiques, volumétrie, architecture actuelle) Schéma directeur Data cible à 3–5 ans Recommandations techniques (Microsoft & Open Source) Feuille de route priorisée (actions court, moyen, long terme) Benchmark sectoriel (KPI, modèles de gouvernance, architecture comparée)
Freelance

Mission freelance
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941

Publiée le

10 mois
580-635 €
Paris, France
Télétravail partiel
Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.
Freelance
CDI

Offre d'emploi
Demande de prestation IT en Directeur de projets

Publiée le
Big Data
ISO 27001
Microsoft Access

12 mois
40k-48k €
400-480 €
Saint-Denis, Île-de-France
Télétravail partiel
Tâches à réaliser : Garantir la disponibilité, fiabilité et performance des applications budgétaires, en particulier lors des périodes critiques Maintenir un niveau conforme en matière de sécurité et conformité (RGPD, ISO 27001…) Gérer les évolutions applicatives et le support utilisateurs Traiter les anomalies et maintenir la documentation opérationnelle Identifier et mettre en œuvre des pistes d’industrialisation · Participer au projet de refonte EPM Pigment Optimiser et moderniser les processus de prévisions budgétaires (automatisation, rationalisation, modularité) Sécuriser et fiabiliser les interfaces et flux entre cycles de planification Renforcer l’agilité métier : ajout d’axes d’analyse, gestion d’organisations évolutives, restitution automatisée Participer à la conception de l’architecture Pigment (data hub, connecteurs, intégration SI, reprise de données)
Freelance

Mission freelance
Data analyst-Data Engineer (H/P)

Publiée le
Pandas
PySpark
Tableau software

3 ans
100-600 €
Meudon, Île-de-France
Télétravail partiel
Description du poste : Nous recherchons un(e) Data Analyst pour intervenir au sein de la Cellule Qualité Fixe (CQF) de Bouygues Telecom. Le rôle consiste à produire des analyses à partir de datasets constitués sur les plateformes Big Data, préparer et nettoyer les données, et les rendre disponibles pour les datascientists. Vous développerez également des tableaux de bord de suivi des KPI via Tableau. Missions principales : Exploiter et superviser la plateforme Big Data (monitoring Wifi des Box). Assurer le suivi des KPI et mettre en œuvre de nouveaux indicateurs. Investiguer les incidents et coordonner les actions avec les fournisseurs et les équipes internes. Développer des scripts Scala / Spark pour préparer et nettoyer les données. Gérer la sécurité, les sauvegardes et le déploiement des correctifs. Piloter les évolutions de la plateforme (hardware, applicatifs, architecture réseau). Superviser et maintenir la plateforme Data en microservices (Kubernetes/OpenShift). Déployer et gérer les applicatifs via Helm et GitLab. Administrer les utilisateurs, les buckets et les règles de gestion du datalake. Développer des dashboards Tableau et générer des KPI pour l’équipe.
Freelance

Mission freelance
Chef de projet DATA Domaine Banque / Assurance - MER

Publiée le
IA Générative
Pilotage
Python

3 mois
400-480 €
Mer, Centre-Val de Loire
Télétravail partiel
Chef de projet DATA pour une mission à MER (près d'Orléans). Domaine Banque / Assurance. Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il interviendra sur les projets suivants : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets
Freelance

Mission freelance
Business Analyst senior/Expert Data – Asset Management

Publiée le
Architecture
Business Analyst
Data Warehouse

2 ans
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour accompagner un Asset Manager dans la structuration et l’évolution de son écosystème Data. Vos missions : Recueillir et formaliser les besoins Data des équipes métier (Front, Risk, Reporting, Compliance). Contribuer à la conception du modèle de données et à la qualité / gouvernance des données. Participer à la mise en place d’outils de data management et data lineage. Collaborer avec les équipes IT, Data Engineers et Métier sur la roadmap Data
CDI

Offre d'emploi
Tech Lead Data

Publiée le

50k-70k €
Neuilly-sur-Seine, Île-de-France
Missions principales Piloter la conception et la mise en œuvre de l’architecture Data sur Google Cloud Platform (GCP) . Concevoir, développer et maintenir des pipelines d’ingestion et de transformation de données internes et publiques. Garantir la fiabilité, la performance et la scalabilité des flux de données au sein de la plateforme. Mettre en place et industrialiser les environnements d’exécution via GKE , Terraform , et les outils d’orchestration ( Argo Workflow , Airflow , etc.). Développer et documenter des modèles de données avec DBT (ou SQLMesh ). Intégrer des solutions d’ingestion automatisée de données à l’aide de Python et d’outils tels que Fivetran ou Rclone . Gérer le cycle de vie du code et des déploiements via GitLab CI/CD . Collaborer avec les équipes Data Science et R&D pour comprendre leurs besoins et traduire ces besoins en solutions data robustes. Promouvoir les bonnes pratiques en ingénierie de données, sécurité et gouvernance. Compétences techniques requises GCP (BigQuery, GCS) et SQL : maîtrise indispensable. Kubernetes (GKE) et Terraform : expérience solide en déploiement et automatisation. DBT ou SQLMesh : conception et maintenance de modèles de données. Python : développement de scripts et pipelines d’ingestion. Outils d’ingestion : Fivetran, Rclone ou équivalents. Orchestration de workflows : Argo Workflow, Airflow ou outils similaires. CI/CD : GitLab CI ou pipelines équivalents. Compétences appréciées : Connaissance d’ Azure et de Databricks . Expérience avec des mécanismes de Change Data Capture (DataStream, Debezium, etc.). Profil recherché Formation : Bac +5 ou équivalent (ingénierie, informatique, data). Expérience : minimum 5 ans en Data Engineering, dont une expérience significative sur GCP. Langues : maîtrise de l’ anglais indispensable (environnement international).
Freelance

Mission freelance
Pilote de projet Data / Product Owner Data (H/F)

Publiée le
Amazon S3
KPI
Pilotage

36 mois
350-460 €
Mer, Centre-Val de Loire
Télétravail partiel
Dans le cadre du développement de ses activités Data, un centre technique basé à Mer (Loir-et-Cher) . Projet mené en agilité qui vise à faciliter l’accès aux données pour les utilisateurs métier du client. Le rôle du prestataire sera celui de Product Owner sur le produit « Data » : gestion du Back Log, relation étroite avec le Scrum Master, l’équipe des DEV du service Modélisation des données, les équipes IT, les métiers Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure Client, mise en place d’un SI Décisionnel RH, autres projets à ouvrir en 2026 Piloter les projets sur ses aspects : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : avec les équipes Infra, avec les équipes IT du client (Architectes, Réseau, RSI, etc.), Métiers, CISO, etc. - Maîtrise des risques : implique une grande rigueur dans le suivi des actions, des plannings, des budgets
Freelance

Mission freelance
Lead Data Engineer (Azure/Snowflake)

Publiée le
Azure
Python
Snowflake

1 an
Île-de-France, France
Télétravail partiel
Dans le cadre de la structuration de son pôle Data, un grand groupe international lance la création d’un poste de Lead Data Engineer . Vous jouerez un rôle central dans l’encadrement de l’équipe Data Engineering (5 à 6 personnes) et dans la mise en place des bonnes pratiques de développement, d’industrialisation et de gouvernance sur un socle technologique Azure / Snowflake / dbt . Missions : Leadership & coordination technique Encadrer et animer une équipe de 5 à 6 Data Engineers. Garantir la qualité, la cohérence et la maintenabilité des développements (dbt, Python, Snowflake). Mettre en place des standards de développement, de revue de code et d’automatisation. Servir de relais technique entre le Data Architect, les Data Engineers et les équipes projet. Challenger les choix techniques et contribuer à la roadmap Data. Conception & industrialisation Piloter la migration des flux Informatica vers la nouvelle stack Snowflake / Azure Data Factory . Concevoir et optimiser les pipelines de données (ingestion, transformation, exposition). Garantir l’industrialisation via Terraform , Azure DevOps , PowerShell et CI/CD pipelines . Assurer la sécurité , la supervision et le FinOps des environnements Data. Architecture & gouvernance Participer à la modélisation et à la mise en place du modèle d’entreprise (EDM) et du Data Warehouse (3NF, étoile). Superviser la qualité, la traçabilité et la conformité des données (Data Quality, GDPR). Contribuer à la documentation et à la standardisation des pratiques.
Freelance

Mission freelance
Business Analyst – BI

Publiée le
BI
Big Data
SQL

6 mois
530-550 €
Paris, France
Télétravail partiel
Pour l'un de nos clients du secteur bancaire, nous recherchons un Business Analyst BI. PROJET : - Recueil et formalisation des besoins métiers. - Conception et rédaction de spécifications fonctionnelles BI (indicateurs, dimensions, modèles de données). - Capacité à challenger les besoins métiers et à proposer des solutions pragmatiques. - Rédaction de documentation fonctionnelle et utilisateurs. - Tests fonctionnels et validation des développements BI. METIER : - Bonne connaissance des environnements BI et Data. - Compréhension des processus de gestion de la donnée en environnement bancaire/financier (sécurité financière) - Maîtrise de SQL. ANGLAIS : excellent niveau.
Freelance

Mission freelance
Data Engineering Manager

Publiée le
Data management
Management

12 mois
400-700 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
La Direction Data & AI Depuis 2022, les équipes DATA du Groupe sont regroupées sous la responsabilité unique d’un Chief Data Officer, et suivant 5 pôles (ou verticales) : Produit, Engineering, Gouvernance, CoE & ML/AI. Cela représente env’ 150 pers. organisées suivant le modèle « Spotify », soit en Chapter d’expertise ou en Tribu et Feature Team alignée sur un périmètre Métier. La Tribu DATA « Distribution & Hotel Services » (DHS) La tribu DATA « Distribution & Hotel Services » (DHS) fournit des produits DATA (exports, tableau de bord, dataset/tables, etc.) permettant de piloter la performance et d’améliorer les opérations de nombreuses équipes sur ces domaines d’activités :  La « Distribution » consiste à diffuser sur de multiples canaux (Direct/Indirect, B2B/B2C, etc.) nos ‘services’ (hotel, restaurant, spa), leurs disponibilités, le prix et d’éventuelles offres, puis d’assurer le processus de réservation jusqu’au paiement. Le système au cœur de ce domaine s’appelle un ‘CRS’, d’où nous collectons de nombreux référentiels, mais surtout l’ensemble des réservations, et ce à chaque étape de leur cycle de vie.  Le domaine « Hotel Services » consiste à fournir les outils de ‘gestion’ aux hôtels. Le système principal au sein d’un hôtel est ce qu’on appelle le ‘PMS’ (Property Management System). Il existe aussi des POS pour la restauration ou le spa, mais ils sont généralement connectés aux PMS afin de transmettre une partie de leurs données, notamment sur les revenues & taxes. Côté DATA, l’activité se répartie aujourd’hui entre 3 sous-équipes au sein de la Tribe. Sous la responsabilité du Tribe Tech Lead DATA ‘DHS’, le/la Tech Manager « PMS Data » aura donc la charge de… o encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.) o créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent) o piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils) o animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore) o informer et alerter les (deux) Tribes Leads DATA ‘DHS’ o participer aux activités et évènement transverses de la Tribe, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non exhaustifs) : o Réduction des fichiers PMS manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus hôtels déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier ‘hôtel’ (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc d’hôtels connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Hotel Data Platform » (HDP) o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants
CDI

Offre d'emploi
Lead Data Scientist / IA (H/F)

Publiée le

55k-60k €
51100, Reims, Grand Est
Télétravail partiel
Directement intégré a une petite équipe et en qualité de Lead Data Scientist intervenant sur des sujets IA, vos missions seront les suivantes : - Concevoir, développer et industrialiser des solutions IA/ML orientées prévision et détection d'anomalies. - Développer et évaluer des modèles de séries temporelles, de régression et de détection d'anomalies, en assurant robustesse et suivi des performances. - Construire des pipelines de traitement de données (collecte, nettoyage, enrichissement de features) et manipuler des bases SQL ainsi que des données volumineuses et variées. - Mettre en oeuvre des solutions distribuées pour garantir la scalabilité des traitements et modèles. - Créer et automatiser des dashboards pour valoriser la donnée et accompagner la prise de décision des métiers. - Appliquer les bonnes pratiques de développement (qualité de code, tests, documentation) et contribuer au suivi et à l'industrialisation des modèles en production.
Freelance
CDI

Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans minimum)

Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance

Mission freelance
Data Engineer

Publiée le
ETL (Extract-transform-load)
Linux
Microsoft Power BI

12 mois
360 €
Toulouse, Occitanie
Télétravail partiel
Contexte / mission : Nous recherchons un data engineer expérimenté avec des compétences en SQL, ETL et outils de reporting. Le domaine Cargo Datawarehouse charge et affine les données pour les entreprises. Intervention au sein d’une équipe de 8 personnes. Profil : Data Engineer Nombre d’années d’expérience : plus de 5 ans Attendus : Il/elle devra intervenir sur le backlog actuel du projet (corrections et nouvelles fonctionnalités). Les données Cargo pour les domaines suivants sont chargées dans l’entrepôt de données : Données de billetterie et de réservation Données financières Données opérationnelles Serait également apprécié : compétence à piloter des sous-projets au sein du domaine CARGO, sous la responsabilité du responsable de domaine. Quel défi à relever ? PowerBI et GCP à l’avenir.
Freelance
CDI

Offre d'emploi
Business Analyst Data (F/H)

Publiée le
Big Data
Business Analyst

12 mois
45k-55k €
400-500 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique au sein d’un grand acteur du secteur bancaire, nous recherchons un Business Analyst Data / BI . Vous interviendrez en proximité avec les équipes métier pour les accompagner dans la définition des besoins , la conception de solutions et le suivi de la mise en œuvre , dans un environnement riche et complexe. Vos principales activités: Dans le cadre de votre mission, vous serez amené(e) à : Analyser l’existant : évaluer les deux entrepôts de données à décommissionner en termes d’audience, d’utilisation et de fonctionnalités. Réaliser une gap analysis en comparant les fonctionnalités existantes et celles de l’outil cible, puis proposer des recommandations de mise en œuvre. Alimenter le backlog en rédigeant des user stories complètes et détaillées, incluant l’ensemble des règles fonctionnelles. Accompagner les équipes de développement , en précisant ou en faisant préciser les points nécessitant des clarifications. Définir les critères d’acceptation et tester les fonctionnalités développées pour garantir leur conformité. Piloter la phase de change management afin de faciliter l’adoption de la nouvelle solution par les métiers.
Offre premium
CDI

Offre d'emploi
Data analyst H/F

Publiée le
Google Cloud Platform (GCP)
MySQL
PowerBI

Lille, Hauts-de-France
🎯 Venez renforcer nos équipes ! Afin d’accompagner nos clients finaux et de renforcer nos équipes dans le cadre de projets à forte valeur ajoutée sur nos activités, nous recherchons pour notre agence Lilloise un Data Analyst H/F. 📍 Ce qui vous attend : Intégré à l’une de nos équipes, vous participerez aux différentes phases d’analyse et de traitement de la donnée. Vos principales missions permettront de collecter, organiser et exploiter les données stratégiques du client afin de mettre à sa disposition des informations et des outils fiables pour l’aider à prendre des décisions pertinentes. Dans ce cadre, vos principales activités s’articuleront autour de : L’analyse et la compréhension des enjeux et besoins métiers et techniques La localisation et la compréhension des données de production, des processus de mise à jour et des règles de gestion des données La définition de l'architecture et l’identification des spécifications techniques du système cible en tenant compte de l'ensemble des contraintes Le développement de l'ensemble des processus d'intégration : préparation, extraction, transformation, chargement La modélisation et l’enrichissement des DataLakes, DataWarehouses et DataMarts dédiés à une fonction particulière dans l'entreprise La mise en œuvre des outils d'analyse et tableaux de bords associés permettant une exploitation de données collectées en réponse aux besoins clients
1307 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous