Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 758 résultats.
Freelance

Mission freelance
Data Engineer Azure / Snowflake

Publiée le
Azure
Databricks
Snowflake

12 mois
Paris, France
Télétravail partiel
Contexte Un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data & Analytics dans le cadre d’un programme stratégique d’industrialisation de la donnée. Missions • Concevoir, développer et maintenir les pipelines de données sur Azure. • Garantir la qualité, la fiabilité et la performance des traitements. • Participer à la modélisation et à l’optimisation des entrepôts de données. • Intégrer et exploiter Snowflake pour la gestion et la transformation des datasets. • Collaborer avec les équipes Data Science, Architecture et Produit. • Contribuer à la mise en place de bonnes pratiques CI/CD, sécurité et monitoring. Compétences techniques attendues • Maîtrise d’Azure Data Platform (ADF, Databricks, Data Lake, Synapse). • Solide expérience en Databricks (PySpark impératif). • Très bonne compréhension de Snowflake : ingestion, transformations, optimisation. • Compétences avancées en Python. • Connaissance des architectures data orientées cloud. • Bonne pratique CI/CD (Azure DevOps). • Compréhension des enjeux de qualité, performance et gouvernance data. Profil recherché • 5 à 6 ans d’expérience en Data Engineering. • Expérience en environnement cloud Azure indispensable. • Expérience confirmée sur Snowflake appréciée et attendue. • Capacité à travailler dans des environnements complexes. • Aisance en communication et travail en équipe. Environnement de travail • Projet data stratégique à très forte visibilité. • Équipe internationale et pluridisciplinaire. • Environnement cloud moderne et structuré. • Mission long terme.
Freelance

Mission freelance
Customer Data Modeler

Publiée le
Big Data

6 mois
France
Télétravail 100%
Dans le cadre de la phase 2 du projet , nous recherchons un expert pour le modèle de données client . Responsabilités : Concevoir et documenter les modèles de données Customer Master Data . Définir les processus de gouvernance, rôles et règles de qualité. Collaborer avec les équipes métier et IT pour garantir l’alignement. Compétences requises : Expertise solide en Master Data Management , particulièrement sur le domaine Customer (modélisation, gouvernance, qualité). Bonne compréhension des processus liés au domaine client. Connaissance de SAP S/4HANA et SAP MDG (un plus).
Freelance

Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline

Publiée le
Azure DevOps
Git
Helm

1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Freelance

Mission freelance
Data Engineer

Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance

Mission freelance
Architecte Data – Expert Azure

Publiée le
Azure
Big Data

3 ans
650-700 €
Paris, France
Télétravail partiel
Architecte Data – Expert Azure L’Architecte Data interviendra en tant que référent transverse sur les études, les cadrages et la conception d’architectures data bâties autour de l’écosystème Azure (Azure Data Lake, ADF, Databricks, Synapse/Fabric, Purview…). Au-delà de l’expertise Azure, il jouera un rôle de conseil , capable de vulgariser les enjeux data et de présenter des solutions claires et impactantes auprès des directions métier et exécutives, dans une posture “cabinet de conseil”. Responsabilités principales : Réaliser des études d’architecture et de chiffrage (DAT, estimations, roadmaps) avec un focus fort sur Azure Data . Concevoir des architectures data modernes sur Azure : ingestion, stockage, modélisation, gouvernance, analytics/AI. Traduire les besoins métier en solutions Azure pragmatiques, sécurisées et alignées sur les standards de l’entreprise. Produire des livrables premium : présentations PowerPoint, supports de cadrage, pitchs d’arbitrage, dossiers de décision. Vulgariser les sujets Azure auprès d’interlocuteurs non techniques (métiers, directions). Conseiller, challenger et proposer des trajectoires data orientées Azure, en réalisant benchmarks et recommandations. Travailler en proximité avec les équipes Data Engineering, BI, IA, Cloud et les autres architectes. Profil recherché : Bac+5 (ingénieur ou équivalent). 5 à 10 ans d’expérience minimum en architecture data , avec une expertise Azure confirmée . Maîtrise des principaux services Azure Data : Data Lake, ADF, Databricks/Fabric, Synapse, Purview, ETL/ELT, sécurité, gouvernance. Excellent relationnel, capacité à adapter son discours selon les interlocuteurs (métiers, DSI, direction). Solide maîtrise de la structuration et mise en scène de l’information (slides, storytelling, cadrage). Expérience en conseil / ESN appréciée (présentation, posture, relation client). Équilibre stratégie / technique : parler d’architecture sans rentrer dans le code. Soft skills clés : Pédagogue, excellent vulgarisateur. Curieux, structuré, orienté impact. Parfaitement à l’aise dans les présentations. Posture de consultant : écoute, influence, crédibilité.
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cloud Azure confirmé

Publiée le
Architecture ARM
Azure
DevOps

12 mois
50k-70k €
400-530 €
Châtillon, Île-de-France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne un INGENIEUR CLOUD AZURE – Confirmé (4-10 ans) Objectif global : Participer au déploiement des projets data du client Contrainte forte du projet Maitrise de la plateforme Cloud Microsoft Azure Les livrables sont Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Description détaillée Contexte Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data pour les enseignes et les fonctions d’appui du client En tant qu'Ingénieur DevOps, votre mission principale sera de participer au déploiement des projets data du client. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du client sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions - Construire des infrastructures Cloud Public (principalement sur Azure) - Industrialiser les architectures cibles et configurer les équipements (CI / CD) - Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. - Participer aux phases de validation technique lors des mises en production ou des évolutions. - Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vos atouts pour réussir De formation supérieure en informatique, vous justifiez d’une expérience de 4-10 ans dans un contexte Data. Vous disposez des connaissances sur les outils et méthodologies suivants : -Cloud Azure -Infrastructure as a code (ARM, YAML) -Intégration et déploiement continu (Git, Azure DevOps) -Services Big Data : Azure DataLake, Azure EventHub, Azure Databricks, Azure Data Factory, Power BI -Services Web : Azure FunctionApp, Azure WebApp -Micro-services/containers (AKS) -Base de données : SQL DB, CosmosDB La connaissance de ces langages de programmation serait un plus : Spark et Scala. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Freelance

Mission freelance
Architecte Cloud & On-Premises (anglophone) – Expertise FinOps

Publiée le
Architecture
Azure
Cloud

12 mois
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Cloud & On-Premises anglophone , intervenant sur l’optimisation des coûts d’un environnement multi-cloud et d’infrastructures on-premises. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/FIN/4975 dans l’objet de votre message La prestation consiste à optimiser les coûts Cloud et On-Premises dans un environnement multi-cloud global, en produisant des rapports détaillés, en mettant en œuvre la gouvernance, en soutenant les équipes internes et en fournissant des recommandations structurées. . Gouvernance Cloud & On-Premises Contribuer à la définition de la gouvernance pour les environnements Cloud et On-Premises. Participer à la mise en œuvre opérationnelle de cette gouvernance. 2. Production et amélioration des rapports Cloud & On-Premises Produire des rapports pertinents sur la consommation et les coûts Cloud & On-Premises. Améliorer en continu ces rapports pour les rendre exploitables par le management. Fournir des rapports permettant de piloter la conformité, la consommation et les coûts. 3. Collaboration avec des équipes transverses globales Collaborer avec des équipes multifonctionnelles basées dans plusieurs pays. Comprendre leurs besoins et contribuer à l’analyse des données. Établir des partenariats de travail permettant d’atteindre des résultats FinOps tangibles. 4. Support aux équipes Infrastructure & Operations (I&O) Accompagner les équipes I&O dans la définition d’objectifs et de KPI pertinents. Participer à la récupération, structuration et modélisation des données nécessaires au pilotage des coûts. 5. Cartographie des flux de données Cartographier, avec les équipes I&O, les flux de données relatifs aux environnements Cloud et On-Premises. Aider à construire un modèle de données supportant les travaux FinOps. 6. Analyse et prévision des coûts d’hébergement Analyser les coûts d’hébergement Cloud & On-Premises. Élaborer des prévisions (forecast) pour anticiper l'évolution des dépenses. 7. Recommandations d’optimisation Formuler clairement des recommandations d’optimisation des coûts. Accompagner et suivre la mise en œuvre de ces recommandations. 8. Appui à la prise de décision via les données Utiliser des outils et technologies permettant des décisions data-driven. Contribuer à l’amélioration de la capacité analytique et du reporting FinOps. 9. Contribution aux projets et programmes Aider projets et programmes à réaliser des estimations de coûts. Construire et formaliser des modèles de coûts et de financement. Contribuer à l’élaboration de business cases internes.
Freelance

Mission freelance
Ingénieur Data Ops - IA GEN - Azure (H/F)

Publiée le
Azure
Azure AI Foundry

6 mois
Lille, Hauts-de-France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un(e) Ingénieur Data Ops : Le rôle couvre notamment : La mise en place d’une plateforme d’IA générative (Azure AI Foundry) ; L’industrialisation des flux et processus DataOps ; La mise en place d’API sécurisées via Azure API Management ; L’automatisation des déploiements à l’aide de GitLab CI/CD ; Le développement en Python ; La mise en place de la traçabilité, de l’observabilité et de la gouvernance des usages IA. Le contexte est structurant, très exposé en interne, avec de la construction from scratch, de l’architecture, de l’industrialisation et un vrai rôle de référent technique sur la GenAI.
Freelance

Mission freelance
Data Engineer Hadoop – Secteur Assurance

Publiée le
Big Data
Hadoop
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Freelance

Mission freelance
Développeur Python Senior

Publiée le
Azure
Azure Data Factory
Azure DevOps Services

12 mois
Hauts-de-Seine, France
Télétravail partiel
Secteur d'intervention : Assurance Type de prestation : Assistance Technique avec facturation journalière Métiers et fonctions impliqués : Études & Développement, Développeur Compétences techniques requises : Technologies et outils : Python, React (React JS) Méthodes / Normes : IFRS17; Adapter Soft skills : Rigueur Description de la mission : Le projet concerne un client dans le secteur de l'assurance, pour lequel le développeur sera intégré à une équipe Data à mi-temps (2/3 jours par semaine). La mission principale est le développement d'outils pour soutenir les activités métiers telles que la modélisation, projection actuarielle et études statistiques, notamment pour répondre à la norme IFRS17. Les responsabilités incluent : Développement en Python des études actuarielle sur le produit Maintenance du front de l'application (React) – connaissances en React appréciées Recueil, analyse et formalisation des besoins utilisateurs Coordination avec les Engineering Managers pour assurer le delivery (développement, tests, opérations) en respectant les exigences de sécurité du client Communication et application des standards et bonnes pratiques au sein de la tribu et des équipes métier
Freelance

Mission freelance
POT8768 - Un Architecte Data Azure sur Lyon

Publiée le
Azure

6 mois
260-380 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Architecte Data Azure sur Lyon. Profil: Un expert capable de concevoir et piloter des architectures robustes et évolutives sur Azure, Faveod, et d’autres technologies pertinentes. Il interviendra sur des projets complexes : reprise et évolution de systèmes, transfert de compétences, et accompagnement stratégique. Missions : Mise en place technique : Installation et configuration des environnements, paramétrage des données, des accès et de la sécurité, mise en place des connecteurs hors production, proposition d’architecture et documentation. Adaptation des cas d’usage : Collecte des besoins, formalisation des scénarios, configuration des parcours et automatisations, recommandations d’optimisation. Formation & transfert : Création de supports et animation de sessions pour les équipes techniques et métiers. Pilotage & ajustement : Suivi des livrables et du planning, contrôle des KPI et qualité des données, ajustements, rapport final et recommandations (bilan et ROI). Profil : Expertise confirmée : Technologies Azure, Faveod, et autres outils pertinents. Expérience significative : Projets de consultation IT, reprise et évolution de systèmes, transfert de compétences, projets IT complexes. Certifications appréciées : Certifications Azure et autres liées aux technologies utilisées.
Freelance
CDI

Offre d'emploi
Data Product Manager

Publiée le
Data management

1 an
40k-45k €
270-540 €
Paris, France
Télétravail partiel
Mission Overview La mission au sein du Data office a pour objectif d'accompagner la transformation autour de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur. Construction d'un Kit/book de déploiement des data products auprès des producteurs et consommateurs (méthodologie, documentation …) Animation de meetings de vulgarisation (Support & CR) Préparation et organisation d'un Meet Up d'acculturation (jalon mai 2026)
Freelance
CDI

Offre d'emploi
Architecte Fabric Power BI / Data Platform

Publiée le
Azure
Data Lake
microsoft

6 mois
Paris, France
Télétravail partiel
Vous intervenez en tant que référent sur la fabrique BI d’un grand groupe international. Votre rôle : définir l’architecture de la data platform, structurer les modèles et pipelines Power BI/Fabric, établir les standards et bonnes pratiques, accompagner les équipes métiers et IT, piloter l’équipe opérationnelle et garantir la qualité des livrables. Vous travaillez à la frontière du conseil et de la technique, en lien avec les architectes et la stratégie Data du client. Environnement Azure moderne, contexte multi-filiales (28 pays), forte visibilité et autonomie.
Freelance

Mission freelance
Program Manager

Publiée le
Big Data
Cloud
Data management

1 an
Lille, Hauts-de-France
Télétravail partiel
Compétences techniques marketing - Expert - Impératif Product management - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Responsabilités Principales 1. Stratégie de Contenu et d'Audience Identification et Cartographie des Personas : En collaboration avec le Product et l’UX, aider à définir et documenter les différents clients/utilisateurs de la plateforme (Développeurs, Product Owners, Data Engineer, Leaders PTF et BU, etc.) et leurs besoins spécifiques en information (y compris en situation de crise). Audit et Structuration du Contenu Existant : Analyser les supports actuels et recommander une architecture de contenu logique et unifiée pour améliorer l'accessibilité et la clarté. Définition des Messages Clés : Traduire les fonctionnalités et les avantages de la plateforme en messages clairs, orientés bénéfices pour chaque persona. 2. Création et Gestion du Contenu Produit Production de Contenu Ciblé : Élaborer des supports structurés et didactiques pour l'adoption et la compréhension des produits et services de la plateforme. Cela inclut, sans s'y limiter : Fiches Produit/Service détaillées (pour les équipes Product Management). Guides d'Utilisation et tutoriels (pour les utilisateurs). Notes de version ( Release Notes ) et FAQ claires. Contenu pour l'onboarding des nouveaux services. Optimisation des Canaux de Contenu : Gérer et optimiser les plateformes et outils de partage de contenu pour s'assurer que le contenu arrive aux bonnes personnes au bon moment. Mesure de l'Impact : Suivre les indicateurs clés (fréquence de consultation, feedback utilisateur, taux d'adoption) pour évaluer l'efficacité des contenus et itérer. 3. Contribution à l'Amélioration de l'Expérience Utilisateur Boucle de Feedback : Mettre en place des mécanismes pour recueillir le feedback des personas sur le contenu et les services afin d'alimenter les équipes Product Management. Aide à la l’animation du collectif de nos utilisateurs. Appui aux Événements d'Engagement : Aider à structurer les sessions d'information (ateliers, showcases, démos) en s'assurant que le contenu présenté est pertinent et adapté à l'audience. 4. Alignement Coordination avec la Communication Groupe : S'assurer que le contenu produit est en accord avec la charte éditoriale et graphique du groupe (utilisation des logos, des templates, etc.) tout en restant focalisé sur le contenu technique et l'adoption produit de la plateforme. Compétences Requises : Compréhension Technique et Pédagogie : Capacité avérée à décortiquer des sujets complexes (Data, Cloud, API, développement) et à les simplifier. Capacité d'Analyse et de Synthétisation : Aisance pour identifier les besoins d'information d'une audience (persona) et structurer un contenu en conséquence. Maîtrise de la Rédaction et des Outils de Contenu : Excellent niveau rédactionnel (précision, concision). Connaissance des outils de documentation et de gestion de contenu.
Freelance

Mission freelance
Consultant DATA Gouvernance Senior

Publiée le
Data governance

1 an
Paris, France
Télétravail partiel
Intervention au sein d'un programme de transformation du SI Finance Corporate visant à fiabiliser, harmoniser et piloter les données financières (reporting, performance, réglementaire). Missions principales ➡️ Définir et déployer le cadre de gouvernance des données Finance (référentiels, règles de gestion, qualité des données). ➡️ Cartographier les flux de données financières et leurs usages (comptabilité, contrôle de gestion, reporting, réglementaire). ➡️ Mettre en place et animer les rôles Data Owner / Data Steward Finance. ➡️ Définir et suivre les indicateurs de qualité de données (complétude, cohérence, fiabilité). ➡️ Contribuer à la conduite du changement et à l'appropriation des bonnes pratiques data par les équipes Finance et IT. ➡️ Assurer l'alignement entre les besoins métiers Finance et les solutions SI (ERP, EPM, BI, Data Platform).
Freelance

Mission freelance
Data Analyst Informatica

Publiée le
Azure
ETL (Extract-transform-load)
Informatica

1 an
300-460 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
3758 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous