Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 446 résultats.
Offre premium
Freelance

Mission freelance
Développeur décisionnel POWER BI/ DATASTAGE H/F

Publiée le
Data Warehouse
IBM DataStage
PowerBI

1 an
300-420 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d'un renfort d'équipe au sein du pôle décisionnel d'un acteur majeur en France, nous recherchons un développeur décisionnel Datastage/ Power BI pour une mission d'un an renouvelable. La mission se fera sur le site de Lyon (69). Nous recherchons quelqu'un qui maitrise déjà la partie alimentation (ODS, DWH, DATAMART) et la partie restitution (POWER BI) afin d'être rapidement opérationnel et soulager l'équipe en place. Cette dernière fonctionne selon une méthode agile (SCRUM) . Rattaché au responsable SI décisionnel vos missions consistent à : Développer de programme Dataware, Datamart (Datastage et SQL) Développer des dataset, dataflow et rapports sous PowerBI Réaliser des tests unitaires et assurer la livraison Optimiser les requêtes SQL Prendre en compte les anomalies et les évolutions en lien avec le BE et la qualification Respecter les normes et bonnes pratiques du SI Décisionnel
Freelance

Mission freelance
développeur(euse) datastage - LUXEMBOURG

Publiée le
IBM DataStage

6 mois
330-530 €
Luxembourg
Télétravail partiel
FUZYO , ESN spécialisée dans le Digital, la Data & l’IA, accompagne ses clients dans leurs projets stratégiques. Nous recherchons un Développeur Datastage (H/F) pour intervenir sur un projet d’intégration de données chez l’un de nos clients du secteur bancaire au Luxembourg. Démarrage prévu : Mars 2026 . Mission au luxembourg. Vos missions Concevoir, développer et optimiser des flux ETL sous IBM InfoSphere Datastage . Analyser les besoins métiers et rédiger les spécifications techniques. Assurer la maintenance et le support des jobs en production. Collaborer avec les équipes BI et Data pour garantir la qualité des données. Compétences requises Maîtrise d’ IBM InfoSphere Datastage (v11 ou supérieure). Solides compétences en SQL (Oracle, DB2) et en optimisation de requêtes. Connaissance des environnements UNIX/Linux et scripting Shell. Expérience en Data Warehouse et modélisation dimensionnelle. Profil Bac+3 à Bac+5 en informatique ou équivalent. Minimum 5 ans d’expérience sur des projets ETL avec Datastage. Français courant, anglais technique (luxembourgeois est un plus).
CDI

Offre d'emploi
Développeur Data / BI – Datastage & Power BI (H/F)

Publiée le
IBM DataStage
Microsoft SQL Server
PostgreSQL

55k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👍 Si vous souhaitez mettre vos compétences au service d’un projet stratégique orienté Data & Décisionnel, nous avons LA mission pour vous ! Nous recherchons un(e) Développeur Data / BI (H/F) maîtrisant Datastage, SQL et Power BI pour intervenir sur un projet à forte valeur ajoutée autour de la construction et de l’optimisation du système décisionnel de notre client 🚀 Vous rejoindrez une équipe experte du SI Décisionnel et participerez à des travaux d’alimentation, de transformation et de restitution des données au sein d’un environnement technique exigeant. 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 Développement & Alimentation de données : 🔸 Concevoir et développer les programmes d’alimentation du Datawarehouse et des Datamarts (ODS, DWH) ; 🔸 Réaliser des traitements complexes via Datastage et le langage SQL ; 🔸 Optimiser les requêtes SQL pour garantir la performance des chaînes de traitements ; Restitution & Reporting : 🔸 Développer des datasets et dataflows sous Power BI ; 🔸 Concevoir et produire des rapports et tableaux de bord utilisateurs ; Qualité, Maintenance & Exploitation : 🔸 Réaliser les tests unitaires et rédiger les plans/fiches de tests ; 🔸 Rédiger le dossier d’exploitation destiné à l’équipe de Production ; 🔸 Prendre en charge les anomalies et évolutions (Run) en lien avec les équipes internes ; 🔸 Respecter les normes et bonnes pratiques en vigueur au sein du SI Décisionnel ; 🔸 Assurer un reporting d’avancement régulier auprès du responsable de domaine.
Freelance

Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)

Publiée le
AWS Cloud
Azure
CI/CD

1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Freelance

Mission freelance
Ingénieur étude décisionnel Datastage /  Power BI

Publiée le
Advanced Design System (ADS)
IBM DataStage
Scrum

18 mois
100-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du besoin le client dans le cadre de son activité Décisionnel, recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement Expérimenté (profil ayant une expérience de 3 à 7 ans dans la même famille de prestations, sur justification des références clients) renforcement de l'équipe de développement avec l'intégration d'une resource maitisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) MISSIONS Rattaché au responsable développement du SI Décisionnel, l'intervenant aura pour principales missions : - Développement de programme dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL Technologie ou les certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL Définition des prestations attendues : Prestation de développement en coordination avec équipe BE , qualification et scrum master Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL" Compétences techniques Connaissance d'ETL/ELT décisionnel : DATASTAGE plus particulièrement Requêtage SQL Développement de restitution Décisionnel POWER BI (Dataset, dataflow, rapports) Méthode SCRUM & Manipulation d’un gestionnaire de ticketing (type JIRA) Compétence métiers Expérience dans l'écosystème de la protection sociale Retraite Complémentaire des salariés du privé idéalement
Offre premium
Freelance
CDI

Offre d'emploi
Expert Colibra

Publiée le
AWS Cloud
Collibra
Databricks

3 mois
45k-55k €
500-600 €
Hauts-de-Seine, France
Télétravail partiel
Profil : Expert Collibra Responsabilités principales : Métadonnées & Traçabilité Vérifier si Collibra propose des connecteurs pour interagir avec les catalogues SMUS (AWS) et DBX. Définir comment Collibra peut ingérer les métadonnées et la traçabilité depuis AWS SMUS et le Unity Catalog de DBX. Déterminer la gestion de la traçabilité inter-systèmes (exemple : début d’une transformation sur AWS et fin sur DBX). Gestion des accès Définir l’intégration de Collibra avec AWS IAM / IDC / Lake Formation via les API de SMUS et avec le Unity Catalog de Databricks. Évaluer si Collibra peut automatiser l’octroi et la révocation des accès via des connecteurs existants ou via un développement dédié basé sur des API. Vérifier si Collibra propose un workflow de gestion des accès prêt à l’emploi et s’il est personnalisable. Déterminer si Collibra peut appliquer des règles d’accès au niveau des tables, colonnes ou lignes via une intégration avec les plateformes sous-jacentes. Définir comment les audits et journaux seront capturés lors des changements d’accès et si Collibra propose des revues périodiques des accès. Compétences requises : Collibra AWS Databricks Data Intelligence Platform
Offre premium
Freelance
CDI
CDD

Offre d'emploi
Architecte technique / Python

Publiée le
API
Modèle Logique des Données (MLD)
Python

3 ans
40k-45k €
400-650 €
Saint-Denis, Île-de-France
Télétravail partiel
Architecte technique – Saint-Denis Mission longue durée – Démarrage 15/12 Deadline candidature : 04/12Durée : très longue durée Nous recherchons un architecte technique disposant de plus de 8 ans d’expérience pour intervenir sur une mission à très longue durée. Le consultant interviendra sur l’industrialisation, l’optimisation et le déploiement de solutions techniques à forte contrainte de performance, dans un contexte temps réel. Dix jours de gratuité sont à prévoir. Objectifs Évaluer et optimiser les performances et la complexité des composants de la solution, déployer et monitorer des systèmes prédictifs en production et assurer leur robustesse. Responsabilités Transformer des POC data en solutions de production Optimiser les pipelines de données et les algorithmes de machine learning sur architectures CPU et GPU Réaliser des benchmarks pour sélectionner les solutions adaptées aux contraintes de performance Développer et maintenir des pipelines CI/CD pour automatiser tests, intégration et déploiement Mettre en place des solutions de monitoring pour détecter les dérives de données et suivre les performances en production Livrables Codes de production documentés et testés Documentation d’architecture et APIs Rapports d’optimisation CPU/GPU Jeux de données et codes utilisés pour les benchmarks Pipelines CI/CD opérationnels et documentés Solutions de monitoring déployées et documentées Compétences attendues Maîtrise de Python Solide expérience en optimisation, déploiement et monitoring de pipelines data et modèles ML Connaissances approfondies en algorithmes, calcul haute performance et machine learning Maîtrise des environnements Python : NumPy, SciPy, Numba, CuPy, Pandas, scikit-learn, PyTorch Rigueur, capacité d’analyse, culture de l’innovation Une expérience en C++ serait un plus
Freelance
CDI

Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN

Publiée le
Apache Hive
Apache Spark
Big Data

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Offre premium
Freelance

Mission freelance
Référent Data

Publiée le
Architecture
Data governance

3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Contexte Le Système d’Information regroupe près de 70 applications couvrant la recherche d’itinéraires, l’information voyageurs, la vente (digitale & physique), la billettique, les contrôles, le reporting et les interconnexions avec les partenaires de transport. Ce système est exploité dans un environnement complexe multi-acteurs avec des obligations contractuelles fortes vis-à-vis des instances publics. La gouvernance des données devient un enjeu clé pour garantir cohérence, sécurité, qualité de service et conformité réglementaire. 2. Rôle du Référent Data Ce poste opérationnel vise à structurer et piloter la stratégie Data , en mode RUN, en complément des développements BUILD. Il s’agit de définir les règles d’utilisation des données, d’assurer leur conformité, leur disponibilité, leur cohérence fonctionnelle, et de produire l’ensemble des reportings exigés. 3. Missions principales A. Gouvernance & Stratégie Data Définir une démarche Data Driven pour le RUN. Cadrer les besoins Data : brutes, personnelles, reporting, listings opérationnels. Être l’interlocuteur privilégié de la Région pour l’expression et la priorisation des besoins. Proposer les évolutions contractuelles nécessaires. Définir les guidelines Data : consommation, protection, nommage, droits d’accès. Évaluer l’évolution de l’architecture Data (MDM, outils, flux, organisation). B. Analyse et cadrage Réaliser le cadrage global : périmètre, responsabilités, planning, livrables. Lister et qualifier les cas d’usage Data. Construire la cartographie des données : thèmes, typologies métiers, systèmes, structures détaillées. Définir les processus de gestion de la donnée : cycle de vie, responsabilités, sécurité. Recenser les exigences légales et contractuelles (RGPD, archivage, purge, sécurité). C. Pilotage & Production Produire les documents de gouvernance Data : dictionnaires, cartographies, politiques. Établir les reportings contractuels et non contractuels, dont : Financier : prévisionnel, réalisé, écarts, dépenses par phase. Recettes : ventes par canal, recettes par gamme, reversements, régularisations. Maintenance : interventions, disponibilité, stock pièces, préventif/curatif. SI : disponibilité plateformes, temps de réponse, SLA, MTBF, intégration des données. Usagers : tickets CRC, satisfaction, fréquentation, usage titres. Distribution : CA & commissions par canal (Région et partenaires). D. Coordination Faire le lien entre : métiers, DSI, architectes SIBR, sous-traitants, et instances publics. Conduire et animer les ateliers Data. Garantir la cohérence et la fiabilité des flux data inter-outils et inter-équipes. E. Études de faisabilité pour nouveaux besoins Aider la Région à exprimer un besoin (et non une solution). Étudier impacts contractuels, sécurité, architecture, outillage et coûts. Proposer des arbitrages et une priorisation. 4. Compétences requises Techniques Gouvernance data (MDM, métadonnées, data lineage, qualité, sécurité). Connaissance des architectures data modernes (Cloud, API, flux). Capacité à structurer un dictionnaire de données et une cartographie. Compréhension des enjeux réglementaires (RGPD). Expérience des environnements complexes multi-SI. Fonctionnelles & personnelles Forte capacité de synthèse, communication et pédagogie. Orientation opérationnelle (« doer »). Capacité à anticiper les risques et sécuriser les engagements. Aisance dans les échanges institutionnels et le pilotage multi-parties. 5. Livrables attendus Note de cadrage Data Cartographie des sources et flux Dictionnaire des données Politique de cycle de vie, archivage et sécurité Plan de contrôle qualité Reporting financier, opérationnel, SI, marketing, maintenance, distribution Tableaux de bord contractuels Études de faisabilité détaillées pour les nouveaux besoins 6. Profil recherché +5 ans d’expérience en gouvernance Data ou architecture de données. Bac+5 en informatique ou équivalent. Expérience dans un contexte de création ou transformation d’un SI. Profil pragmatique, opérationnel et autonome. 7. Conditions de mission Lieu : Paris ou Marseille Déplacements ponctuels sur sites Durée : 6 à 12 mois minimum Temps plein
Freelance
CDI
CDD

Offre d'emploi
Consultant Datastage PX (H/F)

Publiée le
ETL (Extract-transform-load)
IBM DataStage

1 an
Île-de-France, France
Télétravail partiel
Contexte de la mission Dans le cadre d’un projet stratégique au sein d’une DSI d’envergure, nous recherchons un Consultant Datastage PX pour intervenir sur des problématiques d’intégration et de traitement de données à grande volumétrie. Responsabilité de la mission Analyser les besoins et concevoir des flux ETL sous IBM Datastage PX . Développer, tester et mettre en production les traitements. Optimiser les performances des jobs Datastage. Assurer la qualité et la cohérence des données dans les environnements cibles. Participer à la définition des standards et bonnes pratiques ETL. Rédiger la documentation technique et assurer le transfert de compétences. Collaborer avec les équipes projet (MOA, MOE, DBA, exploitation). Environnement technique ETL : IBM Datastage PX Bases de données : Oracle, DB2, SQL Server OS : Unix/Linux Outils : Shell scripting, ordonnanceurs (Control-M, Autosys) Méthodologie : Cycle en V / Agile
Freelance

Mission freelance
Ingénieur étude décisionnel Datastage /  Power BI

Publiée le
Teradata
Test unitaire
Ticketing

18 mois
150-400 €
Paris, France
Contexte du besoin le client dans le cadre de son activité Décisionnel, recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement Expérimenté (profil ayant une expérience de 3 à 7 ans dans la même famille de prestations, sur justification des références clients) renforcement de l'équipe de développement avec l'intégration d'une resource maitisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) MISSIONS Rattaché au responsable développement du SI Décisionnel, l'intervenant aura pour principales missions : - Développement de programme dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL Technologie ou les certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL Définition des prestations attendues : Prestation de développement en coordination avec équipe BE , qualification et scrum master Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL" Compétences techniques Connaissance d'ETL/ELT décisionnel : DATASTAGE plus particulièrement Requêtage SQL Développement de restitution Décisionnel POWER BI (Dataset, dataflow, rapports) Méthode SCRUM & Manipulation d’un gestionnaire de ticketing (type JIRA) Compétence métiers Expérience dans l'écosystème de la protection sociale Retraite Complémentaire des salariés du privé idéalement
Freelance

Mission freelance
Program Manager

Publiée le
Big Data
Cloud
Data management

1 an
Lille, Hauts-de-France
Télétravail partiel
Compétences techniques marketing - Expert - Impératif Product management - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Responsabilités Principales 1. Stratégie de Contenu et d'Audience Identification et Cartographie des Personas : En collaboration avec le Product et l’UX, aider à définir et documenter les différents clients/utilisateurs de la plateforme (Développeurs, Product Owners, Data Engineer, Leaders PTF et BU, etc.) et leurs besoins spécifiques en information (y compris en situation de crise). Audit et Structuration du Contenu Existant : Analyser les supports actuels et recommander une architecture de contenu logique et unifiée pour améliorer l'accessibilité et la clarté. Définition des Messages Clés : Traduire les fonctionnalités et les avantages de la plateforme en messages clairs, orientés bénéfices pour chaque persona. 2. Création et Gestion du Contenu Produit Production de Contenu Ciblé : Élaborer des supports structurés et didactiques pour l'adoption et la compréhension des produits et services de la plateforme. Cela inclut, sans s'y limiter : Fiches Produit/Service détaillées (pour les équipes Product Management). Guides d'Utilisation et tutoriels (pour les utilisateurs). Notes de version ( Release Notes ) et FAQ claires. Contenu pour l'onboarding des nouveaux services. Optimisation des Canaux de Contenu : Gérer et optimiser les plateformes et outils de partage de contenu pour s'assurer que le contenu arrive aux bonnes personnes au bon moment. Mesure de l'Impact : Suivre les indicateurs clés (fréquence de consultation, feedback utilisateur, taux d'adoption) pour évaluer l'efficacité des contenus et itérer. 3. Contribution à l'Amélioration de l'Expérience Utilisateur Boucle de Feedback : Mettre en place des mécanismes pour recueillir le feedback des personas sur le contenu et les services afin d'alimenter les équipes Product Management. Aide à la l’animation du collectif de nos utilisateurs. Appui aux Événements d'Engagement : Aider à structurer les sessions d'information (ateliers, showcases, démos) en s'assurant que le contenu présenté est pertinent et adapté à l'audience. 4. Alignement Coordination avec la Communication Groupe : S'assurer que le contenu produit est en accord avec la charte éditoriale et graphique du groupe (utilisation des logos, des templates, etc.) tout en restant focalisé sur le contenu technique et l'adoption produit de la plateforme. Compétences Requises : Compréhension Technique et Pédagogie : Capacité avérée à décortiquer des sujets complexes (Data, Cloud, API, développement) et à les simplifier. Capacité d'Analyse et de Synthétisation : Aisance pour identifier les besoins d'information d'une audience (persona) et structurer un contenu en conséquence. Maîtrise de la Rédaction et des Outils de Contenu : Excellent niveau rédactionnel (précision, concision). Connaissance des outils de documentation et de gestion de contenu.
Offre premium
Freelance

Mission freelance
Architecte technique Data

Publiée le
Apache Kafka
Apache NiFi
AWS Cloud

60 jours
600-800 €
Paris, France
Télétravail partiel
Client: Secteur Assurance Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante pour valider cette architecture, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires à la protection des données sensibles. Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : - Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité - Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. - Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. - Assurer la veille technologique et proposer des améliorations continues. - Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. - Assurer la traçabilité des décisions et la documentation des choix techniques. - Partager avec Apicil les REX sur des solutions et architectures mises en oeuvre chez d'autres clients. - Assurer la veille technologique et proposer des améliorations continues.
CDI

Offre d'emploi
Ingénieur data - Vannes

Publiée le
Big Data
Hadoop

28k-42k €
Vannes, Bretagne
Missions principales Contribuer au développement et à l’industrialisation des traitements Big Data. Intervenir en transverse auprès des différentes équipes (IT et métiers). Challenger les besoins métiers et proposer des solutions techniques pertinentes. Participer à l’amélioration continue des performances et de la qualité des données. Environnement technique Environnement technique : SPARK, CLOUDERA, HADOOP, Java, Hive Profil recherché – Hard & Soft Skills 5 à 8 ans d’expérience en environnement Big Data (Spark / Hadoop / Hive / Java). Solide culture data et environnement distribués (type Cloudera). Excellente capacité de prise de recul et de compréhension des enjeux métiers. Aisance relationnelle et posture transverse : capacité à challenger et à accompagner les équipes métiers. Présence à Vannes 3 jours par semaine - Non négociable
Freelance
CDI

Offre d'emploi
Data Manager / Coordinateur Data Governance

Publiée le
Data governance

1 an
40k-45k €
220-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission au sein du Data office d'une institution financière a pour objectif d'accompagner la transformation autour : de la mise en place des Data Domain Manager (DDM) au des équipes Métiers, Fonctions et des tribes (agile) de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur.
2446 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous