L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 303 résultats.
Offre d'emploi
Data Product manager
ANDEMA
Publiée le
Microsoft Power BI
6 mois
40k-63k €
450-500 €
Lille, Hauts-de-France
Raison d’être du poste : Le Data Product Manager assure l'interface stratégique et opérationnelle entre les Data Owners métier et l'équipe technique Data. Sa mission est de transformer la donnée issue des différents systèmes en produits analytiques performants pour piloter l'offre, l'impact scientifique du client et les processus d'accréditations internationales. Expert en modélisation Power BI, il garantit la fiabilité des indicateurs et la sécurité des accès, tout en challengeant les besoins métiers pour maximiser la valeur ajoutée des solutions déployées Finalités et Résultats Attendus : 1. Analyse, modélisation et structuration des données Analyser les modèles de données des différentes applications contributrices (sources de données ou consommatrices/cibles de données) Modéliser les données métiers (programmes, faculté, recherche et accréditations) dans un modèle commun ‘SKEMA’, développer des data products (PowerBI et autres) répondant aux besoins métier et maintenir le modèle sémantique de l'école. Définir et gérer la gouvernance des accès et la sécurité des données (Row Level Security) pour chaque data product. 2. Conception et développement des data products Ecrire les spécifications techniques pour les opérations de manipulation de données Documenter les logiques métier de transformation Comprendre, piloter les flux d’intégration et de transformation de données (Azure Data Factory, Synapse, PowerBI [demain Fabric / Databricks ou autres]) Développer les data products en lien avec les data owners et les équipes data Tester et valider la cohérence des flux de données entre les systèmes producteurs et les data products finaux. Suivre l’adoption des data products (usage, accès …) 3. Qualité et fiabilité des données Direction des Ressources Humaines Participer aux projets de migration et de mise en qualité des données entre systèmes applicatifs afin d’identifier les impacts sur le périmètre des data products concernés. Assurer la fiabilité des données, les contrôles de cohérence et participer au support technique associé des data products. 4. Structuration de la plateforme Data Avoir une compréhension d’une data plateforme et d’une modélisation médaillon Piloter la mise à disposition de donnée dans la data plateforme pour permettre la réalisation des data products. 5. Collaboration et accompagnement Savoir faire le pont entre les équipes métiers (vulgarisation des concepts) et les équipes techniques pour l’évolution des usages data Animer la communauté des data owner de l’univers « Offre d'enseignement & Impact scientifique » Environnement data : Modélisation de donnée • Power BI • Fabrics (est un plus) • Synapse / Azure (est un plus) • Databricks (est un plus) • Git, DevOps • SQL
Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)
SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Offre d'emploi
Technicien d’Exploitation Expert Linux - H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
30k-34k €
Paris, France
Le contexte client : Le Technicien d'Exploitation Expert Linux assure l'exploitation et le maintien en condition opérationnelle des environnements Linux et Windows sur les postes de travail. Il réalise également des opérations d'infrastructure de niveau 1, et prend en charge le support fonctionnel de niveau 2 sur les applications scientifiques et internes. Il intervient en étroite collaboration avec les équipes systèmes (Linux et Windows), réseau, sécurité, développement logiciel et support applicatif. Vos responsabilités incluent : • Diagnostiquer et résoudre les incidents Linux et Windows poste de travail (niveau avancé). • Réaliser les tâches d'exploitation Linux : vérification de services, analyse de logs, exécution de scripts, opérations courantes. • Installer, configurer et mettre à jour les postes de travail Windows/Linux, logiciels standards ou spécifiques. • Assurer le support, la maintenance et le suivi opérationnel du parc utilisateurs. • Réaliser des interventions de niveau 1 sur l'infrastructure : supervision, redémarrages contrôlés, vérifications physiques, câblage simple. • Prendre en charge le support fonctionnel niveau 2 des applications scientifiques (MATLAB, SQL, outils de calcul) et des applications internes développées en environnement technique (C#, Python, outils maison...). • Analyser, reproduire, diagnostiquer et documenter les incidents applicatifs fonctionnels. • Travailler avec les équipes de développement / N3 pour les anomalies complexes. • Garantir la mise à jour des tickets, référentiels et éléments de la CMDB. • Contribuer au maintien en condition opérationnelle global des environnements Linux, Windows et applicatifs scientifiques. • Garantir un niveau d'exigence élevé en termes de qualité, confidentialité et disponibilité. • Création et gestion des comptes Active Directory. • Affectation des droits, groupes, ressources, dossiers partagés. • Contribuer à l'amélioration des outils, process et méthodes de travail. Contrat : en CDI Localisation : après 6 mois de formation dans les locaux du client à Bruyères‑le‑Châtel, la prestation aura lieu ensuite à Paris (75015). Autre : pas de télétravail possible Référence de l'offre : bhzp7dplk0
Mission freelance
Data Analyst – AI Governance
Okara
Publiée le
Collibra
Google Cloud Platform (GCP)
Looker Studio
9 mois
Lille, Hauts-de-France
🎯 Okara cherche un Data Analyst – AI Governance & Insights L’enjeu : Devenir la boussole stratégique de l'IA chez l'un de nos clients leaders mondiaux du retail. En tant que consultant·e Okara, tu rejoins l'équipe IA Transverse de notre client pour structurer l'adoption de l'IA à l'échelle internationale. Ton terrain de jeu ? L' AI plateforme , l'outil critique qui permet de piloter la valeur, de standardiser les processus et d'outiller toutes les initiatives IA. 🚀 Ton rôle Tu es le moteur de la refonte de l'AI: l'enjeu c'est de quitter l'artisanat des feuilles de calcul pour bâtir une gouvernance industrialisée et intégrée. Concrètement, tu vas : Réinventer le Workflow : Piloter la migration vers Collibra . Tu ne te contentes pas de paramétrer, tu dessines les processus de demain (règles de validation, alertes, intégration aux SI existants). Transformer la donnée en Insights : Analyser l'existant pour identifier les axes d'amélioration et faire évoluer la dataviz sous Looker . Optimiser la tuyauterie (Data Engineering) : Collaborer à la refonte du DBT pour garantir des flux de données fluides et fiables entre les sources et la restitution. Acculturer à l'international : Être le pont entre les AI Leaders mondiaux et la technique. Tu vulgarises et traduis les besoins métiers en solutions robustes.
Offre d'emploi
Data Engineer TERADATA ET BIGDATA
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Offre d'emploi
🔎 Tech Lead Data (Snowflake / dbt) & Power BI
OMICRONE
Publiée le
Azure Data Factory
CI/CD
DBT
2 ans
40k-45k €
400-500 €
Île-de-France, France
🔎 Tech Lead Data (Snowflake / dbt) & Power BI Dans le cadre du renforcement d’une équipe Data & Analytics, nous recherchons un Tech Lead Data & BI pour piloter la delivery technique de produits data et solutions de visualisation, dans un environnement moderne et industrialisé. 🎯 Vos missions • Piloter la chaîne data de bout en bout : Snowflake → dbt → modèle sémantique → Power BI • Définir et faire appliquer les standards techniques (modélisation, qualité, performance, gouvernance) • Encadrer la revue de code , les pratiques CI/CD et l’industrialisation des pipelines • Concevoir et maintenir les modèles data et datamarts sous Snowflake • Développer et structurer les projets dbt (modèles, tests, documentation) • Mettre en place des pipelines robustes (orchestration, contrôles qualité, runbooks) • Définir les bonnes pratiques Power BI (modèle sémantique, performance, RLS, templates) • Participer au run : gestion des incidents, post-mortems, amélioration continue • Accompagner et faire monter en compétences les équipes (France & offshore) 🧩 Profil recherché • Expérience confirmée en tant que Tech Lead Data / BI • Excellente maîtrise de Snowflake et du data modeling • Expertise avancée sur dbt (modélisation, tests, documentation) • Solide expérience sur Power BI (modélisation, performance, gouvernance, RLS) • Bonne connaissance des environnements Azure Data Factory • Capacité à définir des standards et à structurer une équipe • Excellentes compétences en communication 🛠 Compétences clés • Snowflake (expert) • Data Modeling / BI Modeling (expert) • dbt (avancé) • Power BI (confirmé) • Azure Data Factory • CI/CD, data quality, gouvernance data
Offre d'emploi
Technicien Support Utilisateur (H/F)
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
24k-25k €
Plaisir, Île-de-France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, le groupe Econocom s'affirme comme la première entreprise du digital en Europe, la 7ème ESN de France et le leader de l'infogérance Workplace depuis 4 années. Au sein de l'activité Services en région Ile de France, nous accompagnons plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Missions et responsabilités: • Répondre aux appels téléphoniques, • Traiter et suivre les sollicitations des utilisateurs, • Suivi des tickets sur l'outil d'ITSM, • Diagnostiquer les pannes, • Guider les utilisateurs à la résolution des pannes. • Aider à la résolution de problématiques métiers et technique, • S'assurer que tout problème est traité sans discontinuité et dans les délais, • Effectuer des rappels réguliers aux utilisateurs pour suivre la résolution de leurs problèmes, • Assister les utilisateurs durant la phase d'installation de leur device, • Personnaliser l'accompagnement de l'utilisateur en fonction de leur situation, • Réorienté la sollicitation auprès du support identifié en cas d'escalade, • déclencher l'expertise N2/N3 et coordonner la résolution, • Proposer des RDV pour la résolution de problème Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Package rémunération & avantages : · Le salaire : rémunération annuelle brute selon profil et compétences · Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation · Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) · Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn · La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 036zer2wsc
Offre d'emploi
Directeur des Systèmes d'informations (H/F)
Link Consulting
Publiée le
ERP
Management
Pilotage
80k-120k €
Paris, France
Notre client, acteur industriel international en forte croissance, est à la recherche de son futur Directeur des Systèmes d’Information (H/F) pour son site de Bourges ou de Paris, dans le cadre d’une transformation digitale ambitieuse et d’une structuration de sa gouvernance IT. Vos missions : Intégré au Comité de Direction, vous devrez : * Définir et piloter la stratégie SI en lien avec les enjeux business * Construire et déployer la roadmap IT (data, BI, automatisation, innovation) * Piloter la transformation digitale à l’échelle du groupe * Superviser l’ensemble du SI (infrastructures, ERP, applicatif, data) * Garantir la sécurité des systèmes et la conformité réglementaire * Manager les équipes IT et piloter les partenaires externes * Accompagner les métiers dans l’optimisation des processus et l’adoption des outils * Assurer la gouvernance IT et le pilotage de la performance Les compétences techniques * Pilotage stratégique des systèmes d’information * Expérience en transformation digitale et conduite du changement * Maîtrise des environnements ERP et applicatifs (JDE idéalement) * Bonne connaissance des infrastructures IT et du cloud * Expertise en data, BI et gouvernance des données * Solides bases en cybersécurité et conformité * Gestion de projets complexes et multi-sites
Mission freelance
Chef de projet Réseaux & Sécurité H/F Anglais courant
Karma Partners
Publiée le
LAN
WAN
6 mois
400-550 €
Île-de-France, France
A titre d’information, les principales activités (liste non exhaustive) à réaliser sont : - Mettre en place une gouvernance de suivi de projet - Mettre en place un reporting régulier : vers la product team du projet ainsi qu’aux managers et directeurs des services/départements concernés. - Mettre en place des comités de pilotage - Etablir, mettre à jour le planning du projet et s’assurer de la cohérence des jalons; - Suivi de l’avancement du projet et du budget associé - Gérer les risques et aléas de façon proactive. Alerter en cas de dérive et prendre les mesures nécessaires - Interactions avec les différents acteurs internes : o Equipes connectivité France et Amsterdam o Equipes de sécurité au sein du département des Télécoms et dans d’autres départements o Architectes techniques et de domaines o CISO (Chief Information Security Office) - Interactions avec les acteurs externes à savoir les fournisseurs de services LAN managé - Prioriser les jalons et les livrables ainsi qu’anticiper les demandes de contributions auprès des équipes concernés (Dans le cadre d’une organisation Agile) - Documenter tout process ou information technique liée au projet en s’appuyant sur les architectes et experts
Offre d'emploi
Expert Collibra – Data Governance
Craftman data
Publiée le
Collibra
Microsoft Power BI
55k-65k €
Île-de-France, France
Contexte Dans le cadre du renforcement de sa stratégie Data, un acteur majeur du secteur bancaire recherche un Expert Collibra pour accompagner son Data Office au sein du Digital Excellence Center. Vous interviendrez sur une plateforme data stratégique, au cœur des enjeux de data governance, BI et valorisation des données, avec une forte interaction entre les équipes métiers et IT. Missions Analyse des besoins métiers et IT liés à la gouvernance des données Structuration et intégration de la documentation data dans Collibra Paramétrage de la solution (dashboards, vues, workflows) Accompagnement des data stewards et data custodians Animation d’ateliers (formation, démonstrations, adoption) Contribution à l’évolution de l’offre de service Collibra Tests des nouvelles fonctionnalités et releases Support utilisateurs et gestion des incidents Travail sur les intégrations avec l’écosystème data (BI, API, SGBD)
Offre d'emploi
Data Engineer Azure Databricks H/F
SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD
8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Offre d'emploi
Expert cybersécurité - Security by Design
KEONI CONSULTING
Publiée le
Big Data
GED (Gestion Électronique des Documents)
MOA
18 mois
20k-60k €
100-550 €
Niort, Nouvelle-Aquitaine
Contexte : Dans le cadre de la Direction Cybersécurité et Risques Numériques (DCRN) et plus particulièrement l’accompagnement des chefs de projet pour l’identification des risques de sécurité et la réalisation d’analyses de risques (Intégration de la Sécurité dans les Projets - Security by Design) MISSIONS: Contribuer, lors des avant-projets, à la définition des exigences de sécurité des projets inscrits aux feuilles de route des Directions Métiers. • Soutenir les MOA et les Directions Métiers dans la classification des données personnelles et des données sensibles, • Procéder à des analyses de risques et émettre des préconisations pour réduire ces risques, • Assurer la qualification des fournisseurs et des sous-traitants de la DSI au regard des exigences de cyber-sécurité et de conformité règlementaire • Contribuer à l’accompagnement des projets techniques en matière de cyber-sécurité • Assurer l’expression des besoins transverses en matière de cyber-sécurité et garantir la mise en œuvre des projets spécifiques y répondant Les périmètres d'interventions principaux seraient : La data (datahub), la téléphonie d'entreprise, la gestion documentaire (GED, éditique, dématérialisation entrante, sortante, etc)
Mission freelance
Consultant Senior Data — Migration SAS → Python | Assurance | La Défense
SETELIA
Publiée le
Numpy
Pandas
Python
3 mois
430-550 €
La Défense, Île-de-France
Notre client, acteur majeur du secteur de l'assurance, engage la décommission complète de sa plateforme SAS. L'objectif : migrer l'intégralité des requêtes, programmes et traitements data vers Python, à isorésultat. Le consultant intègre une équipe data en place et travaille en interface directe avec les métiers assurance (actuariat, reporting, conformité). Périmètre : Audit et recensement de l'ensemble des requêtes SAS (KPIs, règles métier, fréquences) - Rétro-analyse fonctionnelle de chaque programme SAS - Ateliers de validation avec les utilisateurs métiers - Développement Python (pandas, numpy, SQL) en miroir exact de l'existant SAS - Tests de non-régression systématiques (comparaison outputs SAS vs Python) - Documentation technique et fonctionnelle du nouveau code Stack & compétences : Python — expertise confirmée (pandas, numpy, scripting data, automatisation) - SAS — lecture, compréhension et rétro-analyse de code - SQL — requêtage avancé, optimisation - Migration SAS → Python — au moins une référence mission similaire - Secteur assurance — connaissance des produits, du reporting réglementaire ou de l'actuariat (un secteur régulé équivalent type banque/mutuelle est accepté) - Interface métier — à l'aise en atelier, recueil de besoin, vulgarisation technique Conditions : Séniorité : 7 ans minimum - TJM : 600€ – 650€ - Démarrage : ASAP - Durée : 3 mois / 60 jours — renouvelable - Lieu : Paris La Défense — 100% sur site - Remote : non - Astreinte / HNO : non Merci d'envoyer CV + TJM + dispo. Réf. : DATA-SAS-PY-2026-05
Mission freelance
Lead Data Engineer - Financial
Phaidon London- Glocomms
Publiée le
AWS Cloud
DBT
Git
6 mois
400-550 €
Paris, France
Piloter l'ingénierie des données de bout en bout sur Snowflake, dbt et SQL, de l'ingestion et la transformation des données sources jusqu'aux jeux de données analytiques prêts pour la production. Concevoir, implémenter et maintenir des modèles de données évolutifs et alignés sur les besoins métiers, en garantissant la cohérence, la réutilisabilité et la performance pour de multiples cas d'utilisation d'analyse et de reporting. Assurer des normes d'ingénierie élevées, notamment en matière de qualité du code, de tests, de documentation et de revues de code par les pairs, tout en promouvant activement les bonnes pratiques au sein de l'équipe. Fournir des jeux de données optimisés pour Tableau et compatibles avec la BI, permettant un reporting en libre-service fiable et des informations exploitables pour les parties prenantes. Agir en tant que contributeur technique senior, en assumant progressivement des responsabilités de leadership technique, notamment : - Encadrer et soutenir les ingénieurs de données juniors et intermédiaires. - Conseiller sur les décisions relatives à l'architecture et à la modélisation des données. - Être le référent technique pour les initiatives axées sur l'analyse.
Offre d'emploi
Data Engineer IA
Craftman data
Publiée le
DevOps
Docker
Github
6 mois
40k-45k €
390-540 €
Île-de-France, France
Maintien en condition opérationnelle et industrialisation du Portail Multi‑IA Générative dans un contexte multi‑environnements (On‑Premise, GCP, cloud de confiance à venir). Mise en œuvre et optimisation des chaînes CI/CD (GitLab), de l’Infrastructure as Code (Terraform) et de l’automatisation des déploiements. Contribution à la sécurité, conformité et observabilité des usages IA générative (IAM, secrets, logs, metrics, traces, FinOps). Mise en place et exploitation des pratiques LLMOps : observabilité LLM, évaluations continues (qualité, sécurité, coûts), guardrails et HITL. Conception et préparation de la V2 du Portail IA (architecture cible, HLD/LLD, migration). Support technique N2/N3, analyse et résolution d’incidents, assistance aux mises en production. Production de la documentation technique (runbooks, playbooks, architectures) et transfert de compétences vers les équipes internes.
Offre d'emploi
Data Engineer Databricks
ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark
Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5303 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois