L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 685 résultats.
Mission freelance
Consultant FME (H/F) - Freelance
GROUPE ARTEMYS
Publiée le
1 mois
31000, Toulouse, Occitanie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recherchons un consultant FME autonome pour intervenir sur des projets de traitement et d’intégration de données géospatiales. Le profil recherché est principalement technique et orienté développement avec FME, sans responsabilité de gestion de projet. Le consultant interviendra sur : Le développement et la configuration de workflows FME (FME Form / FME Flow) L’intégration, transformation et automatisation de données géospatiales et/ou attributaires La mise en place de flux de données pour des applications webmapping et outils similaires MCO et support utilisateurs La documentation technique des workflows développés Le terrain de jeu ? Expérience significative sur FME : minimum 3 à 5 ans SQL (notions basiques obligatoires) Profil développement / technique Capacité à travailler de manière autonome sur des missions de développement et d’implémentation de flux FME. La connaissance de Python et une expérience en webmapping est un plus appréciable Le profil que nous recherchons : Consultant autonome Forte culture data / géomatique Sens du service et du support technique Bon relationnel avec équipes métiers et techniques Esprit d’initiative et rigueur Motivation et engagement projet Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 320€ et 380€ (Selon votre expertise) Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Engineer Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Ingénieur Production BI : Expert Cognos (H/F)
Link Consulting
Publiée le
BI
Cognos
6 mois
600-700 €
Paris, France
Notre client, acteur majeur du secteur bancaire, recherche un Ingénieur Production BI : Expert Cognos (H/F) pour renforcer ses équipes sur un projet stratégique d’industrialisation des plateformes BI. Vos missions : Au sein d’une équipe en charge de l'ingénierie des outils BI & ETL, vous interviendrez sur la conception et l'automatisation des environnements dans un contexte à forte contrainte opérationnelle. * Build & Ingénierie : Réaliser l’installation et le paramétrage "from scratch" de plateformes Cognos (versions 11/12) simples ou complexes. * Architecture Technique : Définir l’architecture cible, rédiger les Dossiers d’Architecture Technique (DAT) et assurer l'évolution des environnements. * Automatisation & DevOps : Piloter l’industrialisation des déploiements via Ansible et les outils de CI/CD (XL Release / XL Deploy). * Administration Middleware : Assurer le maintien en condition opérationnelle (MCO) et l'optimisation des serveurs d'applications (IIS, JBoss, WebSphere, Tomcat). * Sécurisation : Contribuer aux dispositifs de sécurité (SSO, certificats), aux plans de sauvegarde et à la continuité de service (PCA/PRA). * Support & Expertise : Réaliser des diagnostics complexes, identifier les causes racines (root cause analysis) et rédiger les procédures d'exploitation pour les supports N1/N2. Compétences techniques : * Expertise Cognos (11/12) orientée administration système et infrastructure. * Maîtrise du Middleware : IIS, JBoss, WebSphere Application Server et Tomcat. * Industrialisation : Maîtrise d'Ansible et connaissance des outils XL Deploy / XL Release. * Environnements : Expertise sur Windows et Linux. * Sécurité & Réseau : Compétences en SSO, gestion des accès et connectivité inter-systèmes. * Documentation : Capacité à rédiger des dossiers d'architecture et des procédures d'exploitation rigoureuses.
Offre d'emploi
Développeur / Ingénieur Apache Camel (H/F)
OMICRONE
Publiée le
Apache
Docker
Kubernetes
2 ans
40k-45k €
400-450 €
Île-de-France, France
📢 Recherche – Développeur / Ingénieur Apache Camel (H/F) Dans le cadre de plusieurs projets d’intégration et de modernisation SI, nous recherchons des profils expérimentés Apache Camel pour intervenir sur des environnements techniques exigeants. 🔹 Missions Conception et développement de flux d’intégration avec Apache Camel Mise en place d’architectures ESB / microservices Intégration d’applications via API, messaging, systèmes distribués Participation à la résolution d’incidents et à l’optimisation des performances Collaboration avec les équipes architecture, data et métiers 🔹 Profil recherché Expérience significative sur Apache Camel Bonne maîtrise des patterns d’intégration (EIP) Connaissances en Java / Spring Boot Expérience sur des environnements API / messaging (Kafka, MQ, etc.) Capacité à intervenir en autonomie sur des sujets techniques complexes Anglais professionnel requis 🔹 Environnement technique (selon projets) Java, Spring Boot, Apache Camel Kafka / RabbitMQ / ActiveMQ REST APIs / Microservices Docker / Kubernetes Cloud (AWS / Azure) 🔹 Conditions 📍 Localisation : France 💼 Mission long terme 🚫 Non ouvert à la sous-traitance
Offre d'emploi
DBA Production Oracle / Exadata (F/H)
Blue Soft
Publiée le
50k-60k €
Rueil-Malmaison, Île-de-France
- Expérience attendue : 7 ans d'expérience minimum. - Localisation : Hauts-de-Seine (92) - 2 jours de TT par semaine après une période d'intégration. - Disponibilité : ASAP. - Anglais : technique requis. - Compétences obligatoire : Oracle Exadata, virtualisation via VMWare, N3 confirmé voire très bon N2. Contexte : Dans le cadre du renforcement de l'équipe de notre client experte en gestion des bases de données, nous recherchons x2 DBA Oracle afin d'intervenir sur des environnements critiques à forte volumétrie dans le secteur bancaire. Vous intégrerez une équipe technique expérimentée et participerez au maintien en conditions opérationnelles ainsi qu'à l'optimisation des performances des infrastructures existantes. Missions : o Assurer l'administration des bases de données Oracle en production o Garantir la disponibilité, la performance et la sécurité des environnements o Gérer les incidents de niveau 2/3 et assurer leur résolution o Participer aux opérations de maintenance et d'optimisation o Mettre en oeuvre et suivre les solutions de sauvegarde et de reprise d'activité Environnement technique : o Oracle (versions 16, 19, 22) o Exadata o Oracle RAC (Real Application Clusters) o Data Guard (réplication / PRA) o RMAN (sauvegarde) o Oracle Enterprise Manager (OEM) o VMware (virtualisation) o Infrastructure physique & virtualisée
Offre premium
Mission freelance
Consultant IAM H/F
LeHibou
Publiée le
IAM
Ticketing
9 mois
100-500 €
Île-de-France, France
Sous la responsabilité hiérarchique du Responsable de Service de l’équipe « Sécurité IT, Conformité, Réglementaire et Risques SI » et sous la coordination du Responsable des Identités, Habilitations et Contrôles, le Gestionnaire IAM international est en charge de : - Assurer un accompagnement, un support et une communication auprès de l’ensemble des lignes métiers - Réaliser les actions de régulation sur la solution d’IAM/IAG - Participer à l’animation de la communauté Identités, Habilitations et Contrôles au sein de l'entité client - Participer à l’exécution du plan de contrôle - Mettre à jour le catalogue de demandes sur la solution d’IAM/IAG - Assister l’équipe IHC et son responsable dans leurs activités au quotidien Appel d’Offre Gestionnaire IAM international Profil recherché Formation : - Bac + 5, Master ou diplôme d'ingénieur informatique en spécialité système d'information Expérience : - Expérience confirmée en IAM (> à 2 ans) - Maîtrise d’une solution d’IAM du marché - Expérience dans le domaine de la sécurité informatique serait appréciée - Expérience sur l’utilisation d’un outil de ticketing serait un plus Qualités requises : - Maîtrise de l’anglais professionnel à l’écrit et à l’oral (B2 minimum) - Capacité à animer des ateliers - Capacité d'analyse/Esprit de Synthèse - Capacité à être rapidement autonome - Bonne culture des SI (IAM, SGBD, Serveurs, Réseaux) - Excellent relationnel
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F
Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)
6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD
Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud
5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Mission freelance
PMO / Coordinateur IA (H/F)
Freelance.com
Publiée le
Agent IA
Machine Learning
MLOps
3 mois
400-630 €
Paris, France
Dans le cadre d’une transformation ambitieuse autour de l’intelligence artificielle, nous recherchons un Coordinateur IA Competence Center chargé d’assurer la coordination opérationnelle d’un centre d’expertise IA transverse. Véritable facilitateur et orchestrateur , le poste s’inscrit au cœur d’une gouvernance structurée et multi-niveaux, en lien étroit avec les équipes métiers, les directions IT et les instances de pilotage. Le Coordinateur IA CC intervient comme point central de synchronisation entre les projets IA et les ressources expertes mobilisées (Data Engineers, Data Scientists, AI Engineers, ML Engineers, équipes Infrastructure & Production, Chefs de Projet). Missions principales Coordonner les équipes pluridisciplinaires mobilisées sur les projets IA prioritaires. Assurer l’alignement des expertises et des ressources avec les jalons projets. Piloter les affectations et ajuster les priorités en temps réel selon les besoins. Identifier, anticiper et lever les points de blocage techniques ou organisationnels. Garantir la bonne préparation des déploiements en lien avec les équipes de production et d’infrastructure. Préparer les supports et dossiers d’arbitrage à destination des comités de gouvernance. Traduire les orientations stratégiques en plans d’actions opérationnels. Maintenir et mettre à jour la feuille de route des projets IA. Structurer les revues techniques et le suivi des indicateurs de performance. Favoriser la capitalisation des bonnes pratiques, des méthodes et des retours d’expérience. Assurer la fluidité entre les besoins métiers et les contraintes techniques. Ce rôle requiert une forte capacité à coordonner sans lien hiérarchique direct , en embarquant des équipes issues de différentes directions autour d’objectifs communs.
Mission freelance
DATA ENGINEER GCP
ESENCA
Publiée le
Apache Airflow
BigQuery
DBT
1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Mission freelance
Data Engineer
Codezys
Publiée le
Intelligence artificielle
Python
Snowflake
12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI
OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake
3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Mission freelance
Administrateur MDM Syndigo (H/F)
Nicholson SAS
Publiée le
Master Data Management (MDM)
SQL
Support informatique
11 mois
300-360 €
Massy, Île-de-France
📋 Contexte de la mission Dans le cadre d’un programme de transformation stratégique, un leader mondial de la grande distribution recrute un expert MDM pour rejoindre sa Digital Data Factory . L'objectif est d'unifier, fiabiliser et gouverner les données de référence (produits, fournisseurs, tiers et sites) à l’échelle internationale. Ce programme porte des enjeux majeurs de convergence des référentiels historiques, de modernisation des architectures Data et de sortie progressive des systèmes "Legacy" (Mainframe), tout en garantissant la continuité des usages métiers critiques. La solution cible repose sur la technologie SaaS MDM de Syndigo (ex-Riversand) . 🎯 Vos Missions En tant qu'Administrateur MDM, vous serez le garant technique et fonctionnel de la solution : Expertise Solution : Maîtriser l'architecture fonctionnelle et technique de Syndigo pour en exploiter tout le potentiel. Configuration & Paramétrage : Configurer les modules et les workflows en adéquation avec les processus métiers et les spécifications techniques. Pilotage des Flux : Comprendre l'architecture de flux, assurer le suivi de la maintenance évolutive et corrective (rôle de PO Data). Analyse Technique : Analyser le contenu des messages techniques (formats JSON / XML ) et intervenir sur des bases de données SQL . Gestion des Données : Effectuer des reprises et migrations de données directement depuis la solution. Qualité & Tests : Réaliser les tests techniques/fonctionnels et garantir la mise à jour du cahier de tests de non-régression. Support N3 : Diagnostiquer et résoudre les incidents complexes liés à la configuration ou aux limites de l'outil. Relation Éditeur : Collaborer étroitement avec l'éditeur pour le suivi des anomalies et l'influence sur la roadmap produit. Standard Métier : Apporter votre connaissance du référentiel produit (la maîtrise des standards GS1 est un plus). 📍 Détails Logistiques InformationDétails Date de démarrage : ASAP Durée prévisionnelle : Jusqu'au 16/03/2027 Localisation : Massy (91) ou Metz (57) Rythme : Hybride (3 jours/semaine obligatoires sur site) TJM Max : 360€ (Massy) / 300€ (Metz)
Mission freelance
Expert data DataCloud (DataBricks) Nantes /st
WorldWide People
Publiée le
Databricks
12 mois
Nantes, Pays de la Loire
Expert data DataCloud (DataBricks) Nantes •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine Ce poste est ouvert à la pre-embauche DataCloud (DataBricks) Prestation d'Expert Data Tâches : •Assister à la rédaction des dossiers de conception, à la relecture et validation des spécifications techniques émises par les équipes de réalisation •Apporter une expertise technique/un support technique (résolution de problèmes en production, mise en œuvre de nouvelles fonctionnalités, étude de DFB, etc.) : •Apporter de l’expertise sur les projets en cours de développement •Apporter de l’expertise sur des problématiques en production •Proposition et test de solutions, mise en œuvre de solutions de contournements, dossier de préconisations, etc… •Support assuré auprès des équipes projet, de l’exploitant, de l’AMOA, etc. •Rapports d’études •Apporter des améliorations dans le code, les tests, les configurations •Auditer le code et préconiser des améliorations •Apporter de l’expertise/support lors de migrations de données •Optimiser des traitements, des bases de données •Gérer les patchs éditeurs •Assister (expertise) les développeurs et intervenir en support N1/N2, notamment en réalisant les travaux les plus complexes •Apporter son expertise et son conseil à la définition et mise à jour de l’architecture Applicative •Participer au dimensionnement d’une architecture •Participer au choix d’une solution •Apporter des connaissances sur l’état de l’art du marché •Etre force de proposition pour la création ou l’évolution de plateformes mutualisées en fonction de l’évolution du marché et des nouveaux besoins •Proposer, construire, alimenter et diffuser les outils de capitalisation, d’industrialisation et de mutualisation tels que les guides de bonnes pratiques, des bilans de projets, des retours d’expérience •Participer au développement/à la formation des compétences des collaborateurs pour améliorer les connaissances et le savoir- faire collectifs •Participer à l’homologation et l’accessibilité technique •Rédiger ou mettre à jour la documentation utilisateur, les supports de formation •Concevoir des actions et des supports de formation •Préparer et réaliser les sessions de formation •Préparer la communication ou communiquer vers les contacts Métiers des évolutions Compétences : •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5685 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois