Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 137 résultats.
CDI
Freelance

Offre d'emploi
data engineer AWS, Snowflake, SAP

LEVUP
Publiée le
AWS Glue
MySQL
Python

1 an
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Participer à une intégration d'SAP Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) SAP Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
CDI

Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience

Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue

La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
CDI
Freelance

Offre d'emploi
Chef de Projet Data (H/F)

OBJECTWARE
Publiée le
Data analysis

3 ans
40k-70k €
400-550 €
Île-de-France, France
🎯 Missions🔹 Pilotage projet Cadrer les besoins métiers en lien avec les parties prenantes (Data, IT, Métiers) Définir la roadmap projet et piloter les plannings (budget, délais, risques) Animer les comités projets (COPIL, COMEX, ateliers métiers) Suivre l’avancement des projets et assurer le reporting 🔹 Coordination Data / IT / Métiers Faire le lien entre équipes techniques (Data Engineers, Architectes, BI) et métiers Garantir la bonne compréhension des besoins fonctionnels Superviser les phases de développement, recette et mise en production 🔹 Data & Gouvernance Participer à la mise en place de référentiels de données (Data Catalog, Data Quality…) Contribuer aux sujets de gouvernance (RGPD, qualité des données, lineage) Accompagner les métiers dans l’exploitation et la valorisation des données 🔹 Delivery & Qualité Piloter les phases de recette (UAT) Garantir la qualité des livrables et leur adéquation aux besoins Assurer la conduite du changement auprès des utilisateurs
Freelance
CDI

Offre d'emploi
DATA ENGINEER / TECH LEAD

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Toulouse, Occitanie
Titre : Ingénieur Data Senior - Domaine Cargo DWH Contexte Renforcement de l'équipe Data Warehouse Cargo . Mission LCM (maintenance) + évolutions/projets nouveaux. Chargé de données ticketing/réservations, finances et opérationnel pour le domaine Cargo. Interface directe avec business, architecture, OPS. Stack Technique Actuel (répartition quotidienne) : ETL : PowerCenter (20%) SQL/Scripting : Teradata + BTEQ/Shell (50%) OS : Linux (10%) Reporting : SAP BI4 + PowerBI (20%) Prochaines évolutions : ETL : IDMC (20%) SQL/Scripting : BigQuery + Dataproc/Terraform (60%) Reporting : SAP BI4 + PowerBI (20%) Compétences soft clés : Communication, autonomie, adaptation, analyse complexe, coordination stakeholders.
Freelance
CDI

Offre d'emploi
DevOps Engineer IA

TS-CONSULT
Publiée le
Azure
Nosql
Tensorflow

1 an
Île-de-France, France
Bonjour a tous je suis a la recherche d'un profil DevOps Engineer IA pour l'un de mes clients, Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe
Freelance

Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419

ISUPPLIER
Publiée le

9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
CDI
Freelance

Offre d'emploi
Product Owner (H/F) – Data / API / Kafka

Proxiad
Publiée le
Apache Kafka
Backlog management
Rédaction des spécifications fonctionnelles

12 mois
40k-45k €
400-500 €
Lille, Hauts-de-France
🌟 Contexte Dans le cadre d’un programme stratégique au sein du groupe ADEO, nous recherchons un Product Owner pour intervenir sur le produit Purchase Price & Profitability , et plus précisément sur le composant “Eco-contributions” . 👉 Objectif : piloter et structurer une solution permettant de gérer les éco-contributions (ex : DEEE) à l’échelle du groupe. 📅 Roadmap : Fin du cadrage business : T1 2026 Lancement des développements : T2 2026 Mise en production : déploiement sur 2 Business Units d’ici fin 2026 🎯 Enjeu majeur : remplacer une partie du legacy et construire un produit à forte valeur métier. 🎯 Votre mission En tant que Product Owner , vous êtes responsable de la vision produit et de la maximisation de la valeur métier. 🧩 Pilotage produit Concevoir et faire évoluer le produit en lien avec les métiers et utilisateurs Définir la vision produit et contribuer à la stratégie (quarter plan / PI planning) Rédiger les documents de cadrage 📊 Gestion du backlog & delivery Construire, alimenter et prioriser le Product Backlog Rédiger les User Stories / Epics (Jira) Définir les priorités en fonction des enjeux métier et techniques Suivre les KPI métier pour mesurer la valeur créée 🤝 Animation & coordination Animer les rituels agiles (sprints, reviews, etc.) Assurer la communication produit (slides d’avancement, reporting) Collaborer étroitement avec les équipes techniques et métiers ✅ Recette & qualité Valider les développements réalisés Organiser les phases de recette métier Garantir la qualité et la non-régression des livrables
Freelance
CDI
CDD

Offre d'emploi
Data Engineer(H/F)

QODEXIA
Publiée le
Apache Spark
Azure
Databricks

10 jours
France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Dans le cadre du développement de son usine digitale orientée Data , notre client recherche 6 Data Engineers expérimentés afin d’accélérer la mise en œuvre de cas d’usage sur la plateforme Databricks. 📍 Localisation : France / Remote 📅 Démarrage : ASAP
Freelance

Mission freelance
Prestation Front-end VueJs – IA

Codezys
Publiée le
Chatbot
CSS3
Git

12 mois
450-500 €
Paris, France
Rattachée au département IT, cette prestation s’inscrit dans un cadre collaboratif au sein d’une équipe multidisciplinaire composée de développeurs frontend Vue.js, développeurs Ruby, développeurs Python spécialisés en data science et en algorithmes financiers, ainsi que d’ingénieurs QA. Cette équipe est chargée du développement des plateformes de gestion de patrimoine utilisées par plus de 1 300 conseillers. Elle collabore étroitement avec les équipes produit, UX/UI, data science, ainsi qu’avec les experts métier. La méthodologie adoptée repose sur une approche Agile Scrum, avec des sprints de deux semaines et un processus CI/CD en amélioration continue. Dans le cadre de son expansion, un grand groupe financier sollicite trois prestations distinctes pour le développement front-end. Objectifs et livrables Les principaux objectifs de cette mission sont : Assurer le développement et la maintenance des applications frontend en Vue.js 2 et 3 en production Intervenir sur une variété de projets, allant de la maintenance de legacy Vue.js 2 à la création de nouvelles applications avec Vue.js 3, avec une approche pragmatique Concevoir et implémenter des interfaces utilisateur modulaires, performantes et accessibles Intégrer les interfaces des chatbots et assistants IA, développés avec les LLMs Consommer et intégrer les API REST du backend Garantir la qualité du code à travers des tests pertinents et des revues de code constructives Optimiser les performances frontend et améliorer l’expérience utilisateur Participer activement aux décisions techniques et challenger les spécifications si nécessaire Prendre la responsabilité des fonctionnalités déployées en production, conformément à la philosophie "you build it, you run it" Contribuer à l’amélioration continue des pratiques de développement au sein de l’équipe Résultats attendus / Livrables Code & documentation Code source versionné sur GitLab, en conformité avec les conventions Vue.js Tests unitaires avec Jest/Vitest et tests E2E avec Cypress, assurant une couverture satisfaisante Intégration efficace des APIs REST du backend Documentation technique détaillée relative aux projets et composants développés Features & intégrations Déploiement en production de fonctionnalités fonctionnelles Mise en service des interfaces utilisateur pour chatbots et assistants IA Gestion proactive des incidents Suivi et gestion des tickets via Jira Participation active aux revues de code et aux rituels agiles
Freelance
CDI
CDD

Offre d'emploi
Développeur Python – IA / DevOps (H/F)

NSI France
Publiée le
Python

1 an
50k-55k €
500-600 €
Île-de-France, France
Nous recherchons un Développeur Python confirmé , doté d’une forte expertise technique, d’une appétence pour l’IA et d’une réelle sensibilité DevOps. Ce poste ne vise pas un profil Data Scientist ou Data Engineer : il s’agit d’un rôle de développeur Python haut niveau , capable d’intégrer, d’opérer, d’industrialiser et de fiabiliser des services IA. Responsabilité de la mission Intégrer et maintenir les services d’IA au sein d’une plateforme IA interne . Déployer et maintenir les composants de l’IA générative : LLMs, modèles d’embeddings, bases vectorielles, agents, orchestrations. Accompagner l’identification et le déploiement de cas d’usage IA pertinents au sein du groupe (contexte international). Maintenir les plateformes permettant la publication des services IA et les frameworks associés. Maintenir la plateforme de R&D mise à disposition des data scientists et leur apporter un support technique. Participer activement à la réduction de la dette technologique, notamment via la containerisation et l’industrialisation des composants.
Freelance

Mission freelance
Product Owner / Business Analyst Google Workspace et Messagerie

SMH PARTICIPATION
Publiée le
Agile Scrum
AWS Cloud
Cloud

1 an
100-490 €
Niort, Nouvelle-Aquitaine
Dans le cadre de l’évolution de son environnement de travail numérique, nous recherchons un(e) Product Owner / Business Analyst pour intervenir sur le périmètre Google Workspace et Messagerie . Vous serez au cœur de la transformation digitale, en charge de : Porter la vision produit et définir la roadmap en alignement avec la stratégie globale Piloter et prioriser le backlog produit (recueil des besoins, rédaction des User Stories, critères d’acceptation) Assurer la coordination de l’équipe technique et animer les rituels Agile Faire le lien entre les équipes métiers et IT Vos principales responsabilités : 🔹 Pilotage produit (PO) Définition et gestion de la roadmap Priorisation des besoins et gestion du backlog Suivi de la performance produit (KPIs, vélocité…) 🔹 Analyse métier (BA) Cadrage des besoins et analyse des processus métiers Proposition de solutions innovantes (automatisation, outils collaboratifs, data) Intégration des enjeux de sécurité et conformité 🔹 Conduite du changement Accompagnement des utilisateurs dans l’adoption des nouveaux outils Animation d’ateliers, formations et communautés utilisateurs Mise en place de stratégies de déploiement et d’adoption Sensibilisation aux bonnes pratiques (RSE, sobriété numérique, usage responsable) Livrables attendus Roadmap produit et backlog priorisé User Stories et spécifications fonctionnelles Tableaux de bord de suivi (KPIs, adoption, performance) Plans de conduite du changement et supports utilisateurs
Freelance
CDI

Offre d'emploi
Directeur de projet - Risk Data Aggregation & Reporting (H/F)

STORM GROUP
Publiée le
ETL (Extract-transform-load)
Méthode Agile
Safe

3 ans
50k-70k €
500-700 €
Île-de-France, France
Dans un contexte de renforcement des exigences réglementaires imposées aux établissements bancaires, notre client DSI met en œuvre la norme RDAR ( Risk Data Aggregation & Reporting ), visant à garantir la fiabilité, la traçabilité et la gouvernance des données de risque. Ce programme stratégique de plus de 10 M€ s’inscrit dans la continuité des travaux BCBS 239 et couvre l’ensemble du cycle de vie du projet, depuis les phases de cadrage amont jusqu’à la mise en production et la clôture. Missions principales : Phases amont & cadrage du programme – fortement apprécié Piloter les phases de pré-cadrage et de cadrage : définition du périmètre, des objectifs et des enjeux réglementaires. Conduire les études de faisabilité et les analyses d’impact (organisationnelles, techniques, budgétaires). Élaborer le business case et le dossier de lancement soumis au sponsor et aux instances de décision. Définir la vision cible, la stratégie de mise en œuvre et la structure de gouvernance du programme. Rédiger les documents de référence : charte de projet, plan de management, matrice RACI. Structurer le découpage en workstreams et lots de travaux (WBS) en cohérence avec la roadmap réglementaire. Animer les ateliers de cadrage avec les parties prenantes métier (Risk, Compliance, Finance) et IT. Pilotage du programme RDAR Assurer le pilotage global d’un programme supérieur à 10 M€, avec pleine responsabilité budgétaire. Conduire les travaux de mise en conformité à la norme RDAR au sein de la DSI bancaire. Définir et piloter la roadmap du programme en lien avec les équipes Risk, Finance et IT. Assurer le reporting d’avancement auprès des instances de gouvernance (CODIR, Comité Risques). Coordonner les workstreams métier et technique, en veillant à la cohérence d’ensemble. Gestion budgétaire & financière du programme Élaborer et suivre le budget programme (>10 M€) : plan de charge, forecast, atterrissage. Piloter les coûts par workstream et assurer la maîtrise des écarts budgétaires. Gérer les relations contractuelles avec les prestataires externes (cabinets, ESN, éditeurs). Produire les reportings financiers à destination du sponsor et des instances de gouvernance. Anticiper les risques de dérive budgétaire et mettre en place les plans correctifs. Traçabilité & gouvernance des données de risque Mettre en place les référentiels de traçabilité des données de risque ( data lineage, data quality ). Définir les règles de gestion et les normes de qualité des données en lien avec les équipes Data Office. Superviser la mise en œuvre des dispositifs de contrôle et d’auditabilité des flux de données. Piloter les travaux de cartographie des données critiques ( CDE – Critical Data Elements ). Coordination technique & Data Collaborer avec les équipes Data Engineering et Architecture sur les pipelines de données (Big Data, datalake , entrepôts). Valider les choix d’architecture technique garantissant la conformité réglementaire. Assurer l’interface entre les équipes métier (Risk, Compliance) et les équipes IT. Gestion des parties prenantes & reporting réglementaire Préparer les livrables destinés au régulateur (BCE, ACPR) et aux auditeurs internes. Animer les comités de pilotage et rédiger les comptes rendus d’avancement. Identifier et gérer les risques programme, mettre en place les plans de mitigation. Manager une équipe pluridisciplinaire de chefs de projet, business analysts et experts techniques.
Freelance

Mission freelance
Chef de Projet MOE – Déploiement IA Générative (H/F)

CAT-AMANIA
Publiée le
Gestion de projet
IA
JIRA

2 ans
Nantes, Pays de la Loire
Description de la mission Dans le cadre d'une transformation numérique d'envergure pour un acteur public majeur, nous recherchons un Chef de Projet MOE Senior pour piloter le déploiement opérationnel de l’IA Générative. Après une phase d'expérimentation réussie, le projet entre dans sa phase de généralisation (2 ans, 3 lots successifs). Votre rôle sera de transformer l'essai en déployant des solutions concrètes (Copilot, Swiftask, Jalios JNLP) auprès de plus de 1000 agents, tout en structurant l'offre d'accompagnement et de formation. Vos principales responsabilités : Pilotage Opérationnel : Cadrage des lots, gestion du planning, suivi des tâches et coordination des comités de suivi. Déploiement Technique & Fonctionnel : Paramétrage des solutions IA, phases de recette et mise en œuvre des outils cibles. Conduite du Changement : Construction et animation du dispositif d’accompagnement (ateliers, formations, ressources digitales). Communication Institutionnelle : Interventions en CODIR pour présenter l'avancement et les enjeux stratégiques. Animation d’Écosystème : Mobilisation des expertises internes et participation à l'observatoire des usages IA.
Freelance

Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy

Almatek
Publiée le
SQL

6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance

Mission freelance
[SCH] Analytics Engineer / Data Engineer Conformité – Lutte contre la fraude - 1413

ISUPPLIER
Publiée le

10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre de la plateforme SPIDER, dédiée à la lutte contre la fraude, le blanchiment et le financement du terrorisme, notre client recherche un Analytics Engineer / Data Engineer orienté conformité. Intégré à la squad compliance de solutions cognitives, le consultant interviendra sur une plateforme d’investigation s’appuyant sur des technologies graphes comme Neo4j et Linkurious, permettant de centraliser les données issues de multiples applications internes et d’offrir une vision 360° des personnes et de leurs interactions. La mission porte plus particulièrement sur le socle d’ingestion de données alimentant la base graphe, avec un fort enjeu de qualité, de modélisation, d’industrialisation et de collaboration avec les métiers fraude et LCB-FT. Missions : -Transformer, modéliser et documenter les données brutes pour les rendre exploitables -Développer des modèles et produits de données orientés conformité pour alimenter la base graphe -Maintenir en condition opérationnelle les flux d’ingestion vers la base de données graphe -Améliorer les processus de traitement des données afin de gagner en rapidité et efficacité -Créer et mettre à jour la documentation des produits de données -Automatiser les contrôles et tests de qualité pour garantir l’intégrité des données -Produire des analyses à destination des métiers pour le calibrage de scénarios de fraude et de vigilance LCB-FT -Collaborer avec les Data Engineers et les métiers de la fraude / conformité pour enrichir la base graphe -Participer à la mise en production des produits de données avec l’équipe Data Platform -Contribuer à la structuration des flux dans une logique ELT / ETL et architecture data moderne Profil attendu : -Expérience confirmée en Analytics Engineering / Data Engineering -Très bonne maîtrise de SQL et Python -Bonne connaissance des concepts ETL / ELT -Expérience en modélisation de données -Connaissance de Snowflake et Dataiku -Bonne compréhension des architectures data modernes (médaillon, data mesh) -Capacité à travailler sur des sujets de qualité, documentation et industrialisation -Aisance à collaborer avec des équipes techniques et métiers -Sensibilité aux enjeux de fraude, conformité et LCB-FT appréciée -Rigueur, autonomie et bon niveau d’analyse
4137 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous