L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 262 résultats.
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005
Publiée le
10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Offre d'emploi
Data Scientist – Expert
Publiée le
Deep Learning
Domino
Framework
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Au sein de la Tribe Artificial Intelligence , vous participez au développement d’applications d’IA générative et prédictive. Vos responsabilités : Développer des applications IA (assistants virtuels, outils internes, automatisation). Concevoir des modèles IA robustes et mesurables (qualité, précision, garde-fous). Déployer des modèles en production. Communiquer les résultats aux dirigeants.
Mission freelance
Ingénieur en automatisation de données IA/ Python /Pandas / Polars / dataïku / LLM / Anglais(H/F)
Publiée le
Automatisation
Dataiku
IA
6 mois
500-580 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans le domaine bancaire, un ingénieur senior en données/IA (Dataiku) ayant une expérience averée en automatisation Objectifs de la mission : L'accélération de la création de nouveaux produits basés sur les données, l'automatisation des processus métier grâce à l'automatisation agentique des processus et la prise de décisions stratégiques. Apporter à la fois rapidité et robustesse aux pipelines et solutions de données. En collaboration avec les parties prenantes commerciales, soutenir les projets de bout en bout, de la conception et du prototypage rapide au déploiement en production. Missions : • Collaborer avec les parties prenantes des secteurs commercial, opérationnel et informatique afin de recueillir les exigences et de concevoir des solutions sur mesure, basées sur les données. • Développer et optimiser des pipelines de données robustes, évolutives et hautement performantes qui prennent en charge les flux de travail critiques de l'entreprise. • Co-créer des prototypes rapides avec les utilisateurs métier afin de valider les hypothèses et d'accélérer le retour sur investissement. • Industrialiser ces prototypes en solutions prêtes à être mises en production en mettant l'accent sur la qualité des données, la maintenabilité et les performances. • Soutenir la livraison et le déploiement continus en appliquant les meilleures pratiques en matière d'ingénierie logicielle et de DevOps. • Contribuer à l'évolution de la stack data et promouvoir les meilleures pratiques au sein de l'équipe.
Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN
Publiée le
Apache Hive
Apache Spark
Big Data
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Offre d'emploi
Business Analyst IA générative et de la RAG - IDF - Plus de 9 ans
Publiée le
BI
Méthode Agile
3 ans
50k-65k €
500-550 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein du Lab Innovation, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). 🤝 Les missions sont : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client.
Mission freelance
Directeur de Programme Data / IA
Publiée le
Cloudera
Data analysis
Data governance
12 mois
520-660 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Product Lead / Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Offre d'emploi
Data Scientist
Publiée le
Data science
Machine Learning
40k-62k €
Levallois-Perret, Île-de-France
Télétravail partiel
l’Assistant(e) Externe / Datascience & AI Business jouera un rôle clé dans la conduite et le développement des projets d’intelligence artificielle, depuis le cadrage des besoins métier jusqu’à la mise en production des solutions. Votre mission consistera à allier compétences en gestion de projet et savoir-faire technique en datascience pour garantir la réussite des initiatives IA menées au sein de Personal Finance. Vous interviendrez en appui stratégique et opérationnel, en lien étroit avec les équipes Datascience, IT, et les directions métiers. Vos principales responsabilités incluront : • Piloter et coordonner les projets IA / Data : cadrage, suivi des livrables, reporting et animation des points d’avancement. • Analyser les besoins métiers et les traduire en cas d’usage data exploitables. • Contribuer aux travaux de data science : préparation et analyse de données, validation et suivi de modèles (ML, NLP, IA générative). • Produire des livrables de synthèse (dashboards, rapports, présentations) à destination des équipes métiers et du management. • Assurer la communication transverse entre les équipes techniques et métiers, et participer à la documentation et la capitalisation des bonnes pratiques.
Offre d'emploi
Data Scientist
Publiée le
Azure
Data science
Paris, France
Télétravail partiel
Vous êtes passionné·e par la donnée, l’intelligence artificielle et l’impact business ? Rejoignez une équipe innovante qui met la data au cœur des décisions stratégiques et participez à la conception de modèles prédictifs et de solutions à fort impact pour des projets internationaux. 🚀 Vos missions En tant que Data Scientist , vous serez au cœur de la transformation data. Vos principales responsabilités : Concevoir, développer et industrialiser des modèles de machine learning et d’ IA répondant à des problématiques concrètes (prévision de la demande, optimisation marketing, performance industrielle, etc.) Collaborer avec les équipes Data Engineering et les métiers pour traduire les besoins business en solutions data performantes Analyser, structurer et valoriser de grands volumes de données issues de sources multiples Garantir la qualité, la robustesse et l’interprétabilité des modèles déployés Participer activement à la diffusion d’une culture data-driven au sein de l’entreprise
Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)
Publiée le
Agile Scrum
Angular
Apache Kafka
12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Offre d'emploi
Azure Cloud Administrator & Architect H/F
Publiée le
Azure
3 ans
Île-de-France, France
Le département informatique travaille actuellement avec l'équipe Digital & Data Solution sur des initiatives liées à l'IA, au machine learning et aux données. Nous recherchons un expert Azure Cloud pour : - Administrer le tenant Azure existant du groupe - Contribuer à la mise en œuvre de cas d'utilisation de l'IA et du machine learning - Contribuer au projet Data Platform en participant activement au MVP avec la solution Snowflake - Mettre en place les meilleures pratiques Azure (automatisation, sécurité) avec différentes parties prenantes - Transférer ses compétences à l'équipe existante Vous collaborerez étroitement avec différentes équipes informatiques (cybersécurité, opérations informatiques, développement informatique, informatique métier), ainsi qu'avec l'équipe Digital & Data Solution. » Les équipes informatiques du Groupe comptent plus de 600 collaborateurs répartis entre Paris, Tunis, Francfort et Düsseldorf. Nous recherchons un expert Azure ayant une expérience significative (plus de 5 ans) dans l'administration et la conception de projets informatiques cloud. Connaissances en cloud (administration, support, IaC, automatisation, sécurité cloud) Très bonne expertise des services Azure, Terraform, scripting Administrer, surveiller et mettre en œuvre les services Azure Contribuer à la mise en œuvre de projets liés à l'IA et à la plateforme de données Promouvoir les meilleures pratiques DevSecOps Être une référence technique en matière d'IA et d'apprentissage automatique Travailler en étroite collaboration avec les architectes du groupe, les équipes de sécurité et DEX Solides compétences techniques dans Azure, IaC (terraform), Solide expérience dans les cas d'utilisation de l'IA et du machine learning dans Azure. La connaissance des scripts Azure PowerShell serait appréciée. Maîtrise de l'anglais. Expertise dans le cloud Azure.
Offre d'emploi
DATA SCIENTIST
Publiée le
Azure
Databricks
Python
3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client nous recherchons un Data Scientist 👽. Contexte Notre client a misé sur une plateforme Big Data sur Microsoft Azure pour centraliser ses flux data, stocker des pétaoctets de données dans des Data Lakes et industrialiser des cas d’usage IA stratégiques. La Data Science joue un rôle clé, notamment dans les projets de maintenance prédictive, d’information voyageurs et d’optimisation opérationnelle. Missions principales Développer des modèles de Machine Learning et d’IA sur des volumes massifs de données stockées sur Azure (Data Lake, Data Factory, Databricks). Construire des features temporelles , utiliser des séries temporelles ou des méthodes statistiques avancées pour modéliser des phénomènes (ex : retards, maintenance). Analyser les données météorologiques, de trafic, IoT, capteurs ou autres sources pour créer des prédictions (ex : retards, pannes) ou des systèmes d’alerte. Industrialiser les pipelines d’entrainement et d’inférence sur Azure (notamment via Azure Databricks, Azure ML, etc.). Monitorer les performances des modèles, mettre en place des métriques qualité, des alertes, des feedback loops. Collaborer avec les équipes infrastructure / Data Engineering pour garantir la scalabilité et la gouvernance des flux data. Accompagner les équipes métier (opération, maintenance, transport, marketing) dans l’exploitation des modèles prédictifs. Documenter les modèles, écrire des rapports, créer des visualisations et restituer les résultats de manière pédagogique. Cloud Azure : Data Lake, Data Factory, Databricks. Big Data : Spark (Scala ou Python) pour traitement distribué. Langages : Python (pandas, scikit-learn, ML frameworks), SQL / T-SQL. Machine Learning / IA : régression, classification, séries temporelles, modèles statistiques, ou algorithmes supervisés / non supervisés. Data Engineering / Pipeline : connaissance des pipelines ETL/ELT, ingestion de données, feature engineering. MLOps : pipelines de déploiement, scoring, orchestration, monitoring, versioning des modèles. Gouvernance des données : qualité, sécurité, catalogage. Architecture des données : conception de schémas, datalakes, modélisation. Compétences transverses Esprit analytique et méthodique . Capacité à vulgariser des concepts complexes auprès des équipes métier. Autonomie, rigueur, curiosité et force de proposition. Aisance relationnelle et collaboration interdisciplinaire (Data, produit, exploitation). Capacité à prioriser et structurer le travail sur des sujets long terme. Profil recherché Formation : Bac+5 (informatique, data, maths, statistique, IA…). Expérience : minimum 3 à 6 ans en data science / machine learning, idéalement sur des environnements cloud / Big Data. Langues : bon niveau d’anglais technique. Atout : expérience antérieure dans le transport, l’IoT, la maintenance, ou de lourdes infrastructures data.
Offre d'emploi
Expert FONCTIONNEL Cyber & Protection des Données – IA / GenAI / Azure (Niveau 3)
Publiée le
Azure
Azure AI Foundry
Gestion des risques
3 ans
94120, Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un expert cybersécurité fonctionnel spécialisé IA / GenAI pour renforcer une équipe sécurité dédiée aux usages avancés de l’IA au sein d’un grand groupe international du secteur financier. 🎯 Vos responsabilités Cadrage & gouvernance sécurité IA / GenAI Participation aux comités projets IA Définition des exigences sécurité (prompt injection, poisoning, fuite de données, abus de privilèges…) Priorisation des projets IA à fort risque cyber Accompagnement des équipes tech & métiers Interaction directe avec architectes, data scientists, devs, product owners Contribution aux décisions d’architecture sur l’écosystème Microsoft : Azure AI, Cognitive Services, Azure ML, M365 / Copilot, Fabric, Power Platform Prise en compte des intégrations data (ex. plateformes cloud/data type Snowflake) Contribution aux documents & référentiels Dossiers de sécurité GenAI Analyses de risques LLM Blueprints & modèles d’architecture sécurité Exigences / spécifications sécurité (DAT, DAH, HLD/LLD, policies…) Playbooks & guidelines LLM / GenAI Reporting, KPIs, plans de remédiation
Mission freelance
Chef de projet DATA Domaine Banque / Assurance (ML, développement Python, IA générative) - MER
Publiée le
IA Générative
Pilotage
Python
3 mois
400-480 €
Mer, Centre-Val de Loire
Télétravail partiel
Chef de projet DATA pour une mission à MER (près d'Orléans).Data Science (ML, développement Python, IA générative) Domaine Banque / Assurance. Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il interviendra sur les projets suivants : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets
Offre d'emploi
Consultant Data Databricks (F/H)
Publiée le
Apache Spark
Databricks
DevOps
3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Mission freelance
Product Owner I.A & DATA - LLM - Collibra
Publiée le
Confluence
IA
JIRA
12 mois
550-600 €
Paris, France
Télétravail partiel
La prestation consistera à : · Du Product Ownership et de la coordination entre autres pour poursuivre un projet concernant la mise en place de modèle des User needs sur les offres d’information intégrant des solutions d'intelligence artificielle (IA), depuis la R&D jusqu’à la mise en production. · Un cadrage du périmètre fonctionnel, la définition et le suivi de la roadmap /release plan, la définition des KPI produit et son suivi, sa réalisation de la conception jusqu'à la mise en production, dans le respect des obligations réglementaires, des procédures, des budgets et des normes de qualité tout en s’assurant d’une parfaite documentation des fonctionnalités développées Livrables attendus durant la prestation : · Identification, priorisation et spécification des besoins utilisateurs · Rédaction des spécifications fonctionnelles et des tests d’acceptation. · Rédaction des User Stories, mise en place & et suivi du backlog produit · Rédaction et maintien de la documentation sur les sujets d’IA liés à sa mission (Confluence) · Coconstruction des objectifs et de la roadmap avec les Product Manager et les équipes · Priorisation & suivi des développements dans le respect de la roadmap · Animation ou coanimation des ateliers de conception, en collaboration avec un UX designer si nécessaire · Recette fonctionnelle des développements sur la plateforme, en lien avec le responsable qualité de l’équipe ou en autonomie le cas échéant · Propositions d’évolutions dans le respect des objectifs et des KPIs · Interface avec tous les interlocuteurs du projet (équipes techniques, graphiques, journalistes, équipes marketing et partenariats, équipes support, équipes juridiques, partenaires, etc) · Participation aux cérémonies agiles avec les différentes équipes intervenant sur le projet (rétrospective, démo, refinement, tres amigos, sprint planning, etc.) · Participation à la sélection de solutions adéquates avec l’équipe technique · Communication au reste de l’équipe et aux sponsors sur l’avancement des développements et la planification des évolutions autour, entre autres, du projet User needs sur le scope des offres d’information · Instruction des alertes (avec proposition de mise en place de plans de correction ou contournement) pour tout événement susceptible de remettre en cause les objectifs, le planning ou le budget · Livraison du projet ou des itérations produit et garantie de sa conformité · Réalisation de documents support (règles métier, roadmaps, présentations, benchmarks, etc) · Veille technologique et concurrentielle
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
262 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois