L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 915 résultats.
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Mission freelance
Responsable CRM & Sales Effectiveness.
KatchMe Consulting
Publiée le
CRM
Salesforce
6 mois
Île-de-France, France
Pour l'un de mes clients avec une forte envergure international. ( anglais parlé obligatoire) Dans le cadre du développement de la performance commerciale, nous recherchons un Responsable CRM & Sales Effectiveness . Vous serez au cœur de la transformation digitale des équipes commerciales, avec pour objectif d’optimiser l’efficacité des ventes, la qualité du pipeline, la précision des prévisions et l’engagement client grâce à une utilisation stratégique des outils CRM, de la data et de la BI. Missions Définir, piloter et déployer la roadmap CRM (Salesforce / ACE) Concevoir et optimiser les workflows digitaux de vente afin d’améliorer la productivité commerciale Garantir une expérience client intégrée via les outils CRM et digitaux Améliorer la performance du pipeline (vélocité, conversion des leads) Définir et piloter les KPI, dashboards et reportings en collaboration avec les équipes BI / IT Assurer l’alignement Sales – Marketing via une meilleure exploitation de la donnée Mettre en place une gouvernance des données commerciales et des standards de reporting Piloter l’adoption du CRM et accompagner le changement auprès des équipes Gérer les projets CRM (intégration, prestataires, budget) Collaborer étroitement avec les équipes IT, Digital, Sales, Marketing et Finance Assurer une veille des meilleures pratiques et intégrer des innovations, notamment autour de l’IA appliquée au CRM Encadrer et développer une équipe dans un environnement international
Mission freelance
POT8993 - Un Software Engineer Fullstack sur Issy-les-Moulineaux.
Almatek
Publiée le
React
6 mois
Issy-les-Moulineaux, Île-de-France
Almatek recherche pour l'un de ses clients Un Software Engineer Fullstack sur Issy-les-Moulineaux. Contexte et objectifs Le client développe et industrialise les nouveaux cas d’usage en Intelligence Artificielle pour l’ensemble du groupe. Le Software Engineer Fullstack interviendra dans un environnement exigeant, combinant IA, ingénierie logicielle avancée, qualité, sécurité et performance. L’objectif de la mission : concevoir et implémenter l’architecture technique des solutions logicielles, accompagner les équipes internes (software engineers, data scientists), renforcer la maturité des pratiques de développement et l’écosystème CI/CD, contribuer à la mise en production et au maintien en conditions opérationnelles et de sécurité. Rôle et responsabilités 1. Conception & Développement Fullstack Concevoir et développer les composants logiciels backend et frontend. Implémenter les solutions dans un cadre agile, en respectant les contraintes d’architecture et de sécurité. Intégrer les composants dans les environnements Kubernetes cibles. 2. Intégration & Production Assurer l’intégration avec la cible de production. Participer à la définition du MCO/MCS (durcissement, sécurité, surveillance). Contribuer à l’optimisation, la qualité et la performance des solutions. 3. Qualité logicielle et bonnes pratiques Mettre en œuvre et promouvoir les pratiques : TDD, BDD, DDD, clean code, pair programming. Contribuer à la qualité logicielle via tests, revues de code, pipelines CI/CD. Participer à l’amélioration continue de la chaîne d’ingénierie. 4. Collaboration & documentation Travailler étroitement avec les ingénieurs, data scientists et architectes. Documenter l’architecture, les spécifications techniques et les décisions d’ingénierie. Contribuer à la communauté de pratique interne.
Offre d'emploi
Business Analyst Front-Office
ASTRELYA
Publiée le
SQL
Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Nous recherchons un Business Analyst (H/F) pour prendre un rôle au sein du Front Office , en interaction directe avec les traders et les équipes IT, sur des sujets liés au booking des opérations , aux stratégies de trading algorithmique et aux flux front to back. Concrètement, vous allez : 1/Être l’interface entre les traders / dealers et les équipes IT 2/ Comprendre et analyser : Les stratégies de trading algorithmique, Les règles de booking et les flux Front → Middle → Back Office 3/ Traduire les besoins métier en : Spécifications fonctionnelles détaillées Règles de gestion Scénarios fonctionnels et cas de test 4/ Participer aux phases de : Paramétrage des algorithmes Recette fonctionnelle / UAT Analyse et résolution des incidents en production Environnement fonctionnel Booking d’opérations Trading algorithmique Interaction quotidienne avec les traders Forte dimension production / run Profil recherché : 3 à 6 ans d’expérience en tant que Business Analyst Front Office Expérience confirmée en finance de marché Exposition directe aux environnements de trading (idéalement avec interaction traders) Compétences clés : Bonne compréhension : Des produits de marché Des mécanismes de booking Des flux Front → Middle → Back Capacité à évoluer dans un environnement exigeant et réactif Participation aux phases de recette / UAT et gestion des incidents Soft skills Excellent relationnel et aisance avec les traders / dealers Capacité à challenger et cadrer les besoins métier Bonne résistance à la pression Personnalité proactive et ambitieuse Orientation résultats et impact business Pourquoi nous rejoindre ? Un terrain de jeu pour progresser : Formations, certifications, coaching technique , communautés d’expertise (Java, Cloud, DevOps, Data…) et participation à des projets innovants (IA, architectures Cloud, automatisation…). Un cadre de travail motivant : Projets variés et à forte valeur ajoutée , événements internes réguliers, afterworks et ateliers tech et salon (DevopsREX, Devoxx et ParisJUG…). Un engagement RSE : Ecovadis Gold, Signataire de la charte pour la diversité, du Pacte des Nations Unies et mise en place du Mécénat de compétences Votre futur process de recrutement : Entretien RH avec une de nos chargées de recrutement Test technique (test Kata interne ou un échange avec un de nos expert) Entretien final avec un de nos managers Chez Astrelya, nous construisons des solutions innovantes… mais surtout, nous construisons des parcours humains. Prêt(e) à rejoindre l’aventure ? Tous nos postes sont ouverts aux personnes en situation de handicap. #recrutement#BA#FrontOffice
Mission freelance
Generative AI Engineer (H/F) 92
Mindquest
Publiée le
Amazon S3
AWS Cloud
Python
3 mois
La Défense, Île-de-France
Développement IA / Computer Vision: - Concevoir et développer de nouveaux cas d’usage en vision par ordinateur : - Détection de corrosion - Segmentation 2D/3D - Classification d’anomalies - Améliorer les performances et la robustesse des modèles existants MLOps & Industrialisation: - Concevoir et déployer une infrastructure MLOps complète sur AWS - Structurer et automatiser les pipelines de Machine Learning : - Entraînement - Validation - Versioning - Déploiement - Mettre en place le suivi des expérimentations et la gestion des modèles - Définir et appliquer les bonnes pratiques d’industrialisation : - CI/CD - Monitoring des modèles - Gestion des versions Gestion des données: - Gérer et structurer les datasets d’images 2D/3D issus des drones - Contribuer à l’amélioration continue de la qualité des données Collaboration transverse: - Travailler en étroite collaboration avec les équipes techniques et métiers - Assurer la cohérence technique et fonctionnelle des solutions développées
Offre d'emploi
Tech Lead Fullstack FAE sur Maison Alfort
EterniTech
Publiée le
API REST
DevSecOps
Git
3 mois
Maisons-Alfort, Île-de-France
Je cherche pour un de mes Client un Tech Lead Fullstack FAE sur Maison Alfort Contexte L’objet de cette consultation est une prestation d’assistance technique pour un Tech Lead JAVA JEE Confirmé (XP 5>10 ans) intervenant sur un périmètre du service de Gestion Assurance Export (GAE) au sein de la Direction des Services Informatiques de notre client qui mène à bien les projets informatiques. La mission se déroulera au sein de l'équipe Agile en charge de la réalisation et de la maintenance des applications lié à la comptabilité cliente Facturation Assurance Export (FAE). Cette prestation d’assistance technique JAVA sera supervisée par le Product Owner et le Scrum Master de l’équipe du train SAFe TransSquadExpress. La mission s’exercera au sein de l’équipe de projets dédiée mais pourra être amenée à évoluer au sein d’autres équipes du même groupe de projets ou sur des sujets complémentaires. Missions Ci-dessous les principales activités à mener dans le cadre de la mission : - Etre le relais des exigences de la DSI - Mise en oeuvre des NFR - Etre le champion sécurité de l'équipe en assurant la veille sur le traitement des failles (CVE ...) - Traitement des Enablers techniques -Application des principes d'architecture (API, Events etc) - Etre le moteur de l'équipe sur tous les éléments techniques - Participer activement la Communauté des Tech Leads du train - Travailler en relation avec l'équipe Système du train - S'assurer que les besoins sont bien couverts dans les engagements du train - S'assurer que les livrables sont dans la cible technique - S'assurer de développer dans le cadre du DevSecOps - Promouvoir les pratiques DevSecOps au sein de l'équipe - Prendre en charge les correctifs nécessaires - Assurer la réalisation des tests unitaires et automatisés, des tests End To End - Participer au bon niveau des indicateurs sur l'Excellence opérationnelle de l'application et du périmètre de l'équipe - Participer aux revues des User Stories (US) et aux chiffrages - Corrections des anomalies et suivi de production - S'assurer que les pipelines de déploiement continu sont bien en place et conformes - Automatisation des tests dans le processus de déploiement - Création/correction de pipeline DEVSECOPS, Jenkins file - Utilisation d'outil de supervision d'applications - Participer aux cérémonies du train SAFe - Mettre en pratique l'usage de l'IA générative
Offre d'emploi
Ingénieur Infrastructure Cloud AWS-KBS
KEONI CONSULTING
Publiée le
Plan de reprise d'activité (PRA)
Run
Transport Layer Security (TLS)
18 mois
20k-60k €
100-500 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Ingénieur Infrastructure Cloud AWS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’Ingénieur Infrastructure Cloud AWS est g arant du déploiement, de la configuration et de la maintenance opérationnelle des environnements cloud AWS, il assure la disponibilité, la performance et la sécurité des services d'infrastructure. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation Compétences clés ettendues : · Déploiement et administration de services AWS core (EC2, VPC, S3, RDS, Aurora, ECS) · Gestion réseau AWS : Subnets, NAT Gateway, Transit Gateway, Route53, ALB/NLB · Administration Kubernetes/EKS : mise à jour des nodes, AMIs, drivers, gestion des pods · Mise en œuvre des politiques de sécurité réseau (SG, NACL, WAF, Shield) · Supervision et maintien en condition opérationnelle (MCO/RUN) avec gestion des SLA · Mise à jour et patching des composants (OpenSearch, drivers DB, ingress controllers) · Gestion des sauvegardes, PRA et procédures de reprise d'activité · Chiffrement des données au repos et en transit (KMS, TLS) · Automatisation via scripts (Bash, Python) et IaC (Terraform) · Rédaction de documentation technique et de guides d'exploitation
Offre d'emploi
Ingénieur Marchine Learning (ML)
KEONI CONSULTING
Publiée le
Gitlab
Python
SQL
18 mois
20k-60k €
100-500 €
Paris, France
Contexte La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateur et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la mission consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience dans un environnement data / machine learning Expériences dans le déploiement en production de modèles de machine learning Expériences sur la Google Cloud Platform Expériences avec des technologies de type Flask ou FastAPI Maîtrise des langages Python et SQL Solides connaissances en data : structures de données, code, architecture Connaissances de l’infrastructure-as-code (Terraform) Connaissances du Machine Learning, des concepts liés à l’IA Connaissances des technologies liées à l’IA : tensorflow, sklearn etc Connaissances de Gitlab et Gitlab CI/CD Capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile : de préférence Scrum ou Kanban
Offre d'emploi
Développeur Python (FastAPI) & LLM/RAG
OBJECTWARE
Publiée le
FastAPI
Large Language Model (LLM)
Python
3 ans
52k-95k €
400-750 €
Île-de-France, France
Contexte : Au sein d’un grand acteur de la finance, vous participez à la mise en place d’un ChatGPT interne. En tant que développeur Python senior, vous concevez et opérez une plateforme de micro-services hautement disponibles, centrée sur un routeur d’appels vers différents endpoints (dont des LLM), des services de traitement de prompts/documents et une gestion fine des timeouts et fallbacks. Les briques IA avancées (RAG, recherche documentaire, modèles) sont prises en charge par les IA Engineers et le Tech Lead IA. Prestations demandées Les missions principales : - Conception, développement et maintien des micro-services Python (FastAPI) robustes pour un routeur d’appels vers différents endpoints (LLM, services internes/externes, cache), la gestion des stratégies de fallback (changement de provider, cache, réponses dégradées), le traitement de prompts/documents (parsing, transformation, contrôle qualité). - Mise en place des APIs fiables et documentées (OpenAPI), avec gestion fine des erreurs et des timeouts, le respect d’un budget de temps à travers les micro-services, les mécanismes de retry et dégradation progressive. - Conception d'une architecture orientée événements autour de Redis Streams (ou équivalent) pour les flux asynchrones entre services (sans gérer directement la recherche documentaire). - Suivi d'une haute dispo, scalabilité et observabilité avin un scaling horizontal, une supervision (logs, métriques, traces), une gestion des incidents et amélioration continue de la résilience. - Contribution à l’industrialisation : CI/CD, tests automatisés (unitaires, intégration, contract testing, tests de charge/résilience), revues de code et bonnes pratiques. 7+ ans d’expérience en Python, dont une part significative en micro-services, haute dispo et APIs en production. Maîtrise de FastAPI, uvicorn et d’un système de streaming/messaging (Redis Streams ou équivalent). Solide expérience en conception d’API REST : erreurs, timeouts, versioning, observabilité (logs, metrics, traces), sécurité (auth, autorisation, rate-limiting). Expérience en systèmes distribués : scalabilité, résilience, gestion de la charge, stratégies de fallback. À l’aise avec le traitement de gros volumes de documents (PDF, Office, données structurées). Compréhension opérationnelle des LLM et du RAG pour intégrer les briques IA fournies par l’équipe dédiée. Culture DevOps (containers, CI/CD, monitoring) et exigence forte sur la fiabilité, la traçabilité et la conformité en environnement financier.
Offre d'emploi
Developpeur .Net/React (Montrouge)
ASTRELYA
Publiée le
.NET
.NET CORE
Apache Kafka
Montrouge, Île-de-France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : Vous interviendrez dans un éco système banque au sein du service CRM IT, il s'agit de participer aux développements pour le CRM des Back-Offices et à l'amélioration continue des pratiques et process. Les applicatifs sont des intranets en C#/.NetCore, Entity Framework, SQL Server 2022, React.js, javascript. Des connaissance Kafka et/ou Elastic Search seront un plus . Très bonne compétence React requise.
Mission freelance
Automaticien - Quality Analyst
STHREE SAS
Publiée le
3 mois
360 €
Le Mans, Pays de la Loire
Vous devrez fournir les prestations suivantes : A court terme, la mission concerne une migration éditique pour des tâches de TS et accompagnement pour les tests utilisateurs (projet en cycle V). Elle peut alors continuer sur le programme (projet agile) sur des tâches d'analyse de test et d'aide à la mise en place d'automatisation de test. Une expérience dans la conception et l'exécution de tests en mode agile est indispensable. La maitrise des outils suivant est requise : - Squash - Jira La maitrise des outils suivants est un plus : - Bruno (API) - Selenium - SQL - Confluence Les compétences suivantes sont un plus : - Connaissance JSON / XML / SQL - Compétences en automatisation de test (bruno/postman, selenium) - Des compétences en développement - Une expérience dans l'utilisation de l'IA pour le test Domaines : - éditique - santé individuelle Prestations à fournir : - Pour la mission éditique : - Rédaction des plans de test sur base des spécifications fonctionnelles. - Exécution et analyse des résultats de Test Système (TS) - Démo auprès du métier et accompagnements de leurs tests (TAU) - Pour le programme : - Participation aux différentes cérémonies de la squad - Rédaction des plans de test sur base des spécifications fonctionnelles. - Exécution et analyse des résultats de Test Système (TS) - Démo auprès du métier et accompagnements de leurs tests (TAU) - Contribuer à l'automatisation des tests : support à l'équipe ou prise en charge directe de l'automatisation selon les compétences.
Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles
TS-CONSULT
Publiée le
Azure
Scikit-learn
1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
Offre d'emploi
Chef de Projet Assurance Retraite & Data (H/F)
FED SAS
Publiée le
60k-65k €
75001, Paris, Île-de-France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients spécialisé dans le secteur de l'assurance retraite, un ou une : Chef de Projet Assurance Retraite & Data (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein d'une DSI de 4 personnes, vous aurez la charge des projets des projets métiers de la structure, mais aussi des projets data et du reporting. Vous devrez fluidifier la relation entre la DSI et les métiers, de coordonner les projets, et répondre aux besoins des utilisateurs. A ce titre, vos principales missions seront : - Recueillir et formaliser les besoins des utilisateurs (Services Gestion, Analyse, Marketing, Communication, …) ; - Participer à la rédaction des cahiers des charges et des spécifications fonctionnelles & techniques ; - Etudier la faisabilité économique et technique des projets métiers & Data ; - Coordonner les parties prenantes (DSI, métiers, prestataires) ; - Suivre l'avancement des projets et assurer le reporting ; - Construire et maintenir les modèles de données ; - Développer les flux de données : extraction, transformation, chargement ; assurer la qualité des données : contrôles, corrections, cohérence, validation ; - Documenter les flux, modèles, règles et rapports sur les données ; - Créer des rapports et tableaux de bord (Power BI, Business Objects) ; - Accompagner les utilisateurs dans la conduite du changement ; - Participer à la priorisation des demandes et à la planification ; - Renforcer la qualité de service et l'efficacité opérationnelle notamment avec les projets IA ; - Assurer un support de qualité sur les solutions métiers & Data déployées…
Offre d'emploi
Software Manager IT H/F
FED SAS
Publiée le
65k-70k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client (banque privée) basé à Paris 1er un Contract IT Manager H/F dans le cadre d'un CDI. Rattaché(é) au DSI, le Contract manager IT H/F sera en charge de la gouvernance des relations avec les fournisseurs et prestataires TIC. Vous serez le point de pilotage central des relations avec les tiers, garantissant la conformité, la sécurité et la résilience des services externalisés (cloud, infogérance, prestataires critiques, etc.). Vous serez responsable de l'organisation des achats liés aux prestations TIC, de la gestion du registre des services et contrats, du suivi de la performance des fournisseurs, ainsi que de la gestion des risques et des plans de réversibilité. Missions Principales : * Achats TIC et Gouvernance des Fournisseurs : Piloter les activités d'achats TIC, de l'expression du besoin à la sélection et la contractualisation, en collaboration avec les parties prenantes. * Cadre et Registre des Services TIC : Maintenir un registre des services et contrats TIC, et gérer la classification des tiers et des services en fonction de leur criticité et de leur niveau de risque. * Gestion des Due Diligences et Évaluations de Risques : Organiser les évaluations de risques fournisseurs (sécurité, résilience, conformité) avant engagement, lors des renouvellements, et en cas d'évolution majeure des services. * Contractualisation et Conformité DORA : Standardiser et mettre en conformité les contrats avec les exigences DORA, y compris les droits d'audit, la continuité de service, la réversibilité et les obligations de sécurité. * Suivi de la Performance Fournisseur : Animer les revues de fournisseurs, suivre les KPI, gérer les incidents et les manquements contractuels, et assurer le pilotage des plans d'amélioration. * Réversibilité et Plans de Sortie : Définir et maintenir des plans de réversibilité pour les services critiques, organiser des tests et revues, et garantir la traçabilité des preuves. Livrables Attendus : * Registre des tiers TIC, cartographie des dépendances et classification des services * Dossiers de due diligence et plans de remédiation * Modèles de clauses contractuelles et matrices de conformité DORA * Revues de fournisseurs, suivis des actions et des dérogations * Tableaux de bord de performance fournisseurs et plans de réversibilité pour services critiques Indicateurs de Performance (KPI/KRI) : * Taux de couverture et de complétude du registre des tiers TIC * Respect des délais de due diligence et des revues fournisseurs * Taux de remédiation des incidents et actions de réduction des risques * Suivi des risques de concentration excessive sur un fournisseur ou une technologie
Mission freelance
Product Owner
Signe +
Publiée le
Artifactory
6 mois
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte En tant que Product Owner vous intègrerez une équipe de 20 personnes et vous aurez tout particulièrement à moderniser l'offre de services autour des outils GITLAB, Artifactory et Mattermost, outils socles du cycle de développement de la DGA Tech afin d'améliorer et optimiser les services mis à disposition de toutes les équipes de développement de la direction. Description Product Owner background technique, qui connaît les outils GitLab et Artifactory, compétences autour de la conteneurisation (K8S, DOCKER), tests automatisés, déploiements automatisés, sécurité, IA
Mission freelance
Asset Management - ServiceNow Expertise
CRYSTAL PLACEMENT
Publiée le
Snow
12 mois
Île-de-France, France
Notre client lance un programme stratégique visant à renforcer la gestion des actifs IT via la plateforme ServiceNow. Vous intervenez en tant que lead (BPC / Business Process Consultant / Consultant technique senior / Architecte solution) sur le périmètre ITAM (IT Asset Management), en démarrant par l’implémentation du module Software Asset Management (SAM), puis en étendant la couverture au Hardware Asset Management (HAM). Responsabilités principales Piloter le stream ITAM : cadrage, gestion du backlog, priorisation et qualité des livrables Implémenter le SAM : définir les processus de gestion des licences, assurer la conformité, optimiser les coûts et intégrer avec la CMDB Déployer le HAM : gérer les actifs physiques, leur cycle de vie, l’inventaire et l’intégration avec les systèmes existants Assurer la gouvernance ITAM : standards, conventions de nommage, documentation technique et schéma d’architecture Coordonner les intégrations : CMDB, Discovery, outils financiers et systèmes tiers Responsabilités détaillées Définir l’architecture cible ITAM ainsi que les flux de données associés Rédiger les user stories et maintenir la documentation d’architecture à jour Mettre en place les processus SAM/HAM et garantir la qualité des données Superviser la stratégie d’intégration avec les modules ITOM / ITSM et les référentiels Réaliser des revues techniques et assurer la conformité aux standards internes et éditeurs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2915 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois