Trouvez votre prochaine offre d’emploi ou de mission freelance Dash

Votre recherche renvoie 1 240 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur de Production Linux (H/F)

AVA2I
Publiée le
Ansible
Bash
Jenkins

3 ans
40k-45k €
400-550 €
Île-de-France, France
1. Contexte Dans le cadre du renforcement de nos équipes IT, nous recherchons un Ingénieur de Production orienté Linux capable d’intervenir sur des environnements complexes, multi-applicatifs et fortement automatisés. 2. Missions principales Assurer le maintien en condition opérationnelle (MCO) des applications en production Gérer et superviser plusieurs applications critiques Participer aux mises en production et aux déploiements Diagnostiquer et résoudre les incidents de production Mettre en place et améliorer les outils d’automatisation Rédiger et maintenir la documentation technique Participer à l’ amélioration continue des processus de production Contribuer aux projets de migration et d’évolution des environnements techniques 3. Environnement technique Systèmes : Linux (maîtrise indispensable) Middleware / Messaging : MQ (type IBM MQ ou équivalent) Outils d’automatisation : Ansible Jenkins Scripting : Bash / Shell Python 4. Compétences requises Techniques Solide expertise des environnements Linux Bonnes connaissances des middlewares (MQ) Maîtrise des outils d’ automatisation (Ansible, Jenkins) Excellentes compétences en scripting Bash/Shell Bonne maîtrise de Python : Développement de scripts Lecture et maintenance de code existant Expérience en migration Python 2 vers Python 3 Fonctionnelles Capacité à gérer plusieurs applications simultanément Analyse et résolution de problèmes complexes Bonne compréhension des environnements de production 5. Profil recherché Formation Bac+5 en informatique ou équivalent Expérience significative en production informatique / exploitation Rigueur, autonomie et sens des responsabilités Bon esprit d’analyse et de communication Capacité à travailler en équipe et en environnement exigeant
Freelance

Mission freelance
Ingénieur de Production OPS (CASH MANAGEMENT)

BEEZEN
Publiée le
Cash Management
CFT (Cross File Transfer)
Confluence

12 mois
500-560 €
Montreuil, Île-de-France
Je recherche un Ingénieur OPS CASH MANAGEMENT ayant plus de 10 ans d' experience pour une prestation d'ingénierie de Production (rôle IT OPS) pour accompagner un programme de résilience. Le candidat doit avoir une solide expérience à la fois sur la partie technique et sur la partie gestion de projet. Une forte culture infrastructure, système & réseau est indispensable avec une expérience en contribution projets côté OPS. La mission se déroulera au sein du domaine applicatif Cash en responsabilité du SI Cash Management ITG et BCEF IT: SCT/SDD, Instant Payments, Virements & Prélèvements, Connectivité & API, Lutte contre la Fraude. Le projet est stratégique pour mon client bancaire et s'inscrit sur plusieurs années. En fonction des spécificités, les applications sont actuellement déployées sur deux type d’infrastructure : une infrastructure legacy (machines physiques ou VM) dite "On premise". une infrastructure Cloud dédiée mise en œuvre en partenariat avec IBM dite dMZR. FORT PROFIL TECHNIQUE AVEC COMPETENCES FLUX CFT, SECURE TRANSPORT, MQSERIES Les missions sont : Point d'entrée au sein de l'équipe de Production sur le projet de résilience pour l'ensemble des acteurs Déploiement d'infrastructure et d'applications vitales dans le cadre de la résilience régionale du Cash Management; Mise en place de la connectivité (Protocoles PESIT, EBICS, FTPS, SFTP / CFT / Secure Transport / MQSeries) Organisation et exécution des tests techniques de résilience inter-sites; Participation aux tests de résilience et performance applicatives Proposition et réalisation des optimisations si opportunités (automatisation / simplification / standardisation) Une attention particulière sera portée à la documentation (Base de connaissances : Cartographie des flux, Service Now, Confluence, Wiki, Sharepoint, supports classiques) des procédures et dossier d’exploitation. L'Ingénieur OPS intervient au sein d'une équipe mode Agile (Scrum), autonome et pluridisciplinaire, composée de ressources IT métiers (les « Dev ») et de ressources OPS, responsabilisées autour d’un ou plusieurs produits. Dans ce cadre, il : Participe à l’ensemble des rituels Agile (Sprint planning, Daily Meeting, Review, Rétro) Communique des exigences infrastructure et exploitation dans le product backlog. Participe à l’évaluation de la complexité des User Stories lors des sprint planning, Implémente les User Stories techniques et d’exploitation du Product Backlog Réalise durant le sprint de façon autonome les tâches relatives à la production, ou bien coordonne les parties prenantes « Production Mutualisée » extérieures à l'équipe Agile pour laquelle il intervient. Déclare les obstacles (impediments) et les remonte aux bons interlocuteurs. Supporter les bonnes pratiques OPS Assurer la montée en compétence de l’équipe Agile sur les bonnes pratiques DevOps (Profil confirmé et Senior) Sensibiliser et propager les bonnes pratiques OPS au sein de l’équipe, Faire monter en compétence les membres de son équipe sur les outils d’exploitation mis à disposition dans le cadre DevOps Promouvoir les solutions standards ou expérimentales répondant aux problèmatiques de l’équipe ou orienter vers les architectes Challenger l’équipe sur les solutions proposées en s’appuyant sur son expertise Ops Contribuer à l'enrichissement du backlog des fonctions OPS Remonter les feedbacks vers les équipes OPS pour identifier les prochaines fonctionnalités des composants d’infrastructure à développer Faciliter les déploiements Participer à la mise en place des Jalons Qualités (Quality Gates) Contribuer à la mise à disposition des ressources d’infrastructure Anticiper les problématiques de conformité aux règles et standards d’architecture, de sécurité, de délais de livraisons et de mise à l’échelle des solutions proposées Obtenir et gérer les ressources techniques en tant que référent Implémenter et surveiller l’utilisation des services de production (OpStore…) Assurer la traçabilité des accès aux machines (OS, Espace de stockage, routeurs …) Tester l’exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Identifier les points de blocage Ops (flux, sécurité, réseau…) puis alerter et proposer des plans d’action Contribuer au Maintien en Conditions Opérationnelles (MCO) du Produit Implémenter la surveillance et la supervision des ressources d’infrastructures Participer à l’amélioration des outils de surveillance et supervision Communiquer l’analyse des résultats à l’équipe Proposer des ajustements concernant les indicateurs de pilotage des produits Veiller à la disponibilité d’une documentation d’installation et d’exploitation à jour et validée Contribuer à la gestion des incidents Contribuer à la gestion des problèmes (Time to fix / Time to repair - Réparation de la cause qui a généré l’incident) Appliquer les principes du continuous operations /exploitation Connaissance en Infrastructure Cloud (IaaS,PaaS) et d'applications Open Connaissance de l'intégration Continue (Continuous Intégration): outil de gestion de version, référentiel du code source (GitLab, Bit bucket, ...), référentiel binaire (Nexus, Artifactory, ...), orchestration (Jenkins, ...). et de la livraison continue gestion de configuration d'environnement, déploiement, infrastructure as code (Ansible, Puppet, Chef). Maitrise du Scripting Maitrise de l'ordonnancement (Schedulers). Dans ce cadre, il :
Freelance

Mission freelance
Lead / Data Engineer senior

Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python

5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Taches principales - activités BI - Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage - Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers - Présenter les résultats aux équipes métiers - Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital - Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue Une connaissance fonctionnelle de l’analyse data dans le domaine bancaire pour apporter un regard critique et répondre aux problématiques d’analyse de donnée des métiers Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : - Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage - Réaliser les spécifications et recettes du tracking - Collecter et extraire les données nécessaires à l’analyse - Construire des tableaux de bord - Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. - Présenter le rendu aux squads métiers. En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI), Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées. Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey, Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses. Outil de Data Visualisation (Expert) : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Langage : SQL (expert) Apprécié : Data & Digital Logiciel d'analyse de la donnée pour le Tracking (type Tag Commander, Piano Analytics) Analyse Comportementale utilisateur.
CDI

Offre d'emploi
DATA SCIENTIST

GRLCI
Publiée le
Python

Boulogne-Billancourt, Île-de-France
Nous recherchons pour l'un de nos clients un Data Scientist avec plus de 2 ans d'expérience pour renforcer une équipe data. Vous aurez pour mission : Participer à l’amélioration continue du SI : Explorer des données et production d’analyses, Identifier et mettre en œuvre des indicateurs de suivi et des solutions d’amélioration, Réaliser des Proof of Concept de solution pour des problématiques métiers ou SI. o Analyse du problème, o Identification de solutions potentielles, o Réalisation des solutions, o Vérification que le POC répond à la problématique, o Le cas échéant, aide à l’industrialisation du POC, · Veille sur les domaines de recherche en informatique, · Aide et accompagnement des équipes MOE et MOA sur les méthodes, algorithmes, technologies utilisées dans les POC.
CDI
Freelance

Offre d'emploi
Consultant BI - Power BI-Cash Management

AVALIANCE
Publiée le
Cash Management
Microsoft Power BI
Tableau software

3 ans
40k-45k €
400-610 €
Montrouge, Île-de-France
Equipe : Une 10ne de personnes réparties entre BA, dév, profils orientés data / IA Contexte : Besoin de renforcer l'équipe pour un projet autour du cash management et particulièrement la partie STP Profil recherché : Profil BI transverse mais orienté décisionnel Intervention sur les moteurs de paiement > Intervention sur la partie STP, tu collectes de l’info, tu traites, tu nettoies et tu synthétise pour donner des rapports propres, carrés et lisibles. Cela demande quelqu’un qui puisse être autonome rapidement et organisé car besoin de rapports journaliers et mensuels, donc besoin de quelqu’un orienté résultats et automatisation
Freelance

Mission freelance
Lead Data Architect – Refactoring Data Platform

Pickmeup
Publiée le
Data governance

2 mois
800-1 200 €
Paris, France
Dans un contexte de transformation stratégique post-acquisition, notre client souhaite refondre en profondeur son architecture data afin d’unifier deux écosystèmes distincts : Une plateforme orientée AI / data temps réel Un système historique structuré de type ERP / media planning L’objectif est de construire une architecture cible robuste, scalable et “AI-ready” , capable de supporter des cas d’usage avancés tout en garantissant la cohérence des données métiers. Nous recherchons un Lead Data Architect pour une mission courte et à fort impact, avec une responsabilité clé : poser les fondations de la future plateforme data du groupe . Responsabilités Réaliser un audit rapide des architectures existantes (data models, flux, dépendances) Identifier les limites actuelles : silos, incohérences, dette technique, performance Définir une architecture data cible (data platform / lakehouse / data products) Concevoir un modèle de données unifié (canonical data model) Proposer une stratégie de convergence entre : données temps réel (event-driven) données structurées (ERP / finance / planning) Définir les principes d’architecture : découplage scalabilité gouvernance sécurité Structurer les premiers data products par domaine métier Cadrer les choix technologiques (cloud, stockage, orchestration, streaming) Accompagner les équipes techniques dans la mise en mouvement (kickoff, guidelines) Produire une documentation claire à destination du CTO et des équipes
CDI

Offre d'emploi
INTÉGRATEUR D'APPLICATIONS DEVOPS (H/F)

GROUPE ALLIANCE
Publiée le
Groovy
Jenkins
JIRA

30k-35k €
Niort, Nouvelle-Aquitaine
ACCROCHE SI TU AIMES ASSEMBLER LES PIÈCES POUR CRÉER DES SYSTÈMES PERFORMANTS, CE POSTE N’ATTEND QUE TOI ... CE QUE TU RECHERCHES : Garantir l’intégration fluide et efficace des applications Travailler sur des projets critiques en assurant la compatibilité et la performance des systèmes Relever des défis techniques pour optimiser les échanges entre applications et infrastructures Êre au cœur des déploiements et assurer le bon fonctionnement des applications métier Alors rejoins une équipe où ton expertise en intégration applicative sera essentielle ! Au sein d’un acteur majeur du secteur assuranciel tu participeras au developpement, à l' amélioration et au maintien de la plateforme d'automatisation basée sur XL Deploy, XL Release, Jenkins, Jira et Artifactory Analyse des besoins et spécifications techniques, tu réaliseras Déploiement et configuration des applications, tu piloteras Optimisation des flux entre les systèmes, tu assureras Automatisation des processus d’intégration, tu mettras en place Gestion des incidents et support aux équipes, tu coordonneras Sécurisation des échanges et des interactions applicatives, tu renforceras Veille technologique et anticipation des évolutions SI, tu effectueras QUI TU ES : Diplômé(e) en informatique, systèmes et applications ou équivalent Tu justifies d’une expérience de 10ans minimum en intégration applicative Maîtrise des environnements techniques hétérogènes (Linux, Windows, middleware, bases de données), tu maîtrises les scripts (Shell), les outils d’intégration continue et d’automatisation (Jenkins) Expertise en Linux, Windows, middleware, bases de données, Shell, Jenkins,XL Deploy, XL Release AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Méthodique, tu assures une intégration fluide et sans accroc Pragmatique, tu trouves des solutions adaptées aux contraintes techniques Communicant(e), tu facilites la collaboration entre équipes Dev et Ops Autonome, tu es capable de gérer plusieurs intégrations en parallèle Réactif(ve), tu interviens rapidement en cas de dysfonctionnement Curieux(se), tu restes en veille sur les nouvelles solutions d’intégration Orienté(e) performance, tu optimises chaque déploiement pour maximiser l’efficacité des systèmes
CDI

Offre d'emploi
Ingénieur développement Matlab-Simulink H/F

VIVERIS
Publiée le

40k-50k €
Massy, Île-de-France
Contexte de la mission : Viveris est reconnu pour son savoir-faire en développement de systèmes embarqués et sa capacité à fédérer autour du même projet des équipes pluridisciplinaires : système, mécanique, électronique, IA, logiciel embarqué, banc de test, logiciel applicatif, safety, cybersécurité... Un client international confie à Viveris le développement de son « véhicule autonome ». Le projet est ainsi développé entre France et Etats-Unis (où est le site de test), piloté par l'Allemagne et déployé chez un partenaire en Australie. Le contexte est donc fortement international et nécessite des compétences techniques et relationnelles fortes. Un poste est à pourvoir pour renforcer l'équipe modélisation et autonomie. Le poste concerne en particulier le développement des logiciels Matlab/Simulink qui consomment des données environnementales et décident de la trajectoire du véhicule. Responsabilités : - Comprendre les attentes et contraintes du client et du partenaire, - Participer avec les directions Technique et Qualité de Viveris à la mise en place de la chaine de production, - Participez aux daily avec l'équipe US, - Analyser l'architecture (partie Simulink) et la documenter/modéliser (en UML), - Traiter les tickets : analyser le code, étudier les impacts, concevoir la solution et développer/ débugger, - Assister l'architecte système dans la réalisation de la documentation projet, - Potentiellement, conseiller et expertiser la solution en clientèle,
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Freelance

Mission freelance
DATA ANALYST SENIOR LOOKER

PROPULSE IT
Publiée le

24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
CDI
CDD
Freelance

Offre d'emploi
MDM - Reltio Architect / Technical Lead

TALAN
Publiée le
Master Data Management (MDM)

12 mois
Genève, Suisse
Dans le cadre du déploiement d’une nouvelle solution stratégique, notre équipe Data & AI IT Product recherche un(e) Reltio Architect / Technical Lead expérimenté(e) pour piloter l’implémentation et structurer la gouvernance MDM. 🎯 Vos responsabilités : 🔹 Architecture & Configuration Reltio Design et implémentation avancée de Reltio (configurations L3) Paramétrage des règles de match & merge, survivorship logic, workflows Configuration des UI layouts 🔹 Data Modeling Conception et implémentation de modèles de données complexes Gestion des crosswalks et hiérarchies 🔹 Intégration & Data Pipelines Développement et intégration via Reltio Integration Hub & APIs Participation à la mise en place des flux ETL/ELT 🔹 Leadership & Coordination Encadrement technique et mentoring de l’équipe projet Collaboration étroite avec Data Engineers, Business Analysts et stakeholders métiers Traduction des besoins métiers en spécifications techniques 🔹 Migration & Run Support à la migration de données et aux phases de testing Gestion des opérations plateforme, performance, releases et résolution d’incidents
CDI

Offre d'emploi
Ingénieur Data H/F

HAYS France
Publiée le

Tours, Centre-Val de Loire
Les missions sont les suivantes :-Concevoir et structurer des solutions Data (modélisation, collecte, traitement et exploitation des données)-Participer à la mise en place de l'Intelligence Artificielle au sein de l'organisation (IA positionnée en amont d'un CRM permettant une meilleure connaissance du portefeuille clients)-Mettre en œuvre des outils du marché ou des solutions internes adaptés aux besoins métiers-Travailler sur : l'analyse et la connaissance client, la gestion des partenaires (vente et partage de données), l'automatisation des campagnes de mailing-Collaborer étroitement avec les équipes métiers et les développeurs-Être force de proposition sur les usages Data & IA
CDD
CDI
Freelance

Offre d'emploi
Expert en migration de données

R&S TELECOM
Publiée le
3DEXPERIENCE (3DX)
Migration
PLM (Product Lifecycle Management)

1 an
Massy, Île-de-France
Contexte projet La prestation intervient dans le cadre d’un programme stratégique d’évolution d’une plateforme PLM au sein d’un grand acteur industriel du secteur aéronautique / défense. Ce programme, lancé fin 2022, vise non seulement la montée de version de l’outil PLM existant, mais également une refonte des processus métiers afin de maximiser la valeur apportée par la plateforme. L’outil actuel repose sur la solution 3DEXPERIENCE de Dassault Systèmes, en version On Premise 2018x. Le projet est mené en collaboration avec l’éditeur/intégrateur selon une méthodologie de type Value Engagement / Value Commitment / Value Delivery, avec un démarrage de la phase de delivery prévu à partir d’avril 2026. Un enjeu majeur du programme réside dans le passage d’un hébergement On Premise vers une infrastructure SaaS sécurisée. Dans ce contexte, la migration des données constitue un axe stratégique et critique du projet, renforcé par : le changement de mode d’hébergement, une approche de déploiement en Big Bang, un saut de version important depuis la release actuelle. Un stream dédié à la migration est déjà en place dans le cadre de la phase préparatoire du projet. Objet de la prestation La mission consiste à mettre en place un dispositif permettant de : Définir et piloter la stratégie globale de migration du projet PLM ; Structurer et planifier les activités du stream migration ; Challenger les hypothèses et orientations proposées par les intégrateurs/éditeurs ; Piloter et coordonner les migrations de données, applications et processus ; Garantir la continuité opérationnelle dans le respect des délais, de la qualité et de la performance. Dispositif attendu Le besoin identifié porte sur : 1 Expert senior, à mi-temps Le dimensionnement est donné à titre indicatif et pourra être ajusté selon les recommandations proposées. Environnement technique / SI La plateforme PLM est interfacée avec plusieurs applications du système d’information via : interfaces automatiques, semi-automatiques, manuelles. L’écosystème applicatif est vaste et complexe, impliquant de nombreux tests d’intégration et de bout en bout, notamment sur les flux inter-applicatifs.
Freelance

Mission freelance
Quality Data/Lead Data Referentiel

Cherry Pick
Publiée le
Finance
IA
Numpy

12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
1240 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous