Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 089 résultats.
CDI

Offre d'emploi
Développeur Python – Automatisation

Publiée le
Apache Airflow
CI/CD
Docker

40k-45k €
Île-de-France, France
Télétravail partiel
En tant que Développeur Python spécialisé en automatisation, vous interviendrez sur la conception, le développement et l’optimisation de scripts et d’outils destinés à automatiser les processus internes. Vous contribuerez à réduire les tâches manuelles répétitives, améliorer la fiabilité opérationnelle et accélérer les workflows techniques et métiers. Vous travaillerez en collaboration directe avec les équipes techniques (Ops, Data, Infrastructure) pour identifier les besoins, proposer des solutions innovantes et garantir la performance des outils développés.
Freelance
CDI

Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data

Publiée le
Cloud
Data analysis
Microsoft Power BI

3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Freelance
CDI

Offre d'emploi
Développeur backend Java Core Sénior - Multithreading calculs distribués (7 ans et plus)

Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Freelance

Mission freelance
Développeur Python Senior

Publiée le
Azure
Azure Data Factory
Azure DevOps Services

12 mois
Hauts-de-Seine, France
Télétravail partiel
Secteur d'intervention : Assurance Type de prestation : Assistance Technique avec facturation journalière Métiers et fonctions impliqués : Études & Développement, Développeur Compétences techniques requises : Technologies et outils : Python, React (React JS) Méthodes / Normes : IFRS17; Adapter Soft skills : Rigueur Description de la mission : Le projet concerne un client dans le secteur de l'assurance, pour lequel le développeur sera intégré à une équipe Data à mi-temps (2/3 jours par semaine). La mission principale est le développement d'outils pour soutenir les activités métiers telles que la modélisation, projection actuarielle et études statistiques, notamment pour répondre à la norme IFRS17. Les responsabilités incluent : Développement en Python des études actuarielle sur le produit Maintenance du front de l'application (React) – connaissances en React appréciées Recueil, analyse et formalisation des besoins utilisateurs Coordination avec les Engineering Managers pour assurer le delivery (développement, tests, opérations) en respectant les exigences de sécurité du client Communication et application des standards et bonnes pratiques au sein de la tribu et des équipes métier
Freelance

Mission freelance
Data Scientist Sénior

Publiée le
Data science
Python
Rédaction technique

18 mois
150-450 €
Paris, France
Télétravail partiel
Contexte : Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : APIs, Simulation, Optimisation linéaire, Devops MISSIONS Dans le cadre du renforcement d’une équipe dédiée à la modélisation mathématique, le client recherche un Data Scientist Senior (>5 ans d’expérience) pour intervenir sur un ensemble de sujets variés : optimisation, simulation, analyse de performance, développement de modèles et d’outils applicatifs. La prestation s’inscrit dans un environnement comprenant plusieurs applications et modèles, et non un produit unique, nécessitant une forte capacité d’adaptation et une compréhension technique rapide. Le consultant interviendra en tant que référent senior, encadrant un Data Scientist junior et garantissant la qualité méthodologique et scientifique des travaux. Livrables attendus : - Validation des algorithmes d’optimisation. - Approbation des tableaux de bord et outils d’aide à la décision. - Revue critique des recommandations stratégiques. - Validation des rapports d’analyse et des indicateurs de performance. - Documentation des standards de qualité appliqués. Missions détaillées: 1. Encadrement & supervision méthodologique - Accompagnement d’un Data Scientist junior. - Définition des standards méthodologiques, bonnes pratiques et règles de modélisation. - Validation des approches algorithmiques et statistiques. - Orientation des travaux et identification des risques techniques. - Garantie de la cohérence globale des modèles par rapport aux objectifs du programme. 2. Développement & modélisation - Développement Python. - Création d’APIs. - Intégration de modèles. - Manipulation des équations et formalismes mathématiques. Utilisation de la librairie HiGHS (optimisation mathématique) pour : - Gestion des contraintes. - Calculs d’optimisations. - Résolution de modèles linéaires / mixtes. - Capacité à comprendre et implémenter les modèles algorithmiques, pas seulement à les consommer. 3. Contrôle qualité & validation scientifique - Revue de code, audit d’architecture et bonnes pratiques Python. - Vérification de la qualité et de la cohérence des données utilisées. - Validation de la robustesse des modèles prédictifs, d’optimisation ou de simulation. - Challenge technique des résultats, scénarios et hypothèses. - Approbation finale des livrables avant diffusion. 4. Expertise & conseil : - Intervention en tant qu’expert sur les sujets complexes de modélisation. - Recommandations méthodologiques et proposition d’améliorations. - Veille technologique et scientifique sur l’optimisation, les modèles mathématiques et les outils Python. - Capitalisation des bonnes pratiques pour l’équipe. 5. Communication & coordination : - Présentation des validations et recommandations aux parties prenantes. - Interface entre les équipes techniques et la direction projet. - Participation aux comités et instances de pilotage. - Documentation des critères de qualité et des processus de validation. - Contribution à la montée en compétences du Data Scientist junior. Compétences requises : - Expertise en Python : développement d’APIs, structuration de librairies, manipulation d’équations. - Maîtrise de HiGHS ou autre solveur d’optimisation linéaire/quadratique. - Solide bagage scientifique : mathématiques, physique, modélisation, statistiques. - Capacité à travailler sur plusieurs modèles simultanément. - Très bonne communication orale et écrite. - Autonomie forte et posture de référent. Compétences appréciées : - Expérience sur des modèles mathématiques à grande échelle. - Aisance en revue méthodologique et en cadrage scientifique. - Aucun besoin de connaissance fonctionnelle métier spécifique. Expertise souhaitée Data Scientist Senior (>5 ans d’expérience)
Freelance

Mission freelance
Consultant DATA Gouvernance Senior

Publiée le
Data governance

1 an
Paris, France
Télétravail partiel
Intervention au sein d'un programme de transformation du SI Finance Corporate visant à fiabiliser, harmoniser et piloter les données financières (reporting, performance, réglementaire). Missions principales ➡️ Définir et déployer le cadre de gouvernance des données Finance (référentiels, règles de gestion, qualité des données). ➡️ Cartographier les flux de données financières et leurs usages (comptabilité, contrôle de gestion, reporting, réglementaire). ➡️ Mettre en place et animer les rôles Data Owner / Data Steward Finance. ➡️ Définir et suivre les indicateurs de qualité de données (complétude, cohérence, fiabilité). ➡️ Contribuer à la conduite du changement et à l'appropriation des bonnes pratiques data par les équipes Finance et IT. ➡️ Assurer l'alignement entre les besoins métiers Finance et les solutions SI (ERP, EPM, BI, Data Platform).
Freelance
CDI

Offre d'emploi
Incident Manager – Contexte ITIL – Environnement Applicatif Interne

Publiée le
IA
ITIL
Safe

1 an
Île-de-France, France
🎯 Contexte Dans le cadre du maintien opérationnel d’un périmètre applicatif interne utilisé par plusieurs milliers de collaborateurs, nous recherchons un Service Delivery Manager / Incident & Change Manager capable de piloter les processus ITIL, d’assurer la coordination avec les équipes techniques, et de garantir la qualité du service rendu. La mission s’inscrit dans un environnement complexe, fortement ITILisé, avec des enjeux forts de suivi des incidents majeurs , gestion des changements , résolution des problèmes récurrents , et amélioration continue . 📦 Livrables attendus Mise à jour complète des outils ITSM (ServiceNow, outils internes de gestion de crise) Documentation opérationnelle à jour Traçabilité et historiques des modifications Reporting régulier : KPI, SLA, backlog, plans d’actions Participations aux cérémonies Agile & comptes-rendus associés 🛠️ Missions principalesGestion des incidents & crises Piloter le processus de gestion des incidents, incidents majeurs et crises Assurer une résolution rapide et efficace Coordonner les escalades techniques & garantir le respect des SLA Gestion des changements Analyser et valider les demandes de changement Organiser et animer les CAB Superviser les mises en production et la qualité des releases Gestion des problèmes Identifier, analyser et suivre les problèmes majeurs / récurrents Piloter les plans d'actions pour éliminer les causes racines Contribuer à la réduction du backlog Reporting & pilotage Produire les KPI, SLA, états de backlog, suivis des incidents Assurer un reporting clair, structuré, régulier Amélioration continue Collaborer avec l’équipe Process & Tools Contribuer à la standardisation et à l’évolution des processus ITSM Participer aux réunions Agile pour fluidifier la coopération transverse 🧰 Compétences requisesTechniques & ITIL Très bonne connaissance des processus ITIL (certification appréciée) Maîtrise des outils ITSM : ServiceNow, outils internes équivalents Compétences en diagnostic d’incidents complexes Expérience en gestion opérationnelle, exploitation, coordination IT Connaissances IA (requis dans le cahier des charges) Compréhension des concepts : Machine Learning, Générative AI, RAG, LLM, agents, prompts, hallucinations Capacité à formuler des requêtes efficaces pour outils IA Connaissance des enjeux RGPD et éthiques liés à l’IA Langues Français courant (impératif) Anglais courant en contexte professionnel (impératif) Certification Safe obligatoire
Freelance
CDI

Offre d'emploi
Lead Technical Architect – Environnement Finance de Marché (H/F)

Publiée le
Big Data
Finance
Time series

3 ans
46k-58k €
400-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Un département stratégique dédié à la recherche quantitative en finance de marché recherche un Lead Technical Architect pour renforcer ses équipes. La mission s’inscrit au cœur d’un environnement global, à forte intensité data et compute, travaillant en étroite collaboration avec des équipes Quant , IT , Research et Ops . Vous interviendrez sur des plateformes critiques liées au pricing , au risk management , aux time-series data et à la performance des systèmes de calcul. 🛠 Vos responsabilités Au sein du groupe en charge des infrastructures compute et market data, vous aurez pour missions : Repenser et optimiser l’architecture des services Compute et Histo . Améliorer la scalabilité , la performance et la résilience de l’infrastructure grid. Fournir des recommandations structurantes sur la stack haute disponibilité. Rewriting / refactoring de composants techniques ne répondant pas aux exigences de performance. Participer à la définition des frameworks pour les services de market data haute demande. Travailler au quotidien avec les équipes quant, recherche et ingénierie.
Offre premium
Freelance

Mission freelance
CUSTOMER DATA MODELER H/F

Publiée le
Data governance
Gouvernance
Master Data Management (MDM)

6 mois
Paris, France
Télétravail 100%
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Customer Data Modeler dans le cadre du programme MDM Voyager phase 2 . La mission vise à renforcer la structuration, la modélisation et la gouvernance des données Clients au sein de l’écosystème Master Data Management. Le consultant travaillera avec les équipes IT, les métiers et les équipes Data Governance afin de documenter, améliorer et aligner durablement les modèles et processus MDM liés au domaine Client. Objectif et livrable: Conception et documentation du Customer Master Data Model . Définition des processus de gouvernance, règles de qualité, rôles et responsabilités. Alignement avec les équipes métier et IT pour assurer cohérence et intégration dans le programme MDM Voyager. Livrables attendus : modèles de données, dictionnaires, règles de qualité, schémas de gouvernance, rapports de validation. Compétences attendues : Expertise forte en Master Data Management (Customer) : modélisation, qualité, gouvernance. Très bonne compréhension des processus du domaine Client (Customer lifecycle, segmentation, identification…). Maîtrise de la documentation de modèles conceptuels/logiques/physiques. Connaissance de SAP S/4HANA et SAP MDG (atout majeur). Capacité à collaborer avec plusieurs parties prenantes IT / Business. Excellente aptitude à formaliser règles, processus et dictionnaires de données.
Freelance

Mission freelance
Customer Data Modeler

Publiée le
Big Data

6 mois
France
Télétravail 100%
Dans le cadre de la phase 2 du projet , nous recherchons un expert pour le modèle de données client . Responsabilités : Concevoir et documenter les modèles de données Customer Master Data . Définir les processus de gouvernance, rôles et règles de qualité. Collaborer avec les équipes métier et IT pour garantir l’alignement. Compétences requises : Expertise solide en Master Data Management , particulièrement sur le domaine Customer (modélisation, gouvernance, qualité). Bonne compréhension des processus liés au domaine client. Connaissance de SAP S/4HANA et SAP MDG (un plus).
Freelance

Mission freelance
Data Scientist

Publiée le
API
autonomie
Python

12 mois
Hauts-de-Seine, France
Télétravail partiel
Poste : Data Scientist Senior (>5 ans d’expérience) Objectif : Renforcer une équipe dédiée à la modélisation mathématique, intervenant sur l’optimisation, la simulation, l’analyse de performance, le développement de modèles et outils applicatifs dans un environnement multi-application. Responsabilités principales : Encadrement & supervision : Accompagner un Data Scientist junior, définir les standards méthodologiques, valider approches et modèles, garantir la cohérence des travaux. Développement & modélisation : Développer en Python, créer des APIs, intégrer des modèles, manipuler équations mathématiques, utiliser la librairie HiGHS pour l’optimisation (contraintes, optimisations linéaires/mixte). Contrôle qualité & validation : Revoir le code, auditer l’architecture, vérifier la cohérence des données, valider la robustesse des modèles, challenger les résultats, approuver les livrables. Expertise & conseil : Apporter une expertise sur la modélisation, faire des recommandations méthodologiques, effectuer une veille technologique, capitaliser les bonnes pratiques. Communication & coordination : Présenter les validations, faire le lien entre équipes techniques et direction, participer aux réunions, documenter les processus, contribuer à la montée en compétences du junior. Compétences requises : Maîtrise avancée de Python (APIs, librairies, équations) Maîtrise du solveur HiGHS ou équivalent pour l’optimisation linéaire/quadratique Solide background en mathématiques, physique, modélisation et statistiques Capacité à gérer plusieurs modèles simultanément Excellentes compétences en communication, forte autonomie, posture de référent Compétences appréciées : Expérience avec des modèles mathématiques à grande échelle Aisance en revue méthodologique et cadrage scientifique Aucune connaissance métier spécifique nécessaire
Freelance

Mission freelance
Chef de projet senior Data - LYON - Temps partiel

Publiée le
Data Lake
Gouvernance
Migration

6 mois
Rhône, France
Télétravail partiel
Métier et Fonction : Data Management - Chef de projet Senior Spécialité technologique : Transformation digitale Type de facturation : Assistance Technique (Facturation avec un taux journalier) Compétences clés : Data lake Description et livrables : Organisation souhaitant structurer et mettre en œuvre une gouvernance de la donnée pour soutenir sa transformation digitale et améliorer l'excellence opérationnelle. La mission, située à Lyon et à temps partiel, consiste à poursuivre la construction de la gouvernance de la donnée, en garantissant son intégration dans les outils, méthodes et architectures en cours d’urbanisation. Le consultant devra : Structurer et déployer une gouvernance adaptée au contexte Diffuser les concepts fondamentaux de la data dans les projets et méthodes existants Veiller à la prise en compte des exigences data dans les systèmes techniques et métiers, et assurer la mise à disposition autonome des données via des outils de data visualisation Challenger la démarche, les actions et les ressources en regard de la feuille de route et des ambitions Sécuriser les méthodes et étapes pour accompagner la montée en maturité data Le consultant travaillera en étroite collaboration avec un chef de projet data déjà en poste, notamment sur la dématérialisation, ainsi que la direction numérique, la DSI et les directions métiers.
Offre premium
Freelance

Mission freelance
Référent Data

Publiée le
Architecture
Data governance

3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Contexte Le Système d’Information regroupe près de 70 applications couvrant la recherche d’itinéraires, l’information voyageurs, la vente (digitale & physique), la billettique, les contrôles, le reporting et les interconnexions avec les partenaires de transport. Ce système est exploité dans un environnement complexe multi-acteurs avec des obligations contractuelles fortes vis-à-vis des instances publics. La gouvernance des données devient un enjeu clé pour garantir cohérence, sécurité, qualité de service et conformité réglementaire. 2. Rôle du Référent Data Ce poste opérationnel vise à structurer et piloter la stratégie Data , en mode RUN, en complément des développements BUILD. Il s’agit de définir les règles d’utilisation des données, d’assurer leur conformité, leur disponibilité, leur cohérence fonctionnelle, et de produire l’ensemble des reportings exigés. 3. Missions principales A. Gouvernance & Stratégie Data Définir une démarche Data Driven pour le RUN. Cadrer les besoins Data : brutes, personnelles, reporting, listings opérationnels. Être l’interlocuteur privilégié de la Région pour l’expression et la priorisation des besoins. Proposer les évolutions contractuelles nécessaires. Définir les guidelines Data : consommation, protection, nommage, droits d’accès. Évaluer l’évolution de l’architecture Data (MDM, outils, flux, organisation). B. Analyse et cadrage Réaliser le cadrage global : périmètre, responsabilités, planning, livrables. Lister et qualifier les cas d’usage Data. Construire la cartographie des données : thèmes, typologies métiers, systèmes, structures détaillées. Définir les processus de gestion de la donnée : cycle de vie, responsabilités, sécurité. Recenser les exigences légales et contractuelles (RGPD, archivage, purge, sécurité). C. Pilotage & Production Produire les documents de gouvernance Data : dictionnaires, cartographies, politiques. Établir les reportings contractuels et non contractuels, dont : Financier : prévisionnel, réalisé, écarts, dépenses par phase. Recettes : ventes par canal, recettes par gamme, reversements, régularisations. Maintenance : interventions, disponibilité, stock pièces, préventif/curatif. SI : disponibilité plateformes, temps de réponse, SLA, MTBF, intégration des données. Usagers : tickets CRC, satisfaction, fréquentation, usage titres. Distribution : CA & commissions par canal (Région et partenaires). D. Coordination Faire le lien entre : métiers, DSI, architectes SIBR, sous-traitants, et instances publics. Conduire et animer les ateliers Data. Garantir la cohérence et la fiabilité des flux data inter-outils et inter-équipes. E. Études de faisabilité pour nouveaux besoins Aider la Région à exprimer un besoin (et non une solution). Étudier impacts contractuels, sécurité, architecture, outillage et coûts. Proposer des arbitrages et une priorisation. 4. Compétences requises Techniques Gouvernance data (MDM, métadonnées, data lineage, qualité, sécurité). Connaissance des architectures data modernes (Cloud, API, flux). Capacité à structurer un dictionnaire de données et une cartographie. Compréhension des enjeux réglementaires (RGPD). Expérience des environnements complexes multi-SI. Fonctionnelles & personnelles Forte capacité de synthèse, communication et pédagogie. Orientation opérationnelle (« doer »). Capacité à anticiper les risques et sécuriser les engagements. Aisance dans les échanges institutionnels et le pilotage multi-parties. 5. Livrables attendus Note de cadrage Data Cartographie des sources et flux Dictionnaire des données Politique de cycle de vie, archivage et sécurité Plan de contrôle qualité Reporting financier, opérationnel, SI, marketing, maintenance, distribution Tableaux de bord contractuels Études de faisabilité détaillées pour les nouveaux besoins 6. Profil recherché +5 ans d’expérience en gouvernance Data ou architecture de données. Bac+5 en informatique ou équivalent. Expérience dans un contexte de création ou transformation d’un SI. Profil pragmatique, opérationnel et autonome. 7. Conditions de mission Lieu : Paris ou Marseille Déplacements ponctuels sur sites Durée : 6 à 12 mois minimum Temps plein
Freelance

Mission freelance
Program Manager

Publiée le
Big Data
Cloud
Data management

1 an
Lille, Hauts-de-France
Télétravail partiel
Compétences techniques marketing - Expert - Impératif Product management - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Responsabilités Principales 1. Stratégie de Contenu et d'Audience Identification et Cartographie des Personas : En collaboration avec le Product et l’UX, aider à définir et documenter les différents clients/utilisateurs de la plateforme (Développeurs, Product Owners, Data Engineer, Leaders PTF et BU, etc.) et leurs besoins spécifiques en information (y compris en situation de crise). Audit et Structuration du Contenu Existant : Analyser les supports actuels et recommander une architecture de contenu logique et unifiée pour améliorer l'accessibilité et la clarté. Définition des Messages Clés : Traduire les fonctionnalités et les avantages de la plateforme en messages clairs, orientés bénéfices pour chaque persona. 2. Création et Gestion du Contenu Produit Production de Contenu Ciblé : Élaborer des supports structurés et didactiques pour l'adoption et la compréhension des produits et services de la plateforme. Cela inclut, sans s'y limiter : Fiches Produit/Service détaillées (pour les équipes Product Management). Guides d'Utilisation et tutoriels (pour les utilisateurs). Notes de version ( Release Notes ) et FAQ claires. Contenu pour l'onboarding des nouveaux services. Optimisation des Canaux de Contenu : Gérer et optimiser les plateformes et outils de partage de contenu pour s'assurer que le contenu arrive aux bonnes personnes au bon moment. Mesure de l'Impact : Suivre les indicateurs clés (fréquence de consultation, feedback utilisateur, taux d'adoption) pour évaluer l'efficacité des contenus et itérer. 3. Contribution à l'Amélioration de l'Expérience Utilisateur Boucle de Feedback : Mettre en place des mécanismes pour recueillir le feedback des personas sur le contenu et les services afin d'alimenter les équipes Product Management. Aide à la l’animation du collectif de nos utilisateurs. Appui aux Événements d'Engagement : Aider à structurer les sessions d'information (ateliers, showcases, démos) en s'assurant que le contenu présenté est pertinent et adapté à l'audience. 4. Alignement Coordination avec la Communication Groupe : S'assurer que le contenu produit est en accord avec la charte éditoriale et graphique du groupe (utilisation des logos, des templates, etc.) tout en restant focalisé sur le contenu technique et l'adoption produit de la plateforme. Compétences Requises : Compréhension Technique et Pédagogie : Capacité avérée à décortiquer des sujets complexes (Data, Cloud, API, développement) et à les simplifier. Capacité d'Analyse et de Synthétisation : Aisance pour identifier les besoins d'information d'une audience (persona) et structurer un contenu en conséquence. Maîtrise de la Rédaction et des Outils de Contenu : Excellent niveau rédactionnel (précision, concision). Connaissance des outils de documentation et de gestion de contenu.
Freelance
CDI
CDD

Offre d'emploi
Expert Kubernetes / Openshift – Senior (H/F)

Publiée le
Ansible
Docker
Kubernetes

1 an
Île-de-France, France
Objectif global : Administrer et maintenir les plateformes de conteneurisation (Docker, Kubernetes, Openshift), en assurant la performance, la sécurité et l’automatisation des environnements. Description détaillée de la mission : La mission se déroule au sein de l'équipe Infrastructure CaaS. L’objectif est la prise en charge des plateformes d’orchestration de conteneurs pour les projets Cloud et les initiatives de transformation IT. L’équipe travaille en mode Agile, favorisant l’automatisation et l’amélioration continue des services. Tâches principales : Déployer, configurer et maintenir les plateformes Docker, Kubernetes et Openshift pour assurer l’isolation et la performance des applications. Rédiger et maintenir les playbooks Ansible pour automatiser déploiements et configurations. Collaborer avec les équipes ADM, APS et les partenaires métiers pour tous les sujets liés aux conteneurs. Mettre en place les politiques de sécurité, gérer les vulnérabilités et contrôler l’accès aux conteneurs selon les normes en vigueur. Assurer la maintenance préventive et curative des systèmes conteneurisés, suivi des incidents et disponibilité des services. Suivre les avancées technologiques en matière de conteneurs, stockage et sécurité pour proposer des solutions innovantes. Respecter la gouvernance CIB et ITO et coordonner avec les partenaires mondiaux pour garantir l’alignement sur l’architecture et les principes IT. Compétences techniques : Docker – Expert Kubernetes – Confirmé / Expert Openshift – Confirmé / Expert Linux / Systèmes – Confirmé Automatisation (Ansible, scripts) – Confirmé Sécurité des conteneurs – Confirmé Compétences linguistiques : Anglais professionnel (Impératif)
Freelance

Mission freelance
Data Scientist Senior

Publiée le
Google Cloud Platform (GCP)
Python
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
3089 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous