Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 379 résultats.
Freelance
CDI

Offre d'emploi
Expertise Fonctionnel Cyber Sécurité & Protection des Données

Publiée le
Agile Scrum
AWS Cloud
Azure

1 an
67k-76k €
660-670 €
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein d’une entité spécialisée dans la cybersécurité des données liées au Cloud, IA, Big Data et Blockchain. Votre rôle sera d’apporter une expertise avancée en sécurité pour accompagner les projets Gen-AI et garantir la conformité des usages des technologies Microsoft et des standards internationaux. Missions principales : Assurer l’assistance sécurité des projets et centres de compétences sur les sujets Gen-AI . Définir et mettre en œuvre des architectures sécurisées pour les technologies Microsoft (Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML). Produire des dossiers de sécurité : analyses de risques, recommandations, blueprints, normes et standards. Réaliser des revues de code et audits sécurité des composants logiciels. Participer à la définition des KPI de gouvernance , tableaux de bord et roadmap de sécurité AI. Contribuer à la rédaction des politiques d’usage des LLM et guidelines de sécurité. Assurer le reporting et la consolidation des exigences sécurité pour les projets France et International.
Freelance

Mission freelance
Data Analyst - Part-time (DBT - GitLab- Looker- BigQuery)

Publiée le
BigQuery
Data analysis
Data cleaning

6 mois
350-470 €
Genève, Suisse
Télétravail 100%
Cette mission est en Mi-Temps Nous recherchons deux data analyst pour une migration de modèles DBT afin de changer une partie du sourcing de la partie principale des Datamarts. Environnement & Contexte : Principalement pour les tables Client & Transactions, mais aussi d’autres modèles (Campaign, Clienteling), nous souhaitons ne plus nous sourcer sur un Datalake central, mais sur des données préparées dans un Datamart par une autre équipe, ce qui permettra de simplifier les scripts et supprimer les transformations. Il est crucial d’assurer la consistance des Data à tous les niveaux. Une analyse de gap sur les outputs principaux (Transaction, Client) a déjà été effectuée, avec un presque alignement au niveaux du nombre de record par Primary Key, mais au cours de la migration, il y aura forcément des différences relevées sur les dimensions/mesures, que vous allez devoir analyser, investiguer et remonter. Le Data Engineer aura pour mission principales : Revoir une bonne partie des modèles DBT dans notre Datamart Client qui contient environ 45 modèles finaux (et 60 modèles intermédiaires), pour modifier le sourcing (au lieu de sources brutes, se reposer sur un Datamart qui contient déjà certains indicateurs que nous préparions de notre côté) Simplifier et supprimer les transformations du script Client pour en simplifier la maintenance, et les investigations. Test de non regression sur le modele final, pour garantir que les outputs sont ISO (ou très proches, avec investigations des écarts et remontée/échanges avec l’équipe en charge du Datamart) Validation dans les outils finaux (explores/dashboards Looker) de la consistance des chiffres. Mise à jour de la documentation des modèles (SQL, Yaml, Confluence, Data Model)
Freelance
CDI

Offre d'emploi
Ingénieur SysOps (H/F)

Publiée le
Ansible
AWS Cloud
Azure

12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tu es comme un poisson dans l’eau dans l’environnement Linux et tu es convaincu que l’automatisation est LA solution pour une meilleure productivité ? C’est le projet idéal pour toi ! Rejoins notre équipe en tant qu’ Ingénieur SysOps . 🚀 Ton challenge si tu l’acceptes : Assurer la disponibilité et la fiabilité de l’infrastructure Gérer les incidents et demandes de niveau 2 et 3 Automatiser les processus pour assurer la répétabilité et la qualité Développer et garantir la pérennité des processus d’intégration et de déploiement Participer activement aux projets d’amélioration continue Accompagner la mise en place de nouvelles solutions
Freelance

Mission freelance
Développeur CRM Salesforce Marketing Cloud

Publiée le
Data Lake
Salesforce Sales Cloud

1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Recherche – Développeur CRM Salesforce Marketing Cloud (Nantes | 2 à 3 jours/semaine) Dans le cadre d’une consultation sur le contrat-cadre AST & Digital , nous recherchons un Développeur CRM Salesforce Marketing Cloud (expérimenté ou senior). 📅 Démarrage prévu : 4 décembre 2025 ⏱️ Rythme : mi-temps (2 à 3 jours par semaine) 📍 Présence sur site : lundi, mardi et jeudi 🎯 Missions principales Développer, maintenir et intégrer des solutions Salesforce Marketing Cloud : Emails, Push, Journey Builder, Automations, Datorama. Créer et personnaliser des parcours clients et des contenus dynamiques (HTML, AMPscript, responsive design, gestion de Data Extensions, Interactive Email Form). Implémenter des API et SDK SFMC sur applications mobiles natives, gérer la synchronisation CRM/Datalake et les processus automatisés RGPD . Assurer la gestion opérationnelle , les releases , le monitoring et l’ optimisation des performances (tracking, délivrabilité, réputation IP). Apporter support et conseil aux équipes métiers et digitales, dans un environnement agile et collaboratif.
Freelance

Mission freelance
Product Lead Data / Directeur projet (Montpellier)

Publiée le
Data governance
Product management

12 mois
600 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Lead Data / Directeur projet" pour un client dans le secteur des services Description 🎯 Contexte de la mission La Direction Data renforce ses équipes dans le cadre de la montée en puissance du domaine Data, Analytics & AI . Afin de garantir la qualité, la cohérence et la performance des livrables Data à l’échelle du groupe, le client recherche un Product Lead / Directeur de projet expérimenté . Placé directement sous la responsabilité du Responsable de Domaine , le Product Lead jouera un rôle clé dans la gouvernance, la stratégie et le delivery des Data Products , tout en assurant la tenue des engagements métiers et techniques. ⚙️ Rôle et responsabilités En tant que Product Lead, vous serez le garant du delivery, de la performance technique et de la qualité des composants de la ligne de produit Data, Analytics & AI. Vos principales missions : Piloter la ligne de produit Data, Analytics & AI sur les volets fonctionnels, techniques et stratégiques. Collaborer étroitement avec les Delivery Owners , Directeurs de programme et le Responsable de ligne de produit pour garantir la cohérence globale et la qualité des solutions. Contribuer à la stratégie de la ligne produit : dimensionnement des équipes, choix technologiques, modèle de coûts, sourcing et plan de delivery. Superviser la production et la maintenance des produits Data (disponibilité, performance, fiabilité). Assurer le suivi opérationnel : calendrier des évolutions, publications, roadmap technique et fonctionnelle. Définir et appliquer la politique d’industrialisation et de maintenance de la ligne de produit (qualité, CI/CD, automatisation). Accompagner et soutenir les Feature Teams dans la montée en compétence et la réalisation des objectifs. Collaborer avec les équipes agiles pour suivre les charges, les alertes et le staffing. Maintenir la documentation technique et fonctionnelle (Wiki, SharePoint, Teams). Contribuer à la pérennité technologique du patrimoine Data en réduisant la dette technique et en garantissant la conformité DSI. Assurer la coordination avec la DEXO (gestion de crise, gestion de la proximité avec les partenaires).
Freelance

Mission freelance
Expert Big Data – Spark / Airflow – Secteur Bancaire

Publiée le
Apache Airflow
Apache Spark

12 mois
400-460 €
Montreuil, Île-de-France
Dans le cadre de notre développement, nous recherchons un Expert Big Data pour accompagner un acteur majeur du secteur bancaire sur des projets stratégiques liés à la transformation et à l’optimisation de ses plateformes de données. Le consultant aura un rôle clé dans l’architecture et la mise en œuvre des pipelines Big Data, garantissant performance, scalabilité et conformité aux exigences métier et réglementaires. Objectifs de la mission : Conception et développement de pipelines Big Data Définir et mettre en place des architectures de traitement de données complexes. Développer et optimiser des workflows Spark et Airflow pour des traitements batch et temps réel. Assurer la qualité, la fiabilité et la performance des pipelines. Support stratégique et technique Conseiller les équipes sur les choix technologiques et les bonnes pratiques Big Data. Participer à la définition de la stratégie de données et à la roadmap technique. Collaborer étroitement avec les équipes métier et IT pour anticiper les besoins et prioriser les évolutions. Gouvernance et qualité des données Garantir la conformité des pipelines aux normes de sécurité et réglementaires du secteur bancaire. Mettre en place des mécanismes de supervision, de monitoring et d’alerte. Assurer la documentation technique et fonctionnelle des solutions déployées.
Freelance

Mission freelance
Consultant Analytics / Digital Performance / CRO

Publiée le
Javascript

12 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement des équipes Analytics & CRO, nous recherchons un consultant confirmé capable d'intervenir sur l’ensemble des sujets liés à l’analyse digitale, à l’optimisation de la performance, à la personnalisation et aux tests A/B, dans un environnement multi-marques (B2C & B2B). Le consultant interviendra en coordination avec les équipes Produit, UX, SEO, Tech et les agences partenaires, avec un rôle clé d’analyse, d’optimisation et de pilotage des outils de mesure. Périmètre de la mission 1. Analytics & Data Expertise GA4 & Google Tag Manager : Élaboration de plans de taggage Implémentation et recette Monitoring et qualité de la donnée Analyse de la performance digitale sur plusieurs sites (B2C, B2B, multi-marques) Création et exploitation de dashboards Power BI & Looker Studio Réalisation d’analyses ad-hoc et de reporting business Pilotage d’outils analytics tiers (ThankYou Analytics) Coordination et intégration des tags média 2. A/B Testing & CRO Conception, déploiement et pilotage de roadmaps d’A/B tests Création de tests via : Éditeur WYSIWYG JavaScript / CSS Prompts IA générative Analyse statistique, interprétation et restitution des résultats Mise en place de modèles de suivi et de documentation des tests Administration avancée d’outils (Kameleoon / A/B Tasty) Optimisation technique continue et nettoyage des environnements CRO 3. UX & User Intelligence Analyse comportementale via Mouseflow / ContentSquare Collaboration étroite avec : UX SEO Produit CRO Capacité à transformer des insights data en recommandations opérationnelles 4. Tech & IA Bon niveau en HTML / CSS / JavaScript Utilisation d’outils d’IA générative et maîtrise de la rédaction de prompts Intégration et interfaçage d’outils analytics avec des solutions tierces 5. Gestion & Collaboration Recueil et cadrage des besoins métier Coordination transverse avec les équipes internes et les agences Accompagnement et formation des équipes internes Forte pédagogie, communication claire et structurée 6. Langues & Mobilité Anglais professionnel (B2/C1) Travail dans un environnement international Déplacements ponctuels à l’étranger Modalités Lieu : Clermont-Ferrand Rythme : 3 jours de présence sur site / 2 jours de télétravail Profil : Basé en France impérativement
Freelance
CDI

Offre d'emploi
Data Science/Analyse

Publiée le
BigQuery
SQL

1 an
40k-45k €
310-450 €
Île-de-France, France
Télétravail partiel
Data Science/AnalyseContexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande organisation audiovisuelle. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. Description du poste L'équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Déroulement des analyses Être à l'écoute et comprendre les besoins métier Proposer des méthodes et des axes d'analyses pertinents pour y répondre Tirer des enseignements et faire des recommandations en se basant sur les résultats de l'analyse Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l'oral aux équipes métier Communiquer régulièrement sur les résultats des analyses réalisées à l'ensemble de la direction Analyses pour enrichir l'animation et la stratégie éditoriales Profiling utilisateurs : par catégories de contenus, programmes, par chaînes, par device… Analyses de parcours : programmes ou catégories recrutants, fidélisants Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation… Analyses pour enrichir la stratégie produit Audit des données issues des nouvelles fonctionnalités Analyse de l'usage des fonctionnalités, profiling Analyse de l'impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus… Dashboards Être référent sur les dashboards de connaissance utilisateurs Garantir la maintenance et la bonne mise à jour des dashboards existants Ajustement des existants (nouveaux indicateurs, modifications de calculs…) Être force de proposition sur les évolutions des dashboards existants Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos…
Freelance

Mission freelance
Consultant SAP Advanced Data Migration

Publiée le
SAP

2 ans
400-670 €
Paris, France
Télétravail partiel
Nous recherchons, pour le compte de l’un de nos clients stratégiques, un consultant SAP expérimenté en migration de données (ECC6 vers S/4HANA). Votre mission : Vous intégrerez un projet majeur de transformation SAP et serez responsable de la migration des données critiques vers S/4HANA. Vous travaillerez directement avec le client sur un projet stratégique, bénéficiant d’un environnement dynamique et stimulant, où votre expertise sera pleinement valorisée. Profil recherché : Expérience confirmée sur SAP Advanced Data Migration and Management (ADMM) de Syniti. Maîtrise des modules SAP, notamment MM, et connaissance d’autres modules SAP est un plus. Solide expérience sur des projets de migration de données complexes, idéalement ECC6 vers S/4HANA. Anglais courant indispensable pour travailler avec les équipes internationales. Capacité à travailler en autonomie tout en collaborant efficacement avec les équipes projet et les parties prenantes.
Freelance

Mission freelance
Consultant Power BI / Progiciel ITSM Orleans ou Paris, 3 jours de TT

Publiée le
ITSM
Microsoft Power BI

2 mois
Paris, France
Télétravail partiel
Consultant Power BI / Progiciel ITSM/ SMAX VIO Sur Orleans ou Paris, 3 jours de TT. Démarrage asap. Compétences · Esprit d'analyse et qualité rédactionnelle. · Rigueur, bon relationnel et pragmatisme. · Maîtrise de PowerBl. · Des connaissances techniques sur SMAX VIO ou Progiciel ITSM équivalent seraient un plus. · Facultés d'adaptabilité, d'autonomie, de réactivité et de sens du service. Le client actuellement un programme de transformation technique et organisationnelle avec un basculement de son outil logiciel JIRA supportant ses processus ITIL vers l'outil cible du Groupe (UNITY basé sur SMAX V10) afin de se conformer aux pratiques et processus partagés au niveau de l'ensemble du groupe. Dans le cadre du projet UNITY, le 1er lot de travaux portant sur les processus de gestion des incidents (GDI), gestion des problèmes (GDP) et gestion des changements (GDC) est en cours de tests sous UNITY. Un 2nd lot de travaux portant sur les processus de gestion de la demande (GDD) débute sur le dernier trimestre 2025. Missions La mission consistera, en renfort de l'équipe projet UNITY : · Dans un premier temps, à implémenter sous PowerBl les rapports opérationnels de pilotage des processus du 1 er lot de travaux. · Dans un second temps, à participer à l'analyse d'écarts, l'élaboration du besoin et des spécifications ainsi qu'à implémenter sous Power BI les rapports opérationnels de pilotage, pour les processus du 2nd lot de travaux. Compétences · Esprit d'analyse et qualité rédactionnelle. · Rigueur, bon relationnel et pragmatisme. · Maîtrise de PowerBl. · Des connaissances techniques sur SMAX VIO ou Progiciel ITSM équivalent seraient un plus. · Facultés d'adaptabilité, d'autonomie, de réactivité et de sens du service.
Freelance

Mission freelance
Tech Lead DATABRICKS (Lyon)

Publiée le
Azure Data Factory
Java

1 an
500-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
CDI
Freelance
CDD

Offre d'emploi
Consultant BI expérimenté

Publiée le
C#
Microsoft Power BI
Microsoft SSIS

1 an
Paris, France
À propos du poste Nous recherchons un Consultant BI expérimenté pour moderniser et améliorer la plateforme interne, Le rôle consiste à migrer les systèmes existants vers Azure, enrichir les fonctionnalités et assurer le support opérationnel dans un environnement de gestion d’actifs. Responsabilités principales Migrer les cubes SSAS multidimensionnels vers des modèles Tabulaires et optimiser les performances. Adapter les flux SSIS et refondre les rapports SSRS. Déployer la solution sur Azure (Analysis Services/Power BI Premium, SQL Database, Data Factory). Développer de nouveaux KPI et intégrer des sources de données supplémentaires. Mettre en place un système d’alertes automatisées (seuils, anomalies). Assurer le support de niveau 2/3 et résoudre les incidents. Compétences requises Techniques : Expertise SSAS (Multidimensionnel & Tabulaire), SSIS, SSRS, SQL Server (T-SQL), .NET (C#). Services Azure : Analysis Services/Power BI Premium, Data Factory, SQL Database, monitoring/alerting. Métier : Bonne compréhension de la gestion d’actifs et des processus d’investissement. Connaissance des métriques AUM, des flux et des indicateurs financiers. Soft Skills : Autonomie, proactivité et orientation solutions. Excellentes capacités de communication et d’analyse.
Freelance

Mission freelance
Data Engineer / Développeur Talend - Niort

Publiée le
Apache Maven
JIRA
Talend

2 ans
380-480 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Pour l'un de nos clients niortais, nous recherchons un data engineer / développeur talend : · Participer à l'évaluation de la charge de travail d'analyse et de réalisation, · Contrôler la qualité des développements, · Développer et maintenir, le cas échéant, les applications informatiques, · Participer aux tests d'intégration, · Rédiger les dossiers afférents aux phases précédentes, · Respecter les normes de développement et de planification, · Participer à l'industrialisation des applications, · Participer à la formation des utilisateurs.
Freelance

Mission freelance
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D - 1117

Publiée le

6 mois
500-530 €
Paris, France
Télétravail partiel
Objectifs de la mission : Le Passenger Cognition Lab modélise les comportements des voyageurs afin d’optimiser les services digitaux et l’information voyageur en Île-de-France. Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrable : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
Freelance

Mission freelance
Administrateur / Expert Big Data (Cloudera)

Publiée le
Apache Spark
Cloudera
Hadoop

3 ans
500-700 €
Île-de-France, France
Télétravail partiel
Vous serez en charge du déploiement ainsi que du MCO/MCS de l’écosystème Cloudera (Cloudera Manager, services Cloudera Data Platform : HDFS, Vous interviendrez également sur la gestion d’une architecture Lake house , comprenant : Data Security : Apache Ranger Data gouvernance : Apache Atlas Data processing : Spark, Apache Zeppelin Data ingestion : NiFi Data analytics : Apache Impala Data lake : Hadoop, Apache Kudu Data serving : Hue Responsabilités Documenter les procédures d’exploitation et rédiger des rapports synthétiques Garantir le bon fonctionnement des services dans le respect des SLA Opérer en environnement de production en s’appuyant sur les processus ITIL (gestion des incidents, problèmes, changements) Communiquer en anglais avec les éditeurs (dont Cloudera) et les fournisseurs Automatiser les déploiements (fichiers de configuration, certificats, keystores) via Ansible Utiliser les outils DevOps (GitHub, Jenkins) pour le versionning et les pipelines Exploiter les environnements Linux et analyser les logs dans le cadre du traitement des incidents Être force de proposition concernant l’amélioration de l'exploitabilité, la robustesse et la supervision des services Participer aux réunions d’équipe, aux projets et aux différents comités, et assurer un reporting régulier Livrables attendus Dossier d’ingénierie de la plateforme Lake house Fiches et procédures d’exploitation Dossier de mise en production PV de mise en production
Freelance

Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
2379 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous