Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Expert(e) Analyse & Modélisation de Données
Dans le cadre de la transformation data au sein du Groupe, nous recherchons un(e) expert(e) en analyse de données et modélisation pour accompagner diverses initiatives stratégiques, notamment dans les domaines de la Conformité, de la Croissance et de la diffusion de solutions mutualisées en matière de Données & IA (Centre de Contact, Sinistres, Souscription). Le poste s’inscrit dans un environnement international et collaboratif, au sein d’une équipe transverse intervenant auprès des entités locales et du siège Groupe. Parlais anglais sera nécessaire pour cette mission.

Mission freelance
Data Engineer AWS expérimenté/sal
Data Engineer AWS expérimenté. Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Date de début souhaitée : début septembre Durée : jusqu'à fin d'année minimum Localisation : Boulogne Billancourt + Télé travail Télétravail possible à hauteur de 50% L'objectif est de déployer jusqu’à l’environnement de production ce qu’on appelle l’environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync) alimenté depuis un datalake on premise. Dans le cadre d’un nouveau produit déployé sur AWS, il faudra mettre en œuvre des services data et un front (cible génération de CR mode speech to speech) : · Résoudre les éventuels problèmes résiduels sur les environnements · Utiliser les services Data AWS, ainsi que bedrock, et les solutions de RAG etc... pour implémenter les Use Case Data et IA Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Environnement technique : AWS solutions Data et IA
Mission freelance
Chef de projet Data/Lead data scientist
Hello, Voici le descriptif du poste de chef de projet Data/lead data scientist si tu es en recherche actuellement: Acculturation & cadrage : sensibiliser les métiers à la valeur de la data, animer des ateliers, faire des présentations PPT trés abouties Cartographie & gouvernance de la donnée : mettre en place des instances, processus et outils de gestion des données. POC & prototypes IA : piloter l’incubation de preuves de concept, encadrer les phases de test et d’expérimentation. Gestion de projet & delivery : suivre la roadmap, coordonner les équipes techniques et métiers, assurer le reporting et le respect des délais/livrables.
Mission freelance
Lead Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)
Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Offre d'emploi
Directeur de projet Infrastructure / OM Workspace Experience
Contexte Rattaché au responsable d'équipe Offering & Change Management, le rôle principal de l'Offering Management "Workspace Experience" est de garantir une expérience optimale des collaborateurs sur les services Workspace, en cohérence avec la stratégie unifiée Telecom & Workspace. Il s'agit de piloter la structuration, la formalisation et l'évolution des offres de services Workspace, en s'appuyant sur une expertise technico-fonctionnelle et une connaissance approfondie du parcours utilisateur sur les produits existants côté Workspace (devices et espaces partagés). Missions principales Cartographie des services existants sur le périmètre Workspace (devices, salles de réunion, imprimantes…), en collaboration avec les PO, pour identifier les offres actives, les écarts et les zones d'ombre. Analyse des retours utilisateurs (enquêtes, feedback terrain, tickets) et les intégrer dans les roadmaps définies par les PO et les équipes techniques. Contribution à la définition et à l'évolution des offres Workspace, en lien étroit avec l'équipe Offering et les parties prenantes métiers. Promotion de l'offre Workspace auprès des utilisateurs et relais internes, en animant la communauté des PO & OM avec des contenus engageants (guides, bonnes pratiques, retours d'expérience…) Participation à la simplification du catalogue et à l'amélioration de l'expérience utilisateur. Force de proposition sur les évolutions à venir (ex. : intégration IA, offres packagées, convergence device & réseau).

Mission freelance
Expert Stockage Objet MinIO / S3
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, InfrastructureExpert Spécialités technologiques :Stockage,API,ML Compétences Technologies et Outils Docker Active Directory Kubernetes LDAP Soft skills Autonomie Rigueur Nous recherchons un expert technique de haut niveau pour accompagner notre client dans la conception, la mise en œuvre, l'optimisation et la maintenance de notre infrastructure de stockage objet basée sur MinIO. Le candidat retenu devra justifier d'une expérience significative en environnement de production, avec des contraintes fortes de haute disponibilité, de performance et de scalabilité. MISSIONS Maîtrise approfondie de MinIO et de l'écosystème S3 - Expertise de l'API S3 : Connaissance complète des fonctionnalités de l'API S3 (gestion des objets, versioning, politiques de cycle de vie, multipart upload, presigned URLs, etc.). - Architecture MinIO : Compréhension fine de l'architecture de MinIO, y compris le fonctionnement du mode distribué, l'erasure coding pour la protection des données, et le processus de guérison automatique (healing). - Déploiement et Configuration : Expérience avérée dans le déploiement de clusters MinIO à grande échelle, que ce soit sur des serveurs bare-metal, des machines virtuelles ou dans un environnement conteneurisé (Kubernetes, Docker). L’échelle en terme de stockage est entre 500 et 900TB en cible à 5ans. - Sécurité : Maîtrise des aspects de sécurité liés à MinIO, incluant le chiffrement (côté serveur et côté client), la gestion des identités et des accès (IAM), et l'intégration avec des fournisseurs d'identité (LDAP, Active Directory). Haute Disponibilité et Scalabilité - Conception d'Architectures Résilientes : Capacité à concevoir et à mettre en œuvre des architectures MinIO garantissant une haute disponibilité (multi-nœuds, multi-sites). - Scalabilité Horizontale : Expérience dans l'ajout de nouveaux nœuds à un cluster MinIO existant sans interruption de service et connaissance des mécanismes de rééquilibrage automatique. - Gestion des Défaillances : Solide expérience dans la gestion des pannes (disques, nœuds) et les stratégies de reprise après sinistre. Performance et Optimisation - Analyse de Performance : Compétence dans l'utilisation d'outils de benchmark (comme warp) pour mesurer et analyser les performances (latence, débit) d'un cluster MinIO. - Optimisation : Capacité à identifier et à résoudre les goulots d'étranglement, que ce soit au niveau matériel (réseau, disques NVMe), système ou applicatif. - Caching : Connaissance des stratégies de mise en cache pour optimiser les performances des lectures. Expertise souhaitée Expérience de Production et Références Exigées Le candidat doit pouvoir présenter de manière détaillée une ou plusieurs implémentations significatives en environnement de production : - Description du Cas d'Usage : Quel était le besoin métier (stockage pour de l'analytique, de l'IA/ML, des sauvegardes, des médias, etc.) ? - Volumétrie et Charge : Quelle était la volumétrie des données gérées et le niveau de trafic (nombre de requêtes par seconde) ? - Enjeux de Performance : Description des défis spécifiques liés à la performance et des solutions mises en place pour y répondre. - Incidents et Résolution : Exemples concrets d'incidents de production gérés et des leçons apprises. Connaissance d'une Solution Alternative : Une expérience significative avec une autre solution de stockage objet compatible S3 est un atout majeur. Le candidat devrait être capable de comparer MinIO à cette alternative sur des critères techniques et opérationnels. Exemples de solutions alternatives pertinentes : - Ceph - OpenIO - Garage - Services S3 natifs dans un contexte cloud privé SecNumCloud Qualités Personnelles - Autonomie et Proactivité : Capacité à travailler de manière autonome, à diagnostiquer des problèmes complexes et à proposer des solutions robustes. - Rigueur et Méthodologie : Approche structurée dans la résolution des problèmes et la gestion des environnements de production. - Bonne Communication : Aptitude à communiquer clairement sur des sujets techniques complexes avec différentes équipes.

Mission freelance
Expert(e) en Product Ownership / Analyse métier
Au sein du Département Groupe Données , l’équipe Data & AI Products pilote la transformation du Groupe vers un modèle Data Mesh / Data Product , visant à mutualiser les solutions Data & IA à travers l’ensemble des entités. Dans le cadre du déploiement de cette stratégie, nous recherchons un(e) expert(e) en Product Ownership / Analyse métier spécialisé(e) dans les domaines Sinistres IARD et Souscription , pour accompagner la montée en maturité des entités AXA sur leurs usages data. Parler anglais sera necessaire pour mener à bien cette mission. Fort contexte international.

Mission freelance
Chef de Projet IT (Cybersécurité, Production informatique, Support, Architecture SI & Data...etc)
CONTEXTE EXPERIENCE : 7 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projet IT Spécialités technologiques : Type de facturation, MISSIONS Les différentes directions de notre client expriment des besoins pour développer, optimiser ou normaliser leurs activités auprès de la Direction des Systèmes d’Information (DSI). Un Chef de projet IT pilote alors un projet pour répondre à certains de ces besoins, en s’appuyant sur lescompétences de la DSI (Cybersécurité, Production informatique, Support, Architecture SI & Data...etc) L’équipe Projets de la DSI pilote un portefeuille conséquent (environ 180 projets/an). Le Chef de projet IT renforcera l’équipe pour absorber une croissance d’activité et prendra en charge 4 à 8 projets en parallèle (selon taille/criticité). Prestations attendues : 1. Cadrage & préparation 2. Sélection des solutions & contractualisation 3. Réalisation & pilotage opérationnel 4. Recette, mise en production & bascule 5. Passage en run & amélioration continue Expertise souhaitée Profil recherché : - Bac+5 en Informatique/Ingénierie/Management de projet. - ≥ 5 ans d’expérience en gestion de projets IT complexes, idéalement événementiel / sport / billetterie / SI RH / SI Finances / outils Microsoft (SharePoint, power BI, VIVA etc..). - Maîtrise des méthodologies Agile (Scrum, Kanban) et Cycle en V ; outils MS Project, Jira, Confluence. - Connaissance des outils d’intégration & automatisation (Workato) et des systèmes billetterie, contrôle d’accès, accréditation. - Leadership affirmé, capacité à embarquer des équipes pluridisciplinaires. - Aptitude à gérer des situations critiques en contexte événementiel (temps réel, forte pression, coordination rapide). Compétences techniques requises : - Connaissances SQL et manipulation de bases de données. - Maîtrise d’outils d’automatisation & d’intégration : Workato, Power Apps. - Notions en programmation (Python) et frameworks IA (pour compréhension/coordination). - Expérience d’outils d’analyse & dataviz : Power BI, Tableau. - Maîtrise des outils collaboratifs : Microsoft 365, Notion, Confluence. Soft skills : - Esprit analytique, rigueur et capacité de synthèse. - Autonomie, force de proposition, proactivité. - Excellentes qualités relationnelles et capacité à fédérer autour des projets stratégiques. - Leadership et capacité à challenger équipes techniques et métiers. - Sens de la négociation et du pilotage fournisseur. - Résilience et gestion du stress en environnement événementiel sportif (match-day). Langues : - Anglais professionnel requis pour évoluer dans un environnement international. - Français courant.
Mission freelance
Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)
Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Mission freelance
Data Engineer AWS Sénior
Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Mission freelance
Data Architecte AWS
Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.
Mission freelance
Référent Senior ServiceNow
Dans le cadre d’un programme de transformation numérique ambitieux autour de la plateforme ServiceNow, nous recherchons un consultant senior disposant d’une expertise solide sur les volets fonctionnels et techniques de la solution. Le consultant interviendra en tant que référent sur la plateforme, en lien direct avec les équipes IT et métiers, pour piloter les évolutions, garantir la qualité du service et accompagner les nouveaux usages. Missions principales : Co-piloter la plateforme ServiceNow en binôme avec la responsable en place Construire et piloter la roadmap en lien avec les besoins métiers Participer à la modernisation des modules SPM et FSM Définir les règles de bonne utilisation de la plateforme et en garantir l’application Suivre la performance de la plateforme et proposer des axes d’amélioration continue Gérer la relation avec la TMA : incidents, évolutions, livrables Cadrer, concevoir et implémenter les projets d’évolution de la plateforme Assurer la maintenabilité, l’exploitabilité et la cohérence des choix d’architecture Être moteur sur l’adoption de nouveaux modules ou usages, notamment liés à l’IA
Mission freelance
Senior Python Backend Engineer / FULL REMOTE
Description du poste – Senior Python Backend Engineer (Freelance)Contexte Nous accompagnons un grand groupe international dans le cadre d’un projet de transformation digitale. Dans ce contexte, nous recherchons un Senior Python Backend Engineer pour une mission freelance longue durée. Le consultant rejoindra une équipe internationale et contribuera au développement d’une plateforme innovante orientée data, intégrant des technologies cloud et intelligence artificielle. Missions principales Développer et maintenir des services backend en Python (API, microservices). Concevoir et optimiser des architectures event-driven et serverless sur cloud public. Automatiser les déploiements via IaC (Terraform). Participer aux décisions techniques et aux choix d’architecture. Implémenter des tests et rédiger la documentation associée. Collaborer avec une équipe distribuée en mode agile. Stack technique Python (FastAPI, Flask) Cloud serverless : Lambda, Step Functions, DynamoDB, S3, SQS, EventBridge Terraform / CodePipeline Bases de données : MongoDB, Postgres Bonus : ETL, Batch, Geospatial Conditions de mission Contrat : Freelance Localisation : Remote, avec quelques déplacements ponctuels en Europe (2-3 fois par an) Démarrage : Dès que possible Durée : Mission longue Candidature par mail : Et/ou Linkedin : Sofiane O.C

Mission freelance
Data Engineer AWS
Kajenthi@RED Global – Recherche Data Engineer AWS – IDF – Freelance – 3 mois + Dans le cadre du déploiement d’un environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync), alimenté depuis un Data Lake on-premise , RED Global recherche un Ingénieur Data pour accompagner la mise en production d’un nouveau produit sur AWS . Missions : Résolution des problèmes techniques résiduels sur les environnements. Mise en œuvre de services Data et IA (Bedrock, RAG, etc.). Contribution à un front de génération de comptes-rendus en mode speech-to-speech . Compétences requises : Minimum 3 ans d’expérience sur AWS en environnement Data. Bonne maîtrise des services Data AWS . Connaissance de Starburst et Dataiku appréciée. Environnement technique : AWS, Dataiku, Starburst, Datasync, Bedrock, RAG, Data Lake on-premise. Si vous souhaitez recevoir de plus amples informations sur la mission ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour :

Offre d'emploi
🔧 CDI – Site Reliability Engineer (H/F) – Object Storage 🔧 📍 Lille, Paris, Nantes ou Bordeaux
🔧 CDI – 3 Site Reliability Engineer (H/F) – Object Storage 🔧 📍 Postes à pourvoir à Lille, Paris, Nantes ou Bordeaux ICSIS, ESN Lilloise depuis 12 ans, accompagne les plus grandes DSI avec plus de 100 consultants engagés. Nous recrutons des profils IT de haut niveau , mais aussi des personnalités humaines , capables de faire la différence en équipe. 🎯 Pour un acteur majeur du numérique , nous recherchons 3 Site Reliability Engineers (H/F) spécialisés en Object Storage . 🚀 Vos missions : Garantir la haute disponibilité, fiabilité et sécurité des plateformes d’Object Storage Suivre les indicateurs de performance et proposer des axes d'amélioration Être force de proposition dans une démarche DevOps & amélioration continue Participer à l’ automatisation de la prévention des incidents Contribuer aux outils de déploiement, packaging, monitoring et alerting Gérer les montées de version logicielles Challenger les architectures pour plus de scalabilité et performance Travailler en lien avec les équipes techniques & métiers pour enrichir le backlog produit 🛠️ Stack & compétences attendues : Maîtrise de GNU/Linux Scripting (idéalement Python ) Automatisation & déploiement ( Ansible , Puppet , etc.) Architectures microservices complexes Outils de supervision : Icinga , Prometheus , Alertmanager Orchestration d’infra à grande échelle ( Temporal est un plus) ➕ Ce serait un + si : Vous avez des notions des API AWS S3 Vous êtes curieux(se) des sujets autour de l’ IA Vous aimez travailler en équipe , créer de la cohésion , et faire avancer les projets ensemble 📍 Localisations possibles : Lille, Paris, Nantes, Bordeaux 💼 CDI – démarrage dès que possible 📩 Candidatures à envoyer à :

Mission freelance
Data Architect – Core Model CRM
Dans un environnement multi-CRM , l’entreprise souhaite construire un Core Model CRM unifié pour centraliser, harmoniser et valoriser les données clients. Ce modèle sera le socle des usages analytiques, opérationnels et stratégiques. L’un des principaux objectifs du plan de transformation data est de développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’analyse des données et KPI. Pour atteindre ces objectifs, l’entreprise a déployé un écosystème technologique avancé : Outils et plateformes : AWS, Dataiku, GitLab, Terraform, Snowflake, Braze, IA, Spark, Python, Power BI Architectures : Data Lake, Event-driven, Streaming (ingestion de +100 To/jour) Exemples de projets : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données avec partenaires, data self-service Missions 1. Conception du Core Model CRM Analyser les modèles de données existants dans les différents CRM. Identifier les objets métiers communs, divergences et points de convergence. Concevoir un modèle de données central (conceptuel, logique, physique) aligné avec les besoins métiers et techniques. Définir les règles de mapping et de transformation entre les CRM sources et le Core Model. 2. Architecture et intégration Collaborer avec les équipes Data Engineering pour l’implémentation des pipelines d’intégration. Garantir la scalabilité, la performance et la sécurité du modèle. 3. Gouvernance et documentation Documenter le Core Model et ses usages. Participer à la mise en place de la gouvernance des données clients (référentiels, qualité, traçabilité). Assurer la cohérence et l’évolution du modèle dans le temps. 4. Collaboration transverse Travailler avec les équipes CRM, Data, IT et métiers. Animer des ateliers de co-construction avec les entités internes. Former et accompagner les utilisateurs du Core Model.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.