Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Data Architecte
Contexte Le rôle de l'équipe Enterprise Architecture du service IT est de fournir de manière proactive des services d'architecture d'entreprise définis, afin d'orienter la prise de décision à l'échelle de l'entreprise vers l'architecture cible future. Périmètre Le périmètre inclut : Stratégie & gouvernance Politiques, contrôles et standards Ressources humaines & compétences Relations entre ces éléments et l'environnement externe Services d'Architecture d'Entreprise Les services s'organisent autour de : Stratégie IT Gestion des actifs IT et des standards Assurance et conformité de l'architecture Gouvernance digitale Livraison et support des solutions Gouvernance & contrôles Reporting & indicateurs (KPIs) Le rôle consiste également à accompagner les évolutions rapides de l'industrie, dans un contexte de délais et de coûts sous pression constante, tout en facilitant le support IT et la croissance de l'activité.

Mission freelance
data ingnénieur
Objectif global :Développer le socle data Loyalty & Quotation Contrainte forte du projet - Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.
Offre d'emploi
Data Engineer
Data Engineer pour l’équipe EPM : Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Exigences : • Expérience confirmée en tant que Data Engineer, avec une expertise démontrée sur la plateforme GCP. • Solides compétences en DBT pour la modélisation et le testing • Solides compétences en GCP BigQuery, SQL, Workflow, Azure DevOps et en modélisation de données. • Expérience de travail dans un environnement Agile SAFe. • Capacité à travailler en équipe et à communiquer efficacement avec des parties prenantes techniques et non techniques. Qualités Personnelles : • Esprit analytique et résolution de problèmes. • Autonomie et proactivité. • Capacité à s'adapter à un environnement en évolution rapide.

Mission freelance
Ingénieur DevOps Cloud Azure (Contexte Data/Big Data)
Au sein de la Direction Digital et Data , vous intégrerez le Data Lab , en charge de l’ensemble des projets BI et Data pour les enseignes et fonctions d’appui de notre client . En tant qu’ Ingénieur DevOps , votre mission principale sera de contribuer au déploiement des projets data sur la plateforme Microsoft Azure . Polyvalent et bon communicant, vous interagirez avec différentes équipes. Vous aurez également un rôle clé dans la sécurisation des applications du Datalab : organisation d’ateliers, suivi des plans d’actions liés aux audits, reporting, et proposition de solutions adaptées grâce à votre expertise de la sécurité cloud (Azure), notamment sur la mise en place d’applications Web et d’API. Vous évoluerez au sein d’une équipe d’une dizaine de collaborateurs, dans un environnement Agile . Vos missions : Construire et déployer des infrastructures Cloud Public (principalement sur Azure). Industrialiser les architectures cibles et configurer les environnements (CI/CD). Mettre en place des procédures et outils de supervision pour garantir la haute disponibilité des infrastructures. Participer aux phases de validation technique lors des mises en production et évolutions. Collaborer avec les équipes Développement, Sécurité et Projets dans le cadre des transformations menées.
Mission freelance
Data Analyst
Métier et Fonction : Data Management, Data Analyst Spécialités technologiques : Business Intelligence, CRM Type de facturation : Assistance Technique (facturation au taux journalier) Compétences techniques : Technologies et outils : Power BI (3 ans), SQL Soft skills : Force de proposition, Autonomie Secteur d'activité : Industrie médicale Description et livrables de la prestation : Objectifs de la mission : Observer et analyser les données disponibles dans le CRM. Identifier les informations pertinentes pour le business, en collaboration avec l’AMOA : types de données, indicateurs exploitables, croisements possibles, limites. Se poser la question : Quelles données avons-nous réellement à disposition ? Finalité : Construire des tableaux de bord sous Power BI pour : Aider le business à prendre des décisions éclairées. Mettre en lumière des points de blocage ou d’inefficacité. Proposer des améliorations concrètes des processus métier, comme la gestion des ruptures de médicaments.

Mission freelance
Data Scientist
Nous cherchons un(e) Data Scientist H/F pour un de nos clients situé en région Hauts de France Contexte de la mission Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : Concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM , RAG , agents et chatbots . Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de développement : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (RGPD) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Mission freelance
Data Scientist
Contexte Nous recherchons un référent technique IA générative pour concevoir, industrialiser et fiabiliser des solutions en production (LLM, RAG, agents, chatbots) et le traitement de données non structurées (PDF, images). Le projet s’appuie sur des pratiques solides d’ingénierie logicielle et doit évoluer dans un environnement cloud / software engineering (GCP, Python). Mission En tant que Technical Lead IA / MLOps, vous aurez pour missions principales : Concevoir et déployer des architectures robustes pour LLM, RAG, agents et chatbots, en garantissant scalabilité, coût et latence. Développer et maintenir des pipelines de traitement documentaire et multimodal (parsing PDF, OCR, extraction de tables, prétraitement d’images, fusion texte+image). Industrialiser les modèles et services : CI/CD, conteneurisation (Docker/K8s), déploiement, suivi d’expériences, monitoring et observabilité (offline & online). Mettre en place des standards d’ingénierie : code propre, tests automatisés, revues d’architecture, templates projets et documentation vivante. Superviser la qualité des données et la conformité (GDPR), gérer secrets/IAM, et définir des mécanismes de mitigation des risques LLM (hallucinations, injection de prompts, fuite de données). Encadrer et former l’équipe : mentoring, diffusion des bonnes pratiques, participation aux revues de code et aux choix techniques. Mesurer et garantir les indicateurs opérationnels des chatbots/agents (latence, coût, taux de réponse, satisfaction utilisateur).

Mission freelance
Data Scientist
Objectif global :Développer des solutions IA GCP / Software engineering / Python Compétences techniques Machine learning - Expert - Impératif IA generative - Expert - Impératif MLOps/LLMOps - Confirmé - Important Chatbot - Confirmé - Important Connaissances linguistiques: Anglais Courant (Impératif) Description détaillée Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte).

Offre d'emploi
Data Engineer
Nous recherchons un(e) Data Engineer Senior / Expert pour renforcer notre équipe et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste requiert un profil expérimenté, capable d’allier expertise technique, bonnes pratiques de développement logiciel et accompagnement des équipes. Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe.

Offre d'emploi
Data scientist
Nous sommes à la recherche d'un(e) : Data Scientist - Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. - Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). - Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). - Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. - Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. - Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. - Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.
Offre d'emploi
Ingénieur devOps
Contexte Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data pour les enseignes et les fonctions d’appui du Groupement du client. En tant qu'Ingénieur devOps, votre mission principale sera de participer au déploiement des projets data du Groupement. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du groupement sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions - Construire des infrastructures Cloud Public (principalement sur Azure) - Industrialiser les architectures cibles et configurer les équipements (CI / CD) - Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. - Participer aux phases de validation technique lors des mises en production ou des évolutions. - Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vos atouts pour réussir De formation supérieure en informatique, vous justifiez d’une expérience de 4-10 ans dans un contexte Data. Vous disposez des connaissances sur les outils et méthodologies suivants : - Cloud Azure - Infrastructure as a code (ARM, YAML) - Intégration et déploiement continu (Git, Azure DevOps) - Services Big Data : Azure DataLake, Azure EventHub, Azure Databricks, Azure Data Factory, Power BI - Services Web : Azure FunctionApp, Azure WebApp - Micro-services/containers (AKS) - Base de données : SQL DB, CosmosDB La connaissance de ces langages de programmation serait un plus : Spark et Scala.

Offre d'emploi
Azure Data Factory Expert
1. CONTEXTE DE LA MISSION Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un expert Azure Data Factory – spécialisé dans la conception et le développement de projets d'intégration de données hybrides dans le Cloud. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications Front to Back (PMS, OMS, IBOR, ABOR, CBOR) et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query ou des développements internes via APIs ou requêtes SQL. L’entreprise termine actuellement un projet stratégique de refonte de l'infrastructure Data qui repose désormais sur la technologie Data Lake Azure Cloud et s'engage dans un chantier de migration des outils FtoB vers une plateforme intégrée d'un éditeur de renommée mondiale. 2. DESCRIPTION DE LA MISSION Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu' expert Azure Data Factory (Injection, stockage, traitement, analyse) via les différents modules ( ADF, Synapse, Data Lake Gen 2, blob storage, SQL database, Analysis Service ). Une expertise dans l'automatisation des tests et l'usage de l'IA pour l'analyse des données sera un plus. En tant qu'expert, vous serez force de proposition pour challenger l'existant et faire évoluer le Datahub maison pour intégrer les données à partir du Datahub de la solution cible. À cette occasion, vous devrez à la fois répondre aux exigences du métier, qui souhaite limiter l'impact de la migration, et aux contraintes et opportunités apportées par la nouvelle solution tout en préservant la qualité de la donnée, le time to market et la facilité d'intégration (SQL, API, CUBE…). Vous serez en mesure de collaborer avec les membres de l'équipe IT ou Business Analyst, dans un environnement Agile , aussi bien au sein de l’équipe que « at scale » avec les autres équipes impliquées dans le projet de transformation.

Offre d'emploi
Data scientist
🎯 Missions principales : Concevoir des modèles statistiques et mathématiques robustes Implémenter ces modèles en Python dans le cadre de la plateforme du client Utiliser des techniques d’optimisation avancées : linéaire, entière, non linéaire Manipuler les solveurs ( CPLEX ) et le langage GAMS pour modéliser les problèmes Traduire des problématiques métier en modèles mathématiques opérationnels Prototyper, itérer et simplifier des solutions d’optimisation Présenter les résultats aux PO / métiers et accompagner la mise en production Collaborer avec les équipes Data, SI et projets

Offre d'emploi
Data Analyst Dataiku
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Analyst Dataiku Positionné auprès des Métiers ou de la DSI ou dans un pôle data transverse, il met en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données Métiers. Il produit et est responsable des indicateurs de performance qui permettent les prises de décision. Livrables • Accompagner les métiers dans l’interprétation des résultats et être force de proposition dans les pistes d'amélioration. • Proposer et/ou réaliser des analyses pertinentes et dashboard. • Créer de la documentation sur les données utilisées et les best practices. • Participer aux projets transverses de la direction (incrémentalité, MMO, data activation).

Offre d'emploi
TECH LEAD BIG DATA
Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.
Mission freelance
Data scientist
Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.