Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Tech Lead Databricks
Nous recherchons un Tech Lead Databricks pour rejoindre l’équipe Data en pleine expansion de notre client, leader dans le domaine de la maitrise des risques. Vous aurez la responsabilité d’assurer la conception et la mise en œuvre de solutions de data engineering et data science sur la plateforme Databricks, tout en assurant le leadership technique pour une équipe de développeurs et data engineers. MISSIONS Leadership technique Coacher une équipe de data engineers, data scientists, et développeurs travaillant sur la plateforme Databricks Mettre en place des bonnes pratiques de développement et veiller à la qualité du code (revues de code, tests unitaires) Conception et architecture Concevoir et implémenter des solutions techniques sur Databricks pour répondre aux besoins des équipes métiers (data analytics, data science) Définir des architectures évolutives et performantes pour l'ingestion, le traitement et l’analyse des données Participer à la modélisation de données Travailler en étroite collaboration avec les architectes, les équipes applicatives et équipes métiers pour définir des solutions adaptées Développement et intégration Développer des pipelines de données et des workflows de traitement de données dans Databricks Assurer l'intégration des solutions avec d'autres outils et systèmes (bases de données, systèmes de stockage, outils de BI) Participer au développement des tableaux de bord sous Power BI Optimisation des performances Identifier et résoudre les problèmes de performance dans les flux de données et l'architecture Mettre en place des mécanismes d'optimisation des coûts liés à l’utilisation de la plateforme Databricks Veille technologique et innovation Assurer une veille sur les nouvelles technologies et pratiques dans l’écosystème Big Data et Databricks Proposer des améliorations continues pour augmenter l’efficacité des processus et la qualité des données Accompagner et former les équipes IT aux bonnes pratiques ITIL

Offre d'emploi
Data Analyste SAS, Python, SQL - Niort
Chez K-LAGAN, nous parions sur vous ! 🚀 K-LAGAN est un cabinet de conseil spécialisé dans la Data, l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) Data Analyst , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients très connu dans le secteur assurances, basé à Niort.

Offre d'emploi
Data Engineer
Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark, Java de la squad Data Value (connaissance client, collecte des événements digitaux...). Expertise technique confirmé sur Kafka, Kstreams, K8s, streaming de données Développer en Spark/Kafka des traitements de transformation et de production de données Designer des chaines optimisées CI/CD en collaboration avec les équipes, DEVOPS, et CAGIP Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code
Offre d'emploi
DATA SCIENTIST à Nantes
Prestation à Nantes. Le bénéficiaire souhaite une prestation d'accompagnement sur Nantes, dans le cadre de son programme d’accélération de l’IA. Contexte : Dans le cadre du chantier Knowledge Management (KM), une base de connaissance doit être constituée à partir de documents non structurés (PDF, Word, HTML). Cette base servira à formaliser la connaissance sous une forme agnostique des usages, en vue d'une réutilisation large et durable. Objectif de la mission : Concevoir un pipeline d'extraction, nettoyage et structuration de la connaissance textuelle issue de documents variés, en l'organisant dans un format pivot enrichi et exploitable. Activités principales : Extraction du texte depuis des fichiers PDF, Word, HTML via des librairies adaptées Nettoyage et normalisation des contenus (suppression de bruit, OCR si nécessaire) Segmentation des textes en unités de connaissance structurées (sections, blocs) Enrichissement des unités avec des métadonnées (source, date, thème, typologie) Conception du format pivot (Markdown enrichi ou JSON) standardisé Documentation le format et les choix de structuration Collaboration avec l’équipe KM pour affiner la structuration Mise en place un script ou pipeline réutilisable pour de nouveaux documents Bonne connaissance de Domino Data Lab (optionnel)

Mission freelance
Engineering Manager / Manageur DATA/IA (F/H)
Contexte Dans un contexte de forte croissance des usages numériques et d’accélération de la transformation digitale , les données et l’intelligence artificielle constituent des leviers stratégiques pour améliorer l’expérience client, optimiser les opérations et soutenir l’innovation. La montée en puissance de nos plateformes data, combinée à l’émergence de nouvelles technologies (cloud data platforms, big data, IA générative, MLOps), exige un pilotage technique et organisationnel solide pour garantir la qualité, la robustesse et la scalabilité de nos solutions. Afin d’accompagner cette dynamique, la société souhaite renforcer son organisation en s’appuyant sur un prestataire disposant d’une forte expertise en management et delivery d’équipes Data & IA, capable de piloter l’ensemble du cycle de vie de nos produits data/IA, de soutenir la montée en compétence des équipes, et d’assurer la cohérence technique et opérationnelle de notre écosystème data. Livrables Activités & responsabilités 1. Constitution & maturité des équipes Data & IA - Recruter, staffer et faire monter en compétence les équipes Data/IA. - Assurer un équilibre entre roadmap produit et ressources Tech Data/IA. - Garantir l’adoption des bonnes pratiques (clean code, sécurité, data quality, éthique de l’IA, observabilité). 2. Management de proximité - Encadrer les développements Data & IA et promouvoir une culture de feedback. - Gérer la motivation, la cohésion et la montée en compétence des équipes. - Définir les objectifs individuels et collectifs, et suivre leur atteinte. 3. Delivery & Production - Piloter la qualité du delivery des solutions Data & IA (délais, coûts, engagements). - Mettre en place des standards et process de delivery adaptés (MLOps, CI/CD pour modèles IA, monitoring des données et modèles). 4. Collaboration avec les équipes Produits & Métier - Aligner les équipes Data/IA avec les enjeux produits et métiers. - Travailler avec les responsables produit, data owners et business stakeholders pour transformer les besoins en solutions concrètes. 5. Contribution technique - Participer à la définition des solutions Data & IA en gardant un rôle de facilitateur technique (sans être sur le chemin critique). - Challenger les choix technologiques (data architecture, frameworks IA, cloud) et favoriser l’innovation. - Développer une vision long terme sur la gouvernance et la stratégie Data & IA. ## Interactions - Avec l’écosystème Tech et Produit : pour le pilotage des équipes et le delivery des projets Data & IA. - Avec les équipes Métier : pour comprendre les besoins et maximiser la valeur business des cas d’usage IA. - Avec les RH / Managers RH : pour le suivi des collaborateurs (formation, évolution, mobilité). Description - Garantir la cohérence technique et la qualité des produits Data & IA en collaboration avec les experts et les équipes de delivery. - Encadrer et faire grandir les équipes de développement Data/IA (DE , travailler avec des DS, MLOps, etc.) pour répondre aux enjeux business et techniques. - Définir et piloter la trajectoire de delivery (qualité, respect des engagements) pour assurer la mise en production fluide et sécurisée des solutions Data & IA. - Maintenir et développer les compétences clés des équipes dans un contexte technologique en forte évolution (cloud data platforms, IA générative, big data, MLOps). - Assurer la qualité de service en production des solutions Data & IA (robustesse, performance, monitoring, observabilité).

Mission freelance
ARCHITECTE DATA
Dans le cadre d'un projet pour l'un de nos clients dans le secteur de la monétique, vous interviendrez au sein de l’équipe d’architecture, l’architecte data aura pour mission de concevoir et mettre en œuvre la gouvernance des données de la solution applicative. L'objectif sera d'accompagner notre client sur l'étude, l'aide à la gouvernance Data, et la mise en œuvre. Principales activités Etude de l’existant de la solution Proposition d’une gouvernance data utile et efficace en cohérence avec l’organisation et la structure de la société Définition de l’architecture data de la solution applicative Collaboration avec les équipes métiers, techniques et sécurité pour garantir l’alignement des pratiques data. Définition ou proposition d’évolution des référentiels de données, dictionnaires de données et règles de gestion. Participation à la mise en place d’outils de gouvernance (Data Catalog, Data Quality, MDM, etc.). Accompagner les équipes dans l’adoption des bonnes pratiques de gestion des données. Assurer une veille technologique et réglementaire sur les sujets data.

Mission freelance
Expert Data Gouvernance
Pour le besoin de mon client, je suis à la recherche d'un Expert Data Gouvernance pour Définir des processus de gouvernance; Mise en place des rôles data; Cadrage centralisé/décentralisé; Conduite des comités .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... .. .. .. ... .. .. ... ... ... ..

Mission freelance
Data & AI Product Manager – Lille
Nous recherchons un Data & AI Product Manager expérimenté, capable de piloter des projets d’Intelligence Artificielle ambitieux et stratégiques. Votre rôle sera de transformer les besoins métiers en solutions concrètes basées sur l’IA : modèles prédictifs à grande échelle, systèmes de recommandation, outils d’aide à la décision et produits data innovants. Vous animerez une équipe de Data Scientists, Machine Learning Engineers et BI Engineers, et serez le garant de la vision produit comme de la qualité des livrables. Votre mission consistera à comprendre en profondeur les enjeux métiers, co-concevoir des solutions IA adaptées, prioriser la roadmap, et accompagner les phases de conception, déploiement et évolution. Vous jouerez un rôle clé dans la création de valeur par l’IA, au service d’une entreprise engagée dans la Tech4Good. Début des entretiens le 25/08.
Offre d'emploi
Data analyst H/F
🎯 Venez renforcer nos équipes ! Afin d’accompagner nos clients finaux et de renforcer nos équipes dans le cadre de projets à forte valeur ajoutée sur nos activités, nous recherchons pour notre agence Lilloise un Data Analyst H/F. 📍 Ce qui vous attend : Intégré à l’une de nos équipes, vous participerez aux différentes phases d’analyse et de traitement de la donnée. Vos principales missions permettront de collecter, organiser et exploiter les données stratégiques du client afin de mettre à sa disposition des informations et des outils fiables pour l’aider à prendre des décisions pertinentes. Dans ce cadre, vos principales activités s’articuleront autour de : L’analyse et la compréhension des enjeux et besoins métiers et techniques La localisation et la compréhension des données de production, des processus de mise à jour et des règles de gestion des données La définition de l'architecture et l’identification des spécifications techniques du système cible en tenant compte de l'ensemble des contraintes Le développement de l'ensemble des processus d'intégration : préparation, extraction, transformation, chargement La modélisation et l’enrichissement des DataLakes, DataWarehouses et DataMarts dédiés à une fonction particulière dans l'entreprise La mise en œuvre des outils d'analyse et tableaux de bords associés permettant une exploitation de données collectées en réponse aux besoins clients

Offre d'emploi
Data Governance Manager
Bonjour à tous :) Nous recrutons un(e) Consultant(e) Data Governance pour accompagner l’un de nos clients du secteur Banque/Finance dans la mise à jour stratégique de sa politique de gouvernance des données ! Vous interviendrez au sein du département Data Office, dans un contexte de transformation du cadre de gouvernance à l’échelle du groupe. La mission : Vous serez amené(e) à : • Analyser les écarts entre le framework de gouvernance du client et celui du groupe. • Contribuer à la refonte complète de la politique de gouvernance des données. • Rédiger les chapitres de la politique de manière claire et opérationnelle. • Élaborer les procédures associées aux différents volets de la gouvernance. • Traduire certains documents du framework en français. • Participer au plan de communication interne autour de la mise à jour. • Travailler sur l’opérationnalisation du nouveau cadre de gouvernance. • Définir les matrices RACI entre les parties prenantes (DPO, CISO, DCIO…) Vous êtes en CDI et dispo très rapidement idéalement sous une semaine ? N'hésitez pas à envoyer votre CV !

Offre d'emploi
Tech Lead expérimenté Cash Management
Vous intégrerez les équipes du Cash Management Services (CMS), en tant que Technical Lead expérimenté Vous aurez pour missions principales de : Coordonner et animer une équipe de développeurs Garantir la qualité des développements et l’exploitabilité des applications Gérer la relation avec l’équipe projet, avec les architectes, avec d’autres cellules de développeur, avec CA-GIP Encadrez les membres de l’équipe, et savoir les coacher sur un sujet technique et/ou méthodologique que vous maîtrisez Assurer le support des composants développés et du périmètre en charge Veillez à la cohérence des solutions dans l’urbanisation CA-CIB en prenant en compte la sécurité et la performance Participer à la définition des solutions techniques Participer et être à l’origine d’améliorations régulières du service Collaboration étroite avec les analystes, les designers et les équipes en charge du support et des infrastructures Participer à la conception des solutions techniques adaptées et à la mise en place de nouvelles architectures (nouvelles architectures (API, microservices, Cloud) Assurer le développement et la maintenance évolutive et corrective des applications Garantir que les contraintes d’assurance qualité, de performance, de stabilité, de maintenabilité et d’évolutivité sont respectées Respecter les standards de développement mis en place (CI/CD, DDD) et promouvoir les pratiques de tests systématiques (BDD/TDD) Assurer la rédaction des documents techniques et projets.

Mission freelance
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Offre d'emploi
Data lake protection
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons sur Toulouse le profil suivant : Intégrer les solutions de Data Leak Protection (DLP) en établissement Contrainte forte du projet - Les livrables sont Solutions et Règles DLP Analyse des évènements générés Rapport/Tableaux de bord de l'activité Compétences techniques Outils Data Leak Prevention - Confirmé - Impératif Splunk - Confirmé - Important Développement / Scripting - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Description détaillée Le département Cloud, Application, Data et Expertise Sécurité de la Direction Sécurité de BPCE-IT recherche pour le service Data Protection un expert en Data Leak Prevention de formation ingénieur pour l'accompagner dans sa mission de protection des données sensibles Au sein d'une équipe de plusieurs experts, la mission s'inscrira dans le cadre d'un projet visant à prévenir de la fuite de données. Les principales activités seront les suivantes: - Capture des besoins de protection des données sensibles métiers - Définition, paramétrages et amélioration des règles DLP - Améliorer les solutions de détections - Participer aux choix et à la mise en oeuvre des nouveaux outils - Analyse des évènement générées et optimisation des faux positifs - Suivi des rémédiations - Définition, suivi des indicateurs de l'activités - Création d'un tableau de bord Pour remplir cette mission les compétences suivantes sont demandées: - Compétences fonctionnelles et techniques sur les sujets DLP - Connaissances des outils Trellix DLP, Netskope, Splunk - Compétence de développement (PowerApp, PowerBI, Python) - Culture en SSI/Cybersécurité et en particulier sur les risques associés aux fuites d'information - Connaissances techniques générales Lieu de réalisation Toulouse Déplacement à prévoir oui - Paris, Lyon Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format Word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Offre d'emploi
Développeur Back-End PHP/Symfony Sénior- Sophia Antipolis (H/F)
Contexte Notre client final recherche un Développeur Back-End PHP/Symfony Sénior pour intervenir sur des projets stratégiques liés à la GED et à l’identité numérique. La mission inclut la conception et l’implémentation d’API REST sécurisées, l’optimisation des flux de traitement (forte volumétrie, asynchronisme), ainsi que la participation aux choix d’architecture (microservices, performance, observabilité). Le développeur aura un rôle clé dans l’industrialisation (CI/CD, monitoring, tests), la qualité logicielle et l’accompagnement des profils juniors. Missions principales 📌 Développement & architecture Concevoir et implémenter des API REST robustes et sécurisées (JWT, OAuth2). Intégrer et optimiser les systèmes GED (indexation, recherche, archivage, workflows). Mettre en place et optimiser les pipelines de traitement de flux (import/export volumineux, RabbitMQ/Kafka). Contribuer aux choix d’architecture (microservices, découplage, scalabilité). Garantir la qualité du code (clean code, design patterns, DDD). 📌 Qualité & industrialisation Écrire et maintenir les tests unitaires, fonctionnels et end-to-end (PHPUnit, Behat, Postman). Participer à l’industrialisation via CI/CD, Docker, Kubernetes, GitLab/Jenkins. Assurer le monitoring, logging et la performance de la stack technique. Rédiger la documentation technique et fonctionnelle. 📌 Collaboration & leadership technique Accompagner et encadrer les développeurs plus juniors (code review, mentorat). Travailler en équipe pluridisciplinaire (Produit, QA, DevOps, Frontend). Participer à la veille technologique (cloud-native, scalabilité, sécurité). 📦 Livrables attendus Code conforme aux spécifications Documentation technique associée Conception et tests unitaires validés 🛠️ Compétences recherchées PHP 8.x / Symfony 6.4, 7.x – Expert, impératif SQL (PostgreSQL) – Confirmé, impératif Elasticsearch / OpenSearch – Confirmé, souhaité Systèmes de messagerie : RabbitMQ, Kafka, Symfony Messenger Caching : Redis, Varnish, APCu CI/CD, Docker, Kubernetes – Confirmé Tests : PHPUnit, Behat, Postman/Newman Méthodologies : DDD, Clean Architecture, Design Patterns Bonus : standards de dématérialisation et archivage légal

Offre d'emploi
Chef de projet fonctionnel – Mise en place d’une solution de vote par internet (H/F)
Contexte Notre client final recherche un Chef de projet fonctionnel pour piloter la mise en place d’une solution de vote par internet. Le projet, mené en méthodologie Agile, doit respecter un cadre légal strict et des échéances fixes. Le chef de projet aura la responsabilité de coordonner les équipes techniques et fonctionnelles, d’assurer la relation client (RH, organisations syndicales) et de garantir la qualité, le respect du budget et la réussite fonctionnelle de l’opération. Missions principales 📌 Pilotage & organisation Planifier et organiser les opérations en respectant le cahier des charges et les procédures qualité. Piloter les différents intervenants (développement, éditique, assistance technique). Garantir la qualité, la conformité et la réussite de l’opération dans le respect du budget et des délais. Gérer la relation client, conseiller les interlocuteurs et s’assurer de leur satisfaction. Participer aux instances de pilotage Agile (daily meeting, refinement, rétrospectives, démo). Piloter la recette et contrôler la conformité des livrables. Suivre le budget et les aspects contractuels (bons de commande, factures). 📌 Recueil & spécifications Organiser et animer les ateliers de recueil du besoin. Synthétiser et qualifier les besoins exprimés. Superviser ou rédiger les spécifications fonctionnelles. Présenter les spécifications aux différentes équipes. 📌 Conduite du changement Participer aux actions de conduite du changement auprès du client (formations, réunions de présentation). 📦 Livrables attendus Planning et suivi d’avancement Dossier de conception et recette de la solution Mise en place de la cérémonie du vote (scellement, ouverture, clôture, dépouillement, …) 🛠️ Compétences recherchées Pilotage de projets complexes – Confirmé, impératif Méthodologie Agile Scrum – Confirmé, impératif Java – Confirmé, serait un plus Spring Boot – Confirmé, serait un plus

Offre d'emploi
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.