Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Consultant Dev / Tests Techniques Angular & Python- Nantes (H/F)
🔍 Mission Vous interviendrez en tant que Consultant Développeur / Tests Techniques au sein d’une équipe dédiée à l’homologation technique des applications de banque à distance. Votre rôle sera partagé entre : Le développement de nouvelles fonctionnalités Front-Office / Back-Office d’un portail transverse. La réalisation de tests techniques (performance, charge, exploitabilité) sur des applications et infrastructures conteneurisées. 💡 Compétences requises Maîtrise confirmée en Angular (v19) et Python (3.12, Flask, API Rest) Expérience en Docker / OpenShift Connaissances en méthodologie de tests techniques / performance (TNR, HTTP) Atouts supplémentaires : CI/CD ( Jenkins, Bitbucket, XL-Deploy, XL-Release ), environnements Java JEE, connaissance du métier bancaire. 📊 Vos responsabilités Concevoir, développer et maintenir les fonctionnalités FO/BO du portail transverse Participer aux sprints Agile (Kanban/Scrum), contribuer à la documentation et relire les PR Préparer et exécuter des tests techniques (Néoload, serveurs distribués) Identifier les dysfonctionnements, analyser les résultats et proposer des améliorations Rédiger des rapports détaillés pour appuyer les décisions GO/NOGO en mise en production Contribuer à l’ industrialisation et à l’automatisation des tests 📅 Livrables attendus Fonctionnalités développées et validées (FO/BO) Documentation technique et rapports de tests Scénarios et plans de tests capitalisés pour les futures intégrations Dashboards et outils techniques pour améliorer la qualité et la performance Lieu : Saint-Herblain (Nantes) – 3 jours sur site
Offre d'emploi
Tech Lead Data Engineer H/F
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : g3okq4hi55
Mission freelance
INGENIEUR RESEAU
🎯 Missions principales : - Administrer et maintenir les infrastructures réseaux (switchs, Wifi, sécurité, IPAM/DHCP) - Diagnostiquer et résoudre les incidents de niveau 2 et 3 - Participer à la mise en œuvre et à l’évolution des projets réseaux et sécurité - Contribuer au renforcement des politiques de sécurité et à leur application - Collaborer avec les différentes équipes IT pour assurer la disponibilité et la performance des services - Être force de proposition dans l’amélioration et l’optimisation des infrastructures
Offre d'emploi
Data engineer ETL Airflow
Data/ML Engineer – Secteur bancaire (IDF) – DISPO ASAP – MISSION LONGUE Contexte : Accélération IA – chantier Knowledge Management pour constituer une base de connaissance à partir de documents non structurés (PDF, Word, HTML). Un pipeline initial existe et doit être industrialisé pour une exécution fiable, scalable et maintenable. Objectif : Développer les pipelines d’ingestion, transformation et alimentation de la base, en assurant versioning et traçabilité . Activités : Modéliser l’architecture technique (ingestion → stockage) Développer des flux ETL modulaires (OCR, transformation, enrichissement) Standardiser le format pivot et les conventions de métadonnées Assurer l’historisation, le versioning et la traçabilité des documents Implémenter un orchestrateur (Airflow/Dagster/Prefect) si nécessaire Suivre la robustesse sur des volumes variés Collaborer avec les équipes KM et Data Science Documenter l’ensemble des flux de traitement

Offre d'emploi
DevSecOps Multi-Cloud - LYON
Missions principales Mettre en place et maintenir des pipelines CI/CD sécurisés pour des environnements multicloud (AWS, GCP, Azure). Définir et implémenter les standards DevSecOps (SAST, DAST, IAST, Secret Scanning, compliance). Intégrer la sécurité dans toutes les étapes du cycle de delivery (SecDevOps). Assurer le monitoring, l’observabilité et la gestion des vulnérabilités sur les environnements Cloud. Développer et maintenir des modules Terraform standardisés et réutilisables. Collaborer avec les équipes SRE et Cloud Architects pour industrialiser les environnements.

Mission freelance
Consultant Quality Conformance Management Toulouse secteur aéro
🛎️ Je recherche un profil freelance QCM 💎 (Quality Conformance Management) basé idéalement à Toulouse pour intervenir à 100% sur site client dans le secteur aéronautique ✈️. QCM Hardskills: - Connaissance de l'aéronautique avec idéalement une expérience QAL sur les FAL - Analyse de données non qualité - Production & ME digital tools - Expertise en résolution en problèmes - Gestion de projets QCM Softskills: - Avoir une position de Lead & Drive - Savoir prendre du recul (Macro-Micro) - Responsabilité - Bonne communication - Esprit d'analyse - Travail en équipe Langue: Anglais et Français mandatory 🤚 Opportunité ouverte pour le freelancing uniquement basée à Toulouse Début de mission: Octobre 2025 ( voir avant ASAP) TJM max: 450 € HT TFC Toulouse
Offre d'emploi
Data Scientist
Contexte de la mission Projets innovants depuis la R&D jusqu’au packaging pour industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objectifs et livrables Objet de la mission Le portefeuille projets de l’équipe est constitué de plusieurs projets de Data Science sur les sujets suivants : - Lutte contre la fraude - Analyse et réaction post-event sinistres, en particulier sur les périls climatiques - Prévention des sinistres graves Le consultant sera responsable de la cohérence technique des développements sur les projets de Data Science de l'équipe, du cadrage au déploiement en production. Principaux volets de la mission : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l'équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l'équipe concernant les travaux d'industrialisation des modèles effectués par l'IT de L'organisation, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l'équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l'équipe - Apporter un œil nouveau dans l'amélioration continue des modèles développés par l'équipe (utilisation de données non structurées, données externes…) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets.

Mission freelance
Data Engineer Apache Flink H/F
Dans le cadre de la mise en production d’une solution de traitement de flux temps réel , une grande entreprise internationale du secteur du luxe et de la beauté recherche un Data Engineer confirmé pour finaliser et industrialiser un POC développé avec Apache Flink (Python) . L’objectif principal est de stabiliser la pipeline de streaming existante , d’assurer la compatibilité avec l’infrastructure actuelle (notamment Elasticsearch), et de garantir un passage en production performant et fiable . Le consultant interviendra au sein d’une équipe Data pluridisciplinaire (Data Engineers, DevOps, experts cloud) et jouera un rôle clé dans la réussite du projet, de la revue technique du POC jusqu’à la mise en production sur Kubernetes .
Offre d'emploi
Data Scientist F/H
Genious Systèmes recherche pour son client un(e) Data Scientist F/H Dans le cadre d’un renfort d’équipe avec des compétences de Data Scientist, il participera aux bons usages techniques et fonctionnels des données au sein d’une direction métier. Accompagner les utilisateurs lors de la mise en place de Data Prep, d’analyse de données, de KPIs, de dashboards... Accompagner techniquement et former d’autres Data Scientists ainsi que des Data Analysts, Valider la mise en place des bonnes pratiques. Assurer le suivi des performances et participera aux phases d’optimisation. Participation à l’homogénéisation et l’industrialisation des phases de Data Prep. Maîtrise Python Spark sur un environnement Cloud ainsi que le dashboarding et la Data Viz (Looker, Kibana, Grafana). L’environnement technique sera principalement constitué de : Databricks Looker Prometheus Tempo Grafana Elastic Kibana

Mission freelance
Engineering Manager / Manageur DATA/IA (F/H)
Contexte Dans un contexte de forte croissance des usages numériques et d’accélération de la transformation digitale , les données et l’intelligence artificielle constituent des leviers stratégiques pour améliorer l’expérience client, optimiser les opérations et soutenir l’innovation. La montée en puissance de nos plateformes data, combinée à l’émergence de nouvelles technologies (cloud data platforms, big data, IA générative, MLOps), exige un pilotage technique et organisationnel solide pour garantir la qualité, la robustesse et la scalabilité de nos solutions. Afin d’accompagner cette dynamique, la société souhaite renforcer son organisation en s’appuyant sur un prestataire disposant d’une forte expertise en management et delivery d’équipes Data & IA, capable de piloter l’ensemble du cycle de vie de nos produits data/IA, de soutenir la montée en compétence des équipes, et d’assurer la cohérence technique et opérationnelle de notre écosystème data. Livrables Activités & responsabilités 1. Constitution & maturité des équipes Data & IA - Recruter, staffer et faire monter en compétence les équipes Data/IA. - Assurer un équilibre entre roadmap produit et ressources Tech Data/IA. - Garantir l’adoption des bonnes pratiques (clean code, sécurité, data quality, éthique de l’IA, observabilité). 2. Management de proximité - Encadrer les développements Data & IA et promouvoir une culture de feedback. - Gérer la motivation, la cohésion et la montée en compétence des équipes. - Définir les objectifs individuels et collectifs, et suivre leur atteinte. 3. Delivery & Production - Piloter la qualité du delivery des solutions Data & IA (délais, coûts, engagements). - Mettre en place des standards et process de delivery adaptés (MLOps, CI/CD pour modèles IA, monitoring des données et modèles). 4. Collaboration avec les équipes Produits & Métier - Aligner les équipes Data/IA avec les enjeux produits et métiers. - Travailler avec les responsables produit, data owners et business stakeholders pour transformer les besoins en solutions concrètes. 5. Contribution technique - Participer à la définition des solutions Data & IA en gardant un rôle de facilitateur technique (sans être sur le chemin critique). - Challenger les choix technologiques (data architecture, frameworks IA, cloud) et favoriser l’innovation. - Développer une vision long terme sur la gouvernance et la stratégie Data & IA. ## Interactions - Avec l’écosystème Tech et Produit : pour le pilotage des équipes et le delivery des projets Data & IA. - Avec les équipes Métier : pour comprendre les besoins et maximiser la valeur business des cas d’usage IA. - Avec les RH / Managers RH : pour le suivi des collaborateurs (formation, évolution, mobilité). Description - Garantir la cohérence technique et la qualité des produits Data & IA en collaboration avec les experts et les équipes de delivery. - Encadrer et faire grandir les équipes de développement Data/IA (DE , travailler avec des DS, MLOps, etc.) pour répondre aux enjeux business et techniques. - Définir et piloter la trajectoire de delivery (qualité, respect des engagements) pour assurer la mise en production fluide et sécurisée des solutions Data & IA. - Maintenir et développer les compétences clés des équipes dans un contexte technologique en forte évolution (cloud data platforms, IA générative, big data, MLOps). - Assurer la qualité de service en production des solutions Data & IA (robustesse, performance, monitoring, observabilité).

Offre d'emploi
Data Scientist (H/F)
Nous recherchons un.e Data Scientist Sénior afin de contribuer à l’exploitation et à la valorisation des données stratégiques. Le rôle implique la mise en production de solutions data, l’industrialisation de traitements et le développement de modèles avancés pour répondre aux enjeux métiers. Vos futures responsabilités : Concevoir, développer et mettre en production des modèles de Machine Learning et d’analytique avancée Contribuer à l’industrialisation et à l’automatisation des traitements data à grande échelle Travailler sur des problématiques liées au domaine de l’énergie et de l’électricité Collaborer avec les équipes métiers et techniques pour transformer les données en leviers d’optimisation Garantir la qualité, la fiabilité et la performance des modèles déployés
Offre d'emploi
Tech Lead Data Engineer H/F
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : otb2ub1h26
Offre d'emploi
INGENIEUR DE PRODUCTION OPCON
Vos missions : Sur la partie « RUN » Gérer le cycle de vie complet de l'infrastructure liée aux applications. En assurant : Le support technique N3 sur les applications de la BI, pour diminuer backlog des incidents, Apporter un soutien aux études et infogérance pour les incidents majeurs S’interfacer avec les équipes DBA Connaissance en language de BDD( SQL) Administrer l’ordonnanceur OpCoN et automatiser les traitements Supervision et monitoring Rédaction de scriptshell et .bat Intégrer les nouvelles applications, traiter, mettre à jour et contrôler l’exploitabilité sur la production Définir les stratégies de sécurité pour les utilisateurs et groupes AD. Gérer les droits d'accès à l’Active Directory : Créer user, groupe d'accès Gérer les serveurs (physiques et virtuels) Windows Conduire les tests de PRI avec le SME (inde) Participer à l’intégration sur les envi hors prod et mettre en Œuvre dans les environnements de production, les traitements techniques et fonctionnels. Accompagner les chefs projets Technique en tant que spécialiste de la production Intégration et déploiement de projets Industrialiser Piloter l’externalisation partielle des activités de production Transformation : Accompagner le “move to run “ Vérifier et mettre à jour tous les documents Ø Force de proposition d’amélioration Environnement : OS : VCenter. Windows server, 2008, 2012, 2016, 2019. Windows 7/10. Red Hat 6, 7, Ordonnanceur : OpCON 19, 20 . DB : Microsoft SQL server management, SQL Server. IBM Cognos, Datamanager. Cloud Snowflake, AWS. Reporting Splunk, Dynatrace, Turbonomic, SSMS. Supervision : Service NAV supervision Profils : Maitrisé : OS : Windows 2008->2019, Red Hat 6/7 Ordonnanceur : OpCON 19,20 / Control M Db : Microsoft SQL server management, SQL Server. IBM Cognos, SSMS Supervision : Service NAV supervision Langue : Anglais fluent (écrit et oral) Process : ITIL Autres competences ++: Power BI, Gammasoft, Datamanager. Cloud Snowflake, AWS. Reporting Splunk, Dynatrace, Turbonomic, SSMS,TMOne

Offre d'emploi
Architect Data (H/F)
La mission consiste à assurer la responsabilité de l’architecture de bout en bout des solutions data et analytiques. L’architecte devra concevoir et piloter des solutions sécurisées, évolutives et optimisées en coûts, en s’appuyant sur la plateforme de données de l’entreprise (entrepôt de données, lakehouse, streaming, ML, environnements cloud et on-premise). L’objectif est de garantir la cohérence de l’architecture, la gouvernance des données et la performance des usages analytiques et métiers. Activités principales • Définir et maintenir l’architecture data couvrant ingestion batch/stream, entrepôt de données (modèles Kimball/Star), lakehouse (Iceberg/Trino) et exposition via SQL, API ou couche sémantique. • Concevoir les modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation). • Encadrer la mise en place de la couche sémantique et des métriques, assurer la gouvernance des KPI, optimiser les performances des requêtes et tableaux de bord, favoriser l’auto-consommation via dbt/metrics layer et catalogues. • Mettre en place les pratiques d’observabilité, runbooks, SLOs, backfills, ainsi que l’optimisation coûts/performance (FinOps). • Définir les standards de gouvernance : métadonnées, documentation, data contracts, blueprints, architecture decision records (ADR). • Contribuer à la définition et à la priorisation des besoins métiers en lien avec les Product Owners, Delivery Leads et parties prenantes. • Fournir des rapports réguliers sur l’avancement, les jalons atteints et les difficultés rencontrées. Livrables attendus • Architecture one-pager, modèles sémantiques et KPI tree. • Data contracts, ADRs/HLD. • Runbooks, SLOs, modèles de coûts. • Documentation technique et fonctionnelle.
Mission freelance
Consultant Marketing BI / Power BI / Salesforce H/F/NB
Un grand groupe leader dans le secteur de l'assurance recherche un consultant BI Senior pour renforcer son équipe Marketing sur des projets stratégiques d'automatisation et de performance analytique. Vous interviendrez dans un environnement international stimulant. 🚀 Vos missions : Automatiser les reportings marketing multi-stakeholders Fiabiliser et structurer les flux de données issus de Salesforce et autres sources externes Créer des tableaux de bord Power BI avancés avec Power Query et DAX Croiser et intégrer des données complexes pour des analyses marketing approfondies Optimiser la performance analytique de l'équipe Marketing

Offre d'emploi
Chef de projet data
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client basé à Paris, un CHEF(FE) DE PROJET MAITRISE D'OUVRAGE – MOE - Confirmé (4-10 ans d’exp) azure - Confirmé - Impératif modelisation data - Confirmé - Impératif databricks - Junior - Important méthodo agile - Junior - Important - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Peut contribuer à l'Etude d'Opportunité (EO) pour le lancement d'un projet Est responsable de l'Etude de Faisabilité (EF) des projets qui lui sont confiés et prend en compte l'ensemble des éléments fonctionnels et techniques S'assure de l'adéquation des ressources avec les besoins du projet S'assure de l'application des directives définies en DAG (Dossier d'Architecture Général) pour structurer le projet et mobiliser les ressources nécessaires à sa bonne réalisation Contribue à la revue et à la négociation des contrats, en lien avec la Direction Juridique, les Achats Non Marchands et la Direction porteuse du projet Met en application les procédures internes ou externes Est responsable de la bonne mise en œuvre de la gouvernance du projet Pilote les actions nécessaires au respect du budget du projet Pilote et coordonne les partenaires et sous-traitants Gère et anime la communication auprès des équipes et des différentes instances Contribue à la préparation et mise en œuvre de la conduite du changement avec les métiers Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.