Trouvez votre prochaine mission ou futur job IT.
 
            Offre d'emploi
            
        MLOps Engineer
      
 En tant que MLOps confirmé, l'objectif est de fournir une plateforme de données aux data scientists, tout en industrialisant les modèles d'apprentissage automatique. Il sera important d'être autonome sur l'industrialisation de modèles, mais également sur l'infra (compréhension de Docker/Kubernetes, mais aussi les modèles ML...) L'environnement technique comprend notamment: Python 3, OpenIDConnect, FastAPI, Redis, Ansible, Docker, Kubernetes, Beats, Elasticsearch, Grafana, Gitlab CI, Artifactory, Sonarqube...
 
            Mission freelance
            
        Data Manager - H/F - 75 + remote
      
 Dans un contexte de forte croissance, notre client souhaite consolider ses modèles de données analytiques et améliorer la maturité agile de son équipe Data Platform. Mission Concevoir, documenter et maintenir les modèles de données analytiques (Silver & Gold layers dans Snowflake) Collaborer avec les Data Engineers, Analysts et Data Scientists pour garantir la cohérence et la performance des modèles Contribuer à la structuration des rituels d’équipe : sprint planning, stand-ups, revues, rétrospectives Accompagner la montée en maturité sur les bonnes pratiques de delivery et de gouvernance technique Participer à la mise en place de standards de modélisation et de tests de qualité dans dbt Documenter les modèles dans DataGalaxy (data catalog, lineage, ownership)
            Offre d'emploi
            
        Ingénieur DataOps IA 
      
 Au sein de l’équipe Data & IA, vous participerez activement à la mise en production et à la fiabilisation des plateformes de données et des modèles IA. Vous interviendrez sur les volets suivants : Développement et automatisation de pipelines Data/ML (ETL, CI/CD, orchestration). Industrialisation et monitoring des modèles de Machine Learning. Déploiement d’infrastructures Cloud sur GCP (Vertex AI, BigQuery, Dataflow, Cloud Run) et AWS (S3, Lambda, SageMaker). Implémentation d’une approche Infrastructure as Code (Terraform, CloudFormation). Optimisation de la performance, la sécurité et la résilience des environnements. Collaboration étroite avec les Data Scientists pour fiabiliser les déploiements de modèles IA.
 
            Offre d'emploi
            
        Développeur Data (Bordeaux)
      
 En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
 
            Mission freelance
            
        Data Engineer - Spark Hadoop - 2 jours TT - Service Public
      
 Concevoir, développer et maintenir des pipelines de données robustes et scalables (batch et streaming). Participer à la mise en place et à l’optimisation de la plateforme Big Data (Hadoop/Spark). Intégrer, transformer et nettoyer des données issues de différentes sources (API, bases relationnelles, fichiers plats, etc.). Collaborer étroitement avec les Data Scientists et Data Analysts pour la préparation et la mise à disposition des datasets. Contribuer aux bonnes pratiques de développement, d’automatisation (CI/CD), et de gestion de la qualité des données. Assurer la documentation technique et la maintenance des flux existants. Participer à la montée en compétences de l’équipe interne sur les outils Big Data.
            Mission freelance
            
        Business analyst technique (RAG / IA Générative)
      
 🎯 Missions principales Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. Suivre la production afin de garantir la satisfaction du client. 🧰 Environnement technique et fonctionnel Compétences analytiques requises : SQL, BI, statistiques de base Connaissance des problématiques fonctionnelles autour de la Data Ingénierie et de la BI Capacité à dialoguer avec des profils techniques et fonctionnels Expérience en environnement bancaire ou réglementaire appréciée
 
            Mission freelance
            
        Teach Lead
      
 Contexte / mission : Nous recherchons un data engineer senior, avec une forte expérience en Java/Spark, pour rejoindre l’équipe XXXXXXXX. L’équipe XXXXXXXXX est composée de business analysts, développeurs interfaces graphiques, data scientists et data engineers. Les data engineers sont responsables de la partie prétraitement des données. Ils gèrent les pipelines de données qui alimentent les modèles prédictifs, avant de transférer les données calculées vers le back-end des interfaces graphiques. La solution actuelle, on-premise, est en cours de migration vers GCP. Domaine métier : E&M
 
            Offre d'emploi
            
        Développeur Python / Django
      
 Descriptif du poste La prestation se fera au sein d'une équipe IT dédiée. Le prestataire interviendra comme développeur senior sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix sur le marché de l'électricité Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Le développement de correctifs et d'évolutions sur l'ensemble du périmètre • Définition de nouvelles architectures et implémentation de nouvelles solutions • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Le support technique et accompagnement des utilisateurs (analystes, data scientists...)
 
            Offre d'emploi
            
        Ingénieur Big Data (F/H) 
      
 A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (40-45K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Lyon - 🛠 Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Ingénieur Big Data pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Analyser le fonctionnement des chaînes communicantes et modéliser leur comportement - Construire des outils de supervision en temps réel et des systèmes de détection automatique d’anomalies - Industrialiser les prototypes pour les intégrer dans des outils de supervision - Encadrer et faire progresser une petite équipe de Data Scientists - Effectuer une veille technologique sur les outils Data & IA utilisés au sein du projet - Participer à la conception de solutions permettant le traitement de gros volumes de données sécurisées
 
            Offre d'emploi
            
        Data Engineer (Bordeaux)
      
 En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
 
            Mission freelance
            
        Data Engineer
      
 Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication
 
            Offre d'emploi
            
        Data Engineer Python / AWS
      
 Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
 
            Offre d'emploi
            
        Business Analyst IA générative et de la RAG - IDF - Plus de 9 ans
      
 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein du Lab Innovation, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). 🤝 Les missions sont : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client.
 
            Mission freelance
            
        Data Engineer Databricks (F/H)
      
 Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).
            Offre d'emploi
            
        Tech Lead Data 
      
 Contexte de la mission Michelin renforce son pôle Data et recherche un Tech Lead Data expérimenté pour intervenir en binôme avec un autre lead sur des projets stratégiques de modernisation et d’industrialisation de la donnée sur Azure Databricks . Le consultant participera activement à la conception, la mise en place et l’optimisation des pipelines Data tout en accompagnant les équipes internes dans la montée en compétences. Responsabilités principales Piloter la conception et l’architecture des solutions data sur Azure Databricks . Garantir la qualité, la performance et la sécurité des flux de données. Encadrer techniquement les développeurs data et assurer le mentoring sur les bonnes pratiques. Participer à la mise en production et à l’industrialisation des traitements. Collaborer avec les équipes BI, Data Scientists et les métiers pour transformer les besoins en solutions concrètes. Mettre en place des standards de développement (CI/CD, tests, monitoring). Profil recherché Expérience : Minimum 6 ans dans l’écosystème Data (dont au moins 2 ans comme Tech Lead ou Référent Technique). Expertise technique : Databricks & Spark (avancé) Azure Data Services (Data Factory, Data Lake, Synapse, etc.) Python et SQL (confirmé) “Vernis” Power BI pour l’interfaçage avec les équipes reporting Soft skills : leadership technique, autonomie, rigueur, communication claire en français et anglais. Bonus : expérience en environnement industriel ou groupe international.
 
            Offre d'emploi
            
        Data Engineer
      
 Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.
Déposez votre CV
-  
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
 -  
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
 -  
100% gratuit
Aucune commission prélevée sur votre mission freelance.