Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Consultant(e) Scientist / Cloud F/H
Mission Vous êtes Informatics lover et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de consultant(e) Data Scientist /Cloud. Votre mission principale consiste à intervenir en clientèle sur des demandes d expertise solution/méthodologie. Grâce à votre expertise en Big Data, vous concevez des plateformes permettant de traiter des volumes importants de données et mettez en place des bases de données. Vous veillez à ce que les pipelines de données déployés soient sécurisés et clairs pour analyser et exploiter la donnée.

Offre d'emploi
Développeur IA / Python (H/F)
📑 CDI (45 – 52K€) / Freelance / Portage Salarial – 🏠 2 jours de télétravail – 📍Rennes – 🛠 Expérience de 5 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur IA / Python (H/F) pour intervenir chez un de nos clients. Contexte : Vous interviendrez dans un projet innovant visant à industrialiser une solution IA générative intégrée au Dossier Patient Informatisé (DPI) . Votre mission : Un premier prototype RAG avancé (Retrieval-Augmented Generation) a déjà été réalisé. La mission consiste à poursuivre son industrialisation , vous serez en charge de : - Optimiser et industrialiser une architecture RAG avancé . - Développer et fiabiliser les pipelines de données en temps réel. - Expérimenter et évaluer de nouveaux modèles de génération et de ranking. - Participer aux développements back (Python, FastAPI) et front (HTML5/CSS/JS). - Collaborer avec le data scientist, les développeurs et les experts fonctionnels du DPI. - Contribuer aux pratiques Agiles et au respect des normes de développement.

Offre d'emploi
Machine Learning Engineer Python confirmé(e) (H/F) (Bordeaux)
skiils recrute un(e) Data Engineer / Python & Machine Learning confirmé(e) (H/F) pour rejoindre une équipe Data et accompagner les projets de déploiement et industrialisation de modèles ML ! Au cœur d’une mission transverse, tu participeras à l’amélioration et à l’industrialisation des workflows ML, en apportant ton expertise Python et en accompagnant les équipes DataScience dans les bonnes pratiques de développement. En tant que tel(le), ton rôle consistera à : Assister et déboguer les équipes DataScience , pour garantir la stabilité et la performance des modèles. Concevoir et industrialiser les processus de déploiement des modèles de Machine Learning , en appliquant les bonnes pratiques de CI/CD . Former et accompagner les Data Scientists aux bonnes pratiques de développement (Clean Code, SOLID, refactoring…). Automatiser les tests fonctionnels et optimiser le code Python pour améliorer fiabilité et performance. Participer à l’industrialisation du déploiement des applications , en maîtrisant l’ensemble du cycle de développement, du build jusqu’à la production. Proposer des améliorations techniques et accompagner les équipes dans l’adoption des solutions. Ton environnement Tu évolueras au sein d’une équipe Data, sur des projets Machine Learning et Python, en interaction directe avec les Data Scientists pour diffuser les bonnes pratiques et optimiser l’industrialisation des modèles.

Mission freelance
MLOps Senior (h/f)
emagine recherche pour l’un de ses clients grand compte un MLOps Senior. Durée : >12 Mois Lieu : 95 Télétravail : Hybride Démarrage : ASAP Résumé Le rôle principal consiste à industrialiser et optimiser des modules d'une application de Pricing & Revenue Management en utilisant des pratiques MLOps sur une infrastructure cloud sécurisée. Responsabilités : * Planifier, exécuter et superviser l'industrialisation de l'application dans le cloud. * Optimiser la performance de l'application en prenant en compte la scalabilité, la latence et les coûts. * Développer et implémenter des pipelines CI/CD robustes pour les modèles de machine learning. Must Haves : * Expérience en MLOps et compréhension des principes de CI/CD. * Maîtrise des infrastructures cloud, notamment Google Cloud Platform (GCP). * Compétences en optimisation des performances des applications cloud. Nice to Haves : * Connaissance des aspects FinOps pour la gestion des coûts dans le cloud. * Expérience avec des modèles de machine learning complexes. Other Details : * Organisation : Une centaine de personnes entre le site et les groupes filiales avec des compétences mathématiques appliquées, y compris des Ingénieurs en RO, Data scientists, MLOps, DevOps. * Technologie : Application déployée sur un cluster Kub on-premise et GCP, incluant des considérations de scalabilité et d'optimisation de la performance.

Mission freelance
Senior Machine Learning Engineer(Computer Vision/ LLMs)
Au sein de l’équipe Digital Data , vous contribuerez en mettant la donnée et l’IA au service de la performance opérationnelle et de l’expérience client. Localisation : Lille ou Paris (hybride possible) Langue : Anglais requis (communication quotidienne dans un contexte international) Démarrage : dès que possible Type de mission : longue durée / temps plein Vos missions En tant que Senior Machine Learning Engineer , vous serez en première ligne pour concevoir, construire et déployer des produits IA de nouvelle génération pour les magasins Decathlon à l’échelle mondiale. Vous interviendrez notamment sur des problématiques de vision par ordinateur, LLMs, prévisions et détection d’anomalies . Responsabilités principales : Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production). Piloter des projets en Computer Vision, LLM, séries temporelles, détection d’anomalies . Collaborer avec les Product Managers, ingénieurs et experts métier pour transformer les besoins en solutions IA robustes et scalables. Travailler sur des jeux de données massifs , en garantissant la qualité, le prétraitement et le feature engineering. Optimiser la performance des modèles et les déployer en production selon les bonnes pratiques MLOps . Explorer et tester de nouveaux algorithmes et outils du monde IA/ML. Encadrer et accompagner des profils plus juniors (Data Scientists / AI Engineers).

Mission freelance
Data Engineer F/H - LILLE
Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Offre d'emploi
Data Engineer Azure / Python
Le rôle consiste à piloter des projets d’intégration temps réel et de data (big data & insights) , en assurant la conception et le déploiement de pipelines de données robustes pour les data scientists et data analysts. Il implique de proposer des solutions techniques adaptées , d’apporter une expertise sur les architectures Cloud , de garantir la qualité et la gouvernance des données (préparation, traçabilité, conformité) et d’optimiser les processus internes. Le poste demande également une collaboration internationale pour partager les bonnes pratiques et améliorer le data-sharing et la protection des données .
Mission freelance
DEVELOPPEUR SSIS CONFIRME
Poste : Développeur(se) ETL / Data Engineer expérimenté(e) Localisation : Projets en France et à l’international (environnement multiculturel) Missions principales : Structurer, modéliser et intégrer les données (ETL, Data Warehouse). Optimiser et maintenir des entrepôts de données complexes. Intégrer de nouveaux périmètres de données. Collaborer étroitement avec les Data Analysts et Data Scientists. Environnement technique : Microsoft SQL Server, SSIS / Data Tools, Power BI. SQL confirmé (obligatoire), Python souhaité. Modélisation en étoile (Star Schema). Profil recherché : Bac+5 (école d’ingénieur ou université). Minimum 5 ans d’expérience en Data Engineering (on-premise et/ou cloud). Maîtrise du développement ETL / Data Warehouse. Langues : Français & Anglais (niveau C1 obligatoire). Espagnol/Portugais = atout. Soft skills : Esprit analytique, rigueur, bonne communication, travail en équipe. Intérêt pour des projets internationaux et multiculturels.

Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform
Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.

Mission freelance
DATA ENGINEER Cloud GCP
CONTEXTE : En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure. MISSIONS : Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à : • La collecte et l’ingestion de différentes sources de données non homogènes • La mise en place de pipelines de traitement de données • Le développement des modèles de données • L’extraction et l’exposition des données du Lakehouse vers d’autres services • L’industrialisation des projets sur la GCP • La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe

Offre d'emploi
Business Analyst Technique (RAG / IA Générative) H/F
Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client. Important : des compétences confirmées en data science liée à la RAG sont attendues. Compétences : • Une expérience confirmée en tant que Business Analyst est impérative. • La maitrise confirmée de l'IA générative et de la RAG est impératif. • Des expériences en data science sont nécessaires. • Capacité à rédiger des documents et synthétiser l'information. • Capacité à trouver des solutions aux problèmes que les métiers peuvent rencontrer. • Capacité à piloter une phase de test et valider que le produit qui permettra de servir les cas d'usages métiers. Softskill : • Excellentes capacités d’intégration, de facilitateur et de pilotage de projets. • Excellentes capacités rédactionnelles et de présentation orale. • Coordination, rigueur, sens du service et du dialogue. • Capacité d’initiative et force de proposition. • L'anglais courant est impératif pour ce poste. Niveau du consultant attendu : Diplômé Bac+5 d’une école d’ingénieur ou équivalent.

Mission freelance
Analytics Engineer Senior - Workday Finance (localisation Lille)
Contexte du poste L’Analytics Engineer est chargé de délivrer des datasets modélisés pour un domaine métier afin d'accélérer les cas d’usage. Il en assure la qualité , la disponibilité , le suivi et l’ accessibilité , pour permettre aux utilisateurs d’exploiter efficacement les données (Self Service Analytics, analyses, modèles, dashboards). Missions principales 1. Délivrer les bonnes données, à temps Assurer le rafraîchissement fréquent et fiable des données pour soutenir la prise de décision. Garantir la stabilité et la fiabilité des datasets exposés. Corriger rapidement les données corrompues. Anticiper et planifier l’évolution des datasets. Déployer les évolutions avec un délai court mais soutenable. 2. User Centric Connaître les utilisateurs et comprendre leurs usages métiers. Collaborer avec les PM Analytics, Data Analysts, Data Scientists et BI Engineers. Automatiser puis industrialiser les datasets nécessaires aux use cases. Suivre et mesurer l’utilisation réelle des datasets. Définir et communiquer le niveau de confiance dans les données. Informer sur l’état et les éventuelles corruptions des datasets. 3. Playmaker / Team player Participer au recrutement et à l’onboarding des nouveaux membres. Contribuer à la communauté Data (partage d’expérience, ateliers, revues de code, pair programming). Collaborer avec les équipes Core Data Products pour fiabiliser les pipelines. Être force d’entraide et de transmission auprès des autres Analytics Engineers. 4. Better Way Améliorer en continu les pratiques de delivery data. Faire évoluer la stack et les outils. Être proactif sur l’amélioration des processus. Contribuer à la réduction de l’impact écologique et économique des solutions déployées. Compétences techniques : Data modeling dbt SQL Tests and expectations Git Airflow Python Spark Data Architecture Databricks Redshift Indicateurs de performance Fiabilité et fraîcheur des données exposées Temps de correction des anomalies Fréquence des déploiements et time to market des datasets Satisfaction et autonomie des utilisateurs Contribution à la communauté Data et aux rituels d’équipe

Offre d'emploi
Développeur fullstack (F/H)
🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Développement Frontend 🔸 Concevoir et développer des interfaces utilisateur réactives et responsives 🔸 Utiliser les frameworks frontend modernes et respecter les bonnes pratiques UI/UX Développement Backend 🔸 Assister à la mise en oeuvre de solutions complètes 🔸 Concevoir et développer des architectures et API robustes et scalables 🔸 Intégrer et exploiter des modules d’IA (inférences, RAG, agents…) 🔸 Gérer efficacement les bases de données relationnelles et NoSQL Intégration et Déploiement 🔸 Déployer les applications sur des environnements cloud (privé ou public) 🔸 Mettre en place et optimiser les pipelines CI/CD pour automatiser tests et déploiements Gestion de Données pour l’IA 🔸 Collecter, nettoyer et préparer les données issues de différentes sources 🔸 Assurer la conformité et la sécurité des données (RGPD) 🔸 Optimiser les flux et pipelines de données en collaboration avec les data scientists Collaboration et Qualité 🔸 Maintenir la qualité du code via tests unitaires (Pytest, Jest, etc.) 🔸 Collaborer étroitement avec les équipes techniques (DevOps, Data, etc.) Suivi de Projet 🔸 Gérer les priorités et assurer le respect des délais 🔸 Communiquer régulièrement sur l’avancement et les obstacles

Offre d'emploi
Data Engineer Stambia (F/H)
CDI/ Freelance/ Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous êtes passionné(e) par la gestion, l’intégration et la qualité des données dans un environnement exigeant comme la banque ? Vous aimez structurer, cartographier et rendre les données fiables et exploitables pour les équipes métiers et Data ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la mise à disposition qualitative et sécurisée des données aux équipes Data Analysts, Data Scientists et métiers - Participer à la définition de la politique de la donnée et à la structuration de son cycle de vie dans un contexte bancaire (sécurité, conformité, traçabilité) - Superviser et intégrer les données issues de multiples systèmes bancaires et réglementaires , et contrôler leur qualité avant leur intégration dans le Data Lake - Développer, structurer, cartographier et nettoyer les données tout en respectant les exigences réglementaires (ex : BCBS239, GDPR, RGPD bancaire) - Produire les livrables : flux d’intégration sous Stambia, Data Lake partagé, cartographie des données, documentation technique et reporting
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.