Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 575 résultats.
Freelance
CDI

Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics

Ela Technology
Publiée le
Machine Learning
Python
SQL

6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Freelance

Mission freelance
Expert DATA Décisionnel

Lùkla
Publiée le
Informatica
Python
SAS

2 ans
400-570 €
Île-de-France, France
Expert Data spécialisé dans la mise en place d'architectures data et dans création la création de modèles de données décisionnels. Missions et responsabilités : Pilotage, recueil des usages et réalisation de l’analyse fonctionnelle et technique. Conception et/ou évolution des modèles de données décisionnels (modélisation, règles de gestion, cohérence, traçabilité). Contribution à la définition d’une architecture cible permettant une mise à disposition fiable et pérenne des données et indicateurs. Développement du socle des données (ETL, traitements Altair ou Python) et déploiement auprès des métiers utilisateurs. Animation et coordination des ateliers et travaux entre les parties prenantes. Organisation et validation des phases de tests et de recette. Suivi des actions, des risques et des décisions pour garantir le bon déroulement des projets. Livrables attendus : Document de modélisation des données et règles de gestion associées. Dictionnaire de données. Schéma d’architecture applicatif et technique (Altair). Compte rendu des différents ateliers et instances. Documentation de recette et supports d’accompagnement.
CDI

Offre d'emploi
Data Engineer Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
[LFR] Data Engineer TERADATA ET DATAVIZ, Sénior à Paris - 1456

ISUPPLIER
Publiée le

5 mois
300-405 €
Paris, France
Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
CDI

Offre d'emploi
Développeur Mobile iOS F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
JSON
Objective-c
OpenStack

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Responsible AI Lead

ESENCA
Publiée le
Agent IA
Data quality
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la Responsible AI Lead pilote la gouvernance de l’intelligence artificielle et garantit la conformité, la sécurité, l’éthique et la maîtrise des risques des systèmes IA. Encadrement Management d’une équipe spécialisée pouvant inclure : Analyste Responsible AI & Traçabilité Responsable Contrôles & Tests IA (QA IA) AI Policy Manager Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Fonctions conformité (DPO, RSSI, juridique) Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, agents, etc.) Cabinets spécialisés (audit, conformité, IA) Mission Le/la Responsible AI Lead est garant(e) de la gouvernance globale des systèmes d’intelligence artificielle. Il/elle s’assure que les cas d’usage respectent les exigences réglementaires et internes (notamment en matière de conformité, d’éthique, de sécurité et de gestion des risques), tout au long de leur cycle de vie, du cadrage au run. Responsabilités principales 1. Gouvernance et conformité IA Définir et déployer la politique d’usage de l’IA Structurer le cadre de gouvernance (standards, processus, rôles) Classifier les cas d’usage selon leur niveau de risque Définir les exigences de documentation, traçabilité et versioning 2. Gestion des risques IA Conduire les analyses de risques par cas d’usage Classifier les systèmes selon leur criticité (faible, limité, élevé) Définir les contrôles adaptés (tests, supervision, documentation) Coordonner les validations avec les fonctions conformité (juridique, DPO, sécurité) 3. Contrôles et tests IA Définir les stratégies de tests non fonctionnels : robustesse biais sécurité hallucinations dérive des modèles Fixer les critères de validation (go / no-go) Superviser les campagnes de tests IA 4. Documentation et audit Piloter la documentation réglementaire des systèmes IA Maintenir un registre des cas d’usage IA Organiser les audits internes et externes Suivre les plans de remédiation 5. Supervision en production Définir les exigences de monitoring (logs, incidents, dérives) Suivre la performance et la fiabilité des systèmes IA Mettre en place des revues périodiques Piloter la gestion des incidents IA 6. Pilotage des coûts (FinOps IA) Définir les règles de consommation (quotas, garde-fous) Suivre les coûts et l’efficience des solutions IA Recommander des optimisations 7. Diffusion des bonnes pratiques Déployer la charte éthique IA Sensibiliser et former les équipes aux enjeux de l’IA responsable Accompagner les équipes projets dans l’application des standards Promouvoir une culture de l’IA responsable à l’échelle de l’organisation
Freelance

Mission freelance
Data Engineer GCP - Anglais niveau C1

ALLEGIS GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform

18 mois
470-520 €
Paris, France
Intégrer une mission au sein de notre client en tant que Data Engineer GCP. Missions : Créer de nouveaux projets et produits de données sur GCP au sein du sous-domaine Finance Procurement . Participer au développement back‑end sur GCP et, pour certains cas d’usage, créer également le modèle sémantique Power BI . Intégration au sein d’une sous‑équipe de 4 data engineers dans une équipe Finance de 10 personnes au total. 70 % du temps consacré à l’innovation et aux nouveaux projets sur GCP. 30 % du temps dédié à la continuité et à la maintenance.
CDI

Offre d'emploi
Analyste Fonctionnel / Business Analyst - secteur Santé F/H - Maîtrise d'ouvrage et fonctionnel (H/F)

█ █ █ █ █ █ █
Publiée le

Belgique

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Lead technique sénior H/F

CONSORT GROUP
Publiée le
Batch
Boot
Hibernate

58k-65k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Lead technique sénior H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par les architectures logicielles robustes, les environnements DevOps et le développement à grande échelle ? Ce poste est fait pour vous. En tant que Lead Technique , vous êtes responsable de la conception et de la qualité technique de notre écosystème applicatif. Côté build : Concevoir des solutions techniques répondant aux besoins métier dans le respect des contraintes de sécurité Définir et maintenir un backlog technique structuré et priorisé Piloter et accompagner les équipes de développement dans leurs choix techniques Encadrer les développeurs et garantir les bonnes pratiques de développement Participer aux développements sur des sujets complexes Réaliser des revues de code et assurer un haut niveau de qualité logicielle Modéliser les données et définir les architectures applicatives Être force de proposition sur l’amélioration des processus de développement Côté run : Garantir la disponibilité, la performance et la robustesse d’une application critique Participer au diagnostic et à la résolution des incidents de production Assurer le support technique de dernier niveau Analyser les logs et les données pour anticiper et corriger les anomalies Coordonner et piloter les exercices de PRA et PT2R Collaborer avec les équipes pour résoudre les problématiques techniques complexes Veiller à la qualité continue des livrables et des mises en production Animer des ateliers techniques avec les équipes internes et partenaires C’est votre parcours Vous avez au moins 10 ans d’expérience dans des environnements exigeants, dont 4 ans en tant que Lead Technique . Vous aimez relever des défis techniques complexes et structurer des solutions durables sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. 👉 Poste à pourvoir à partir du 1er janvier 2027 C’est votre expertise : Environnement : Linux, Windows Langages & frameworks : Java, Spring (Core, Boot, Data, Batch), TypeScript, Angular Data : PostgreSQL, Hibernate, ElasticSearch Outils & CI/CD : Git, Maven, Jenkins, Sonar, Liquibase Méthodologie : Agile, DevOps Compétences complémentaires : analyse de logs, modélisation de données, gestion d’applications critiques C’est votre manière de faire équipe : Leadership technique et capacité à fédérer une équipe Excellentes compétences en communication et pédagogie Esprit analytique et sens de la résolution de problèmes Capacité à prendre du recul et à proposer des améliorations Collaboration et esprit d’équipe Rigueur et exigence sur la qualité des livrables C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2 jours Salaire : De 58 000€ à 65 000€ (selon expérience) brut annuel Famille métier : Développement Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Business Analyst Senior — Reporting Réglementaire

BEEZEN
Publiée le
Business Analyst

12 mois
400-570 €
Montreuil, Île-de-France
Je recherhce un Business Analyst Senior — Reporting Réglementaire ayant plus de 15 ans d' experience pour une prestation d'accompagnement dans l´objectif de contribuer aux projets d'évolution de la solution ARS Anacredit Reportin Solutions en menant les activités de BA. La mission se déroule au sein d´une 'équipe qui contribue aux résultats de l'arrêté trimestriel au travers de d'applicatifs permettant de restituter/reporter l'information pour les filières reporting Comptabilité Général et Risque de Crédit. Des projets sont menés pour enrichir les fonctionnalités de ces applications et améliorer la qualité de service. Competences fonctionnelles indispensables Maitrise des processus de reporting reglementaire (Comptabilite Generale, Risque de Credit, arretes trimestriels) Connaissance du modele AnaCredit / SRS ou de referentiels equivalents (FINREP, COREP, RUBA) Redaction de specifications fonctionnelles detaillees, cas de tests, matrices de couverture Conduite de recette fonctionnelle (UAT, TNR) et gestion des ecarts Animation de reunions metier et interviews utilisateurs Coordination inter-equipes MOA / MOE / production Activites cles de la mission Analyse & specifications: Appropriation modele SRS · Analyse besoins utilisateurs · Validation specifications fonctionnelles Recette & evolutions: Mise en place UAT · TNR · Suivi des ecarts · Coordination release Support & coordination: Formation utilisateurs · Support fonctionnel · Liaison MOA–MOE · Suivi production Astreintes arretes: Participation aux astreintes mensuelles · Gestion incidents de production Competences techniques attendues: SQL / requetage Jira / ServiceNow Excel avance Confluence UML / BPMN Core Banking Point de vigilance : Le profil devra imperativement avoir deja vecu des clotures comptables ou reglementaires en environnement bancaire.
Freelance

Mission freelance
Responsable Projets IA (H/F)

Aleysia
Publiée le
Copilot
DevOps
IA

12 mois
400-550 €
Mordelles, Bretagne
Si l’IA générative est pour toi une passion plus qu’une compétence, rejoins notre univers technique qui t’attend de pied ferme avec ce poste de Responsable Projets IA ! 🚀 Ton challenge si tu l’acceptes : • Concevoir et développer des solutions avec un code performant et documenté • Collaborer à la conception de l'architecture d'un projet informatique • Gérer la maintenance corrective et évolutive de l'application • Participer activement à l'amélioration continue interne • Implémenter des tests unitaires et d’intégration pour assurer la qualité du code • Suivre les bonnes pratiques de développement et participer au revue de code • Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Freelance

Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop

1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
CDI

Offre d'emploi
Développeur IA / AI Engineer - Paris H/F

Webnet
Publiée le
Cloud
Docker
Intelligence artificielle

45k-55k €
Paris, France
Dans ce cadre de projets chez nos clients grands compte, nous recherchons un Développeur IA pour concevoir, intégrer et industrialiser des modèles d’intelligence artificielle. Vous participez au développement des solutions intégrant des technologies d’intelligence artificielle pour automatiser des processus métier et créer de nouveaux produits numériques. Vous interviendrez sur l’ensemble du cycle de vie des solutions IA : conception, développement, intégration et optimisation. Vous aurez pour missions : Concevoir et développer des solutions basées sur l’intelligence artificielle Intégrer des modèles de machine learning et LLM dans des applications Développer des API et services backend pour exposer les fonctionnalités IA Participer à la mise en production et à l’industrialisation des modèles Optimiser les performances des pipelines data et des modèles Collaborer avec les data scientists, product owners et équipes produit Mettre en place des bonnes pratiques de MLOps et monitoring
CDI

Offre d'emploi
Data Designer

CAT-AMANIA
Publiée le
Confluence

Île-de-France, France
Le Data Designer : • sera rattaché au Shared service Data Office • interviendra dans les trains SAFe, pour représenter la composante Data dans le rôle System Architect du train ; Il travaillera avec deux autres architectes (technique & fonctionnel) pour accompagner les équipes agiles. • pourra intervenir sur des sujets transverses, dans le Shared service Data Office Requis • Connaissance des principes de modélisation (UML, Merise, etc) • Connaissance de la gouvernance des données • Connaissance architecture Datacentric • Connaissance Event Driven Architecture • Bonne connaissance du monde bancaire • Capacité à mener des interviews, et à coordonner des contributeurs • Capacité à travailler en mode agile Souhaité : • Connaissance de la modélisation des processus
Freelance

Mission freelance
Data Scientist / GenAI /LLM

Pickmeup
Publiée le
Machine Learning
Python
Pytorch

2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
575 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous