L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 667 résultats.
Mission freelance
FREELANCE Expert / Référent Technique – Dataiku & Braincube
HAYS France
Publiée le
AWS Cloud
Dataiku
6 mois
Île-de-France, France
Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes Plateforme Dataiku en environnement hybride : Cloud AWS (Landing Zone) + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Responsable du service, de la sécurité et du pilotage Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Standards cybersécurité Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis
Mission freelance
Data Engineer H/F
OUICODING
Publiée le
1 mois
420-500 €
Rennes, Bretagne
Missions principales -Industrialiser et optimiser les traitements de données en s'appuyant sur Dataiku (scénarios, plugins, recettes avancées...). -Mettre en place une architecture data fiable et optimisée, principalement sur des solutions AWS (S3, Redshift, le Common Data Hub Engie). -Développer des solutions techniques de collecte de la donnée via des API. -Modéliser les données nécessaires aux analyses et aux usages métiers. -Assurer la qualité, la sécurité et le monitoring des flux de données. -Collaborer avec la Data Analyst pour garantir la mise à disposition des données pertinentes. -Participer à la définition des bonnes pratiques Data et à leur diffusion au sein de l'entreprise. -Contribuer à la documentation technique et à l'amélioration continue des environnements. -Assurer une veille technologique sur les solutions de stockage et traitement des données
Mission freelance
Data Migration SAP CO S/4HANA
DUONEXT
Publiée le
SAP
SAP CO
SAP S/4HANA
12 mois
Paris, France
Rattaché(e) à la Direction des Systèmes d’Information, Pôle Finance, vous êtes garant(e) des activités de migration de données liées au Contrôle de Gestion, menées par vous-même et avec les différentes équipes projets et contributeurs métiers. Extraction de données Mise en œuvre d’extractions selon des critères adaptés aux systèmes source (ex : SAP ECC, applications spécifiques). Transformation et qualité des données Actions de transcodification, de dédoublonnage, de filtrage et d’enrichissement des données. Interventions manuelles ou automatiques selon les besoins et les outils. Import dans SAP S/4HANA Chargement des données issues de plusieurs sources vers SAP S/4HANA, Respect des modèles de données cibles et des conditions d’import (ex : SAP Migration Cockpit). Analyse des risques et arbitrages Identification et analyse des risques Métier / IT / Projet, Proposition de solutions et contribution aux arbitrages. Suivi et pilotage Mise à jour des indicateurs et des alertes associées, Reporting d’avancement des migrations de données auprès des équipes Métiers et IT.
Mission freelance
Ingénieur IA Python / Go (H/F) 59
Mindquest
Publiée le
Go (langage)
IA
Large Language Model (LLM)
3 mois
210-500 €
Roubaix, Hauts-de-France
Nous recherchons un·e ingénieur·e IA & backend très expérimenté·e, capable de concevoir, construire et faire évoluer des systèmes IA robustes, scalables et exploitables en production. Ton rôle : intégrer l’IA là où elle crée réellement de la valeur, en lien étroit avec les équipes produit, web, content et développement. Projet phare – AI Web Factory Projet stratégique d’industrialisation de la création de pages web via l’IA, avec pour objectifs : génération de pages à partir de briefs marketing, détection automatique du type de page, génération, validation et enrichissement des contenus, contrôle qualité (SEO, cohérence UX, respect des standards), orchestration d’agents IA spécialisés. Objectif clé : Accélérer massivement le Time-to-Market sans compromis sur la qualité. Autres sujets sur lesquels tu interviendras génération automatique de code à partir de maquettes Figma, conception d’agents IA pour : code review, QA automatisée, validation SEO, cohérence avec le design system, intégration de l’IA dans les workflows quotidiens des équipes (dev, web, content), exploration des limites actuelles des LLM et mise en place de solutions pragmatiques pour les contourner. Compétences IA / LLM attendues Tu comprends réellement le fonctionnement des LLM, au-delà de leur simple utilisation. expérience concrète avec des modèles type OpenAI, Mistral, Anthropic, excellente maîtrise de : prompt engineering avancé, agents autonomes, RAG, Stack & compétences backend Python – cœur des pipelines IA excellent niveau requis, conception d’architectures propres, maintenables et testables, développement de pipelines IA industrialisés et robustes. Go – obligatoire (BFF & APIs) Tu interviendras fortement sur des services backend en Go, notamment : conception et implémentation d’APIs performantes, mise en place de Backends For Frontends (BFF), développement et évolution d’une Tracking API (collecte et exploitation de données d’usage), autonomie sur la conception, l’implémentation et l’évolution des services, forte exigence sur la performance, la fiabilité et la maintenabilité. Tu es capable de concevoir, construire et maintenir ces briques en totale autonomie, dans un contexte de production à fort trafic.
Mission freelance
DATA ANALYST SENIOR LOOKER
PROPULSE IT
Publiée le
24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Mission freelance
SRE Observabilité
HAYS France
Publiée le
Datadog
Grafana
Kubernetes
3 ans
100-470 £GB
Lille, Hauts-de-France
Votre mission : - Design, intégration, templating, déploiement, parametrage des composants de la plateforme d'Observabilité - Administration, gestion des incidents/problèmes, industrialisation, et amélioration continue des outils qui composent la plateforme d'Observabilité - Accompagnement et conseils des utilisateurs dans l'utilisation de la plateforme d'Observabilité de la collecte (logs, métriques, traces) à l'exploitation dans les backends pour l'amélioration de la disponibilité et la performance de leurs applications/projets métiers (à l'international) - Rédactions des ADR, de la documentation, des RUN books, afin de diffuser la connaissance auprès des équipes techniques internes. Environnement technique : Vous avez une bonne connaissance de la sécurité et des architectures cloud. Vous disposez notamment des connaissances techniques suivantes : - Maîtrise de GCP, Azure serait un plus. - Maitrise avancée de Kubernetes - Maitrise avancée de Datadog, expérience dans un environnement engageant de forts volumes - Bonne connaissance de la plateforme Grafana, build et run en environnement engageant de forts volumes - Connaissances OpenTelemetry - Expérience en instrumentation d’applications - Maîtrise de Terraform/AWX - Connaissances bonnes pratiques de développement, IaC, Python, Go serait un plus - Culture SRE et SLO
Offre d'emploi
Lead Developer Python – IA / Automatisation
AGH CONSULTING
Publiée le
FastAPI
Python
6 mois
40k-60k €
400-540 €
Île-de-France, France
Contexte de la mission Dans le cadre de ses projets de transformation et d’automatisation des processus métiers, notre client lance plusieurs initiatives visant à fournir aux équipes internes des outils d’automatisation s’appuyant sur Python et des technologies d’IA (LLM / Machine Learning) . L’objectif n’est pas de mener des projets de recherche mais de déployer des solutions pragmatiques et industrialisées répondant à des cas d’usage métiers concrets. Plusieurs outils sont déjà déployés en production et nécessitent des évolutions, tandis que de nouvelles solutions doivent être développées . La mission s’inscrit dans une équipe projet intégrée , en interaction directe avec les métiers, tout en respectant l’architecture et l’écosystème applicatif Le consultant interviendra en remplacement d’un Tech Lead actuellement absent et viendra renforcer une équipe composée de : 1 Product Owner 1 Chef de projet 1 Référent technique 1 Développeur senior Missions principales Le Lead Developer Python interviendra sur l’ensemble du cycle technique : Cadrage et conception Participer au cadrage technique des nouveaux sujets Concevoir les architectures applicatives Définir les patterns de développement et bonnes pratiques Développement et intégration Développer des solutions backend en Python Mettre en place des API et services applicatifs Intégrer des briques IA (LLM / machine learning) dans les applications Assurer les connexions avec des systèmes tiers via différentes API Qualité et industrialisation Réaliser des revues de code Mettre en place des tests unitaires Documenter les solutions techniques Garantir la qualité et la maintenabilité du code Interaction métier Travailler en mode itératif avec les équipes métiers Participer aux tests utilisateurs Concevoir des solutions adaptées aux besoins opérationnels
Offre d'emploi
Expert Data spécialisé sur Semarchy
OBJECTWARE
Publiée le
Semarchy
6 mois
Indre-et-Loire, France
Nous recherchons un Expert Data spécialisé sur Semarchy pour intervenir sur un projet autour de la gestion et de la gouvernance des données . Vos missions : Mise en place et évolution de solutions Semarchy (MDM) Modélisation et gestion des référentiels de données Participation à la gouvernance et à la qualité des données Collaboration avec les équipes techniques et métiers Profil recherché : Expérience sur Semarchy xDM / MDM Bonne compréhension des enjeux data / gouvernance des données Autonomie et capacité à intervenir sur des environnements data 📍 Poste basé en Indre-et-Loire (37) 📅 Démarrage : dès que possible
Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics
Ela Technology
Publiée le
Machine Learning
Python
SQL
6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Mission freelance
Mission Freelance – Security Expert Data & AI (H/F)
Comet
Publiée le
Big Data
Cybersécurité
1 an
400-580 €
Île-de-France, France
Dans le cadre d’un programme stratégique Data & AI à forte visibilité, nous recherchons un Expert Cybersécurité Data & Intelligence Artificielle pour accompagner la sécurisation de services et plateformes IA à l’échelle d’un grand groupe international. Contexte de la mission Vous intervenez au sein d’équipes Data & Analytics afin de garantir la sécurité des plateformes, services et usages IA , en lien étroit avec les équipes IT, sécurité et métiers. Missions principales Intégration de la sécurité dès la conception des projets Data & AI (security by design) Accompagnement des équipes projets et des responsables sécurité métiers Pilotage de la conformité sécurité (audits, plans de remédiation, reporting) Gestion et contribution aux incidents de cybersécurité Définition et déploiement de standards, règles et baselines sécurité Sensibilisation et montée en compétence des parties prenantes
Offre d'emploi
Data Analyst Microsoft H/F
OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric
1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.
Offre d'emploi
MLOps Engineer
VISIAN
Publiée le
AWS Cloud
OVHcloud
PostGIS
1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe détecteur travaille sur des algorithmes de détection d'objets sur des images satellites. Pour produire les détecteurs, l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : Une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. Une stack d'outils spécifiques à la ligne de produit IMINT, développée par l'équipe AI IMINT elle-même. La personne travaillera en binôme avec un MLEng de l'équipe.
Mission freelance
Architecte Solutions/ Teach Lead Snowflake/Snowpark (Bancaire)
Nicholson SAS
Publiée le
Apache Spark
Azure
CI/CD
6 mois
460 €
Fontenay-sous-Bois, Île-de-France
Cette mission d’envergure au sein du pilier RPBI de mon client bancaire dans le Val de Marne vise à transformer l'architecture data du groupe. En tant qu’ Architecte Solutions / Tech Lead , vous piloterez la migration stratégique de l'écosystème Hadoop vers Snowflake/Snowpark . Le rôle combine vision architecturale et leadership technique au sein d’un environnement Agile. Vos responsabilités incluent la définition des standards de développement, l'optimisation des pipelines de données via Snowpark/Scala et l'encadrement des Feature Teams. Dans un contexte Cloud Azure , vous garantirez la robustesse des solutions en appliquant les principes de Clean Code et de CI/CD. Points clés : Expertise : Snowflake, Snowpark, Scala et migration Hadoop (Cloudera). Profil : +7 ans d'expérience, capacité de vulgarisation et leadership. Durée : Longue visibilité (jusqu’en sept. 2028). Rythme : Hybride (2 jours sur site). C'est une opportunité rare de structurer la gouvernance data d'une grande banque internationale.
Mission freelance
Ingénieur OPS Junior
BEEZEN
Publiée le
Oracle Database
Production
12 mois
400 €
Montreuil, Île-de-France
Je recherche un Ingénieur OPS Junior pour une prestation d'accompagnement dans le cadre des équipes ITG – Production et sera dédiée au suivi de run et maintien en condition opérationnelle du périmètre des applications Transverse and Data, utilisées par les équipes métiers de PF en France et à l'international Du point de vue opérationnel, la prestation sera menée en participant aux activités de l’équipe DSI en charge de la gestion opérationnelle, des évolutions fonctionnelles et techniques des applications. Les tâches de la mission sont : Participation au support fonctionnel de l’application Suivi des traitements de production Analyse en autonomie des incidents, mener / coordonner les actions de corrections Relance de jobs Autosys en cas d’incidents Exécution les scénarios de test en environnement agile au sein de l'équipe de Delivery Proposition et mise en œuvre des scénarii automatisés Coordination des actions connexes avec les autres équipes techniques Alimentation du Product Backlog Réalisation des Delivery / packaging Réalisation des mises en production Contribution active à la mise en place de solutions d’améliorations ou de montées de version Apport de support à l’équipe de développement sur les environnements d’intégration Participation à la cohésion d’équipe DevOps Anglais
Offre d'emploi
ALTERNANCE - Assistant Data Gouvernance (H/F)
█ █ █ █ █ █ █
Publiée le
Data management
Microsoft Excel
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Digital Product Owner
Codezys
Publiée le
API
Azure
KPI
12 mois
Madrid, Espagne
Détails du projet : Entreprise : multinationale dans la santé Localisation : Europe (fuseau CET) Mode de travail : télétravail ou hybride Date de début : janvier 2026 Durée : 12 mois Langues : anglais obligatoire, espagnol apprécié Charge de travail : temps plein Objectif du poste : Recruter un Product Owner Digital pour piloter l'évolution d'un chatbot IA destiné à soutenir les collaborateurs. Il sera responsable de la stratégie produit, de la feuille de route, et de l'optimisation pour garantir fiabilité, pertinence et évolutivité, afin d'améliorer l'expérience utilisateur et l'efficacité opérationnelle. Principales responsabilités et activités clés : Stratégie produit & Feuille de route : Définir la vision et la feuille de route Réaliser analyses concurrentielles et de marché Établir et suivre KPIs et métriques de succès Prioriser les cas d'usage selon leur valeur et coût Expérience utilisateur & Conception : Collecter et analyser les retours utilisateurs Collaborer avec UX/UI pour améliorer l'ergonomie et les interactions Définir personas, parcours et cas d'usage Gestion technique du produit : Collaborer avec les ingénieurs IA/ML pour améliorer les capacités du chatbot Gérer l'intégration avec les systèmes d'entreprise Superviser la qualité des données et la gouvernance Définir exigences de performance, scalabilité et sécurité Gestion des parties prenantes : Identifier de nouveaux cas d'usage et opportunités d'automatisation Présenter des rapports d'avancement à la direction Animer réunions et ateliers inter-fonctionnels Gérer relations avec partenaires technologiques Analyse & Optimisation : Suivre les indicateurs de performance et d'adoption Réaliser tests A/B et expérimentations Produire des rapports et améliorer continuellement le produit Charge de travail : variable selon les besoins du projet et le contexte opérationnel.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5667 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois