Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 853 résultats.
Freelance

Mission freelance
Expert DATA Décisionnel

Lùkla
Publiée le
Informatica
Python
SAS

2 ans
400-570 €
Île-de-France, France
Expert Data spécialisé dans la mise en place d'architectures data et dans création la création de modèles de données décisionnels. Missions et responsabilités : Pilotage, recueil des usages et réalisation de l’analyse fonctionnelle et technique. Conception et/ou évolution des modèles de données décisionnels (modélisation, règles de gestion, cohérence, traçabilité). Contribution à la définition d’une architecture cible permettant une mise à disposition fiable et pérenne des données et indicateurs. Développement du socle des données (ETL, traitements Altair ou Python) et déploiement auprès des métiers utilisateurs. Animation et coordination des ateliers et travaux entre les parties prenantes. Organisation et validation des phases de tests et de recette. Suivi des actions, des risques et des décisions pour garantir le bon déroulement des projets. Livrables attendus : Document de modélisation des données et règles de gestion associées. Dictionnaire de données. Schéma d’architecture applicatif et technique (Altair). Compte rendu des différents ateliers et instances. Documentation de recette et supports d’accompagnement.
CDI

Offre d'emploi
ASSISTANT(E) DE GESTION ADMINISTRATIVE H/F

SCC France SAS
Publiée le

35k-40k €
Nanterre, Île-de-France
Dans le cadre de sa croissance, et afin de renforcer ses équipes, SCC France recherche son futur Talent : UN(E) ASSISTANT(E) DE GESTION ADMINISTRATIVE qui aura pour rôle la gestion des aspects administratifs ou/et logistiques du périmètre confié, en s'assurant de la satisfaction client (interne/externe) dans le respect des engagements pris et des règles établies par l'entreprise. Ainsi, vos taches et missions seront de : - Prendre en charge les tâches et la gestion des dossiers relevant de la spécificité de son activité - Assurer la saisie, la mise à jour et le suivi des flux* dans les outils dédiés en veillant au respect des délais et procédures - Assurer l'interface avec les services internes ou externes concernés - Être le point de contact, informer les clients internes/externes des actions menées - Procéder aux relances si nécessaire - S'impliquer dans l'amélioration et l'évolution des process liés au périmètre - Identifier et escalader les anomalies rencontrées - Être force de proposition dans la mise en oeuvre d'actions d'amélioration - Assurer une veille sur l'évolution des outils et règles en lien avec le périmètre - Contrôler la qualité et la cohérence des données traitées - Contrôler le respect des engagements - Traiter les litiges et/ou non-conformités dans les délais impartis et en assurer le suivi - Assurer un reporting et un suivi de son activité s'il y a lieu - Suivre les tableaux de bord et indicateurs liés à son périmètre - Archiver et classer la documentation Assurer le backup des membres de son équipe.
Freelance

Mission freelance
Product Owner Data / Observabilité - ASAP - 92

Montreal Associates
Publiée le
Data quality
Grafana
Intégration

7 mois
550-650 €
Clichy, Île-de-France
Product Owner Data / Observabilité - ASAP - 92 Dans le cadre d’un produit de monitoring & réconciliation de données (E-commerce, Retail, CRM), nous recherchons un Product Owner expérimenté pour piloter la fiabilité des flux et la détection d’anomalies dans un environnement international. 🎯 Objectifs et Environnements Priorisation des use cases (contrôles & alerting) Traduction besoins métier → backlog / user stories Suivi roadmap & qualité des dashboards Microsoft Azure (SQL, Functions) Microsoft Power BI Microsoft Power Automate 👤 Profil Recherché PO spécialisé Data / monitoring / intégration Bonne compréhension des flux data Anglais courant #Freelance #ProductOwner #Data #Observabilité #Monitoring #Ecommerce
Freelance

Mission freelance
Data Scientist Python, Tensorflow Nantes/st

WorldWide People
Publiée le
Python

12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Freelance
CDI

Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)

Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance

Mission freelance
Data Product Manager – Data & BI Platform

Comet
Publiée le
Microsoft Power BI

1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
CDD
CDI
Freelance

Offre d'emploi
Architecte DATA  Sénior

KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata

18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
CDI

Offre d'emploi
Développeur Java Senior / Tech Lead Java - CDI F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Hibernate

Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist (NLP / LLM / Agentique) — Projet IA Télécom

TOP TECH
Publiée le
Agent IA
Large Language Model (LLM)

40k-50k €
France
Dans le cadre d’un programme stratégique d’industrialisation d’une solution IA innovante, un grand acteur des télécommunications renforce ses équipes Data. Suite à la mise en production d’une solution de relation client basée sur de l’IA Speech-to-Speech , le client déploie cette technologie sur plusieurs canaux digitaux à grande échelle. 👉 Nous recherchons plusieurs Data Scientists pour accompagner cette montée en charge. 🎯 Vos missions Vous interviendrez sur deux axes clés : 🔍 1. Monitoring & amélioration continue Suivi des performances des modèles en production Analyse des dérives et optimisation continue Mise en place d’indicateurs de qualité et de fiabilité 🧪 2. TestOps & industrialisation IA Conception d’une Test Case Factory automatisée Génération de scénarios de tests via des approches Data Science Validation des nouvelles versions des modèles IA Mise en place de stratégies de tests robustes pour garantir la qualité en production ✔️ Expérience requise : Expérience en NLP / LLM / Agentique (obligatoire pour profils expérimentés) Bonne compréhension des systèmes IA en production Expérience sur des problématiques liées au traitement du texte 🛠️ Compétences techniques Data Science (Python, ML, DL) NLP (Natural Language Processing) LLM (Large Language Models) Mise en production & monitoring de modèles Expérience en automatisation de tests (idéalement TestOps IA) 📍 Contexte Secteur : Télécommunications Projet : Déploiement à grande échelle d’une solution IA conversationnelle Environnement : Innovant, orienté industrialisation et passage à l’échelle
CDI

Offre d'emploi
Développeur C# - .Net - Angular H/F

█ █ █ █ █ █ █
Publiée le
.NET CORE
ADO.NET
Angular

38k-45k €
69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ (F5 firewall Azure) au Havre

ODHCOM - FREELANCEREPUBLIK
Publiée le
Azure
F5
Firewall

3 mois
400-600 €
Le Havre, Normandie
CONTEXTE DE LA MISSION Dans le cadre de la consolidation de son infrastructure réseau et sécurité et de sa transformation vers une architecture micro-services, nous recherchons un Ingénieur Réseau & Sécurité Senior pour auditer, valider et consolider l'existant et sécuriser les opérations d’exploitation. L'environnement technique actuel repose sur une infrastructure multisites hybride Azure/on-premises avec connectivité Azure ExpressRoute, load balancers F5, firewalls Check Point, DRP géo-distribués. CONSOLIDATION DE L'EXISTANT Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage - Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL offloading, iRules - Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL - Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute - Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées TRANSFERT & ACCOMPAGNEMENT EQUIPES - Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances - Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage - Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point
Freelance

Mission freelance
Data Engineer GCP H/F

LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)

6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
CDI

Offre d'emploi
Product Owner IA RAG F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) -- 92

Montreal Associates
Publiée le
Apache Kafka
API
Confluence

7 mois
550-700 €
Puteaux, Île-de-France
🚀 Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) Dans un contexte grand groupe international et multiculturel, vous pilotez les services d’intégration data autour des plateformes Talend (Cloud & hybride) et Kafka Confluent , avec des enjeux forts de scalabilité, performance et gouvernance data . • Pilotage du RUN et des projets (CRM, PIM, annuaire…) • Cadrage des besoins, architecture et conception des flux data • Management d’une équipe offshore (Inde) • Suivi opérationnel des plateformes Talend & Kafka (monitoring, upgrade, incidents) • Gestion du capacity planning & facturation • Définition et diffusion des bonnes pratiques data & intégration 🔎 Ce que l’on recherche Un Chef de Projet Data très opérationnel , capable de piloter à la fois le RUN et les projets, avec une vraie expertise technique ETL/streaming et une capacité à gérer des environnements complexes à grande échelle. #Data #ETL #Talend #Kafka #Streaming #DataEngineering #ProjectManager #Freelance
Freelance

Mission freelance
IA Delivery Product Owner / Business Analyst

ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Delivery Lead Position dans l’organisation Le/la IA Delivery Product Owner / Business Analyst contribue à la conception et à la livraison des cas d’usage en intelligence artificielle, en assurant l’interface entre les besoins métiers et les équipes de delivery. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la transformation Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Product Owner / Business Analyst est responsable de l’exécution produit et de l’AMOA sur les cas d’usage IA (copilots, agents, solutions RAG). Il/elle traduit les besoins métiers en backlog, spécifications fonctionnelles et parcours utilisateurs, organise la recette et contribue à l’amélioration continue des solutions en production. Le poste intervient dans un cadre structuré : sans responsabilité sur le développement technique sans responsabilité directe sur la conformité sans responsabilité sur la préparation des bases de connaissances Responsabilités principales 1. Cadrage des besoins Animer les ateliers métiers (besoins, irritants, processus, scénarios) Formaliser les cas d’usage et les priorités Contribuer à la définition des indicateurs de succès 2. Gestion du backlog et priorisation Construire et maintenir le backlog produit (user stories, critères d’acceptation) Prioriser les évolutions avec le IA Delivery Lead et les parties prenantes Préparer et animer les rituels Agile Garantir la clarté et la qualité des tickets 3. Conception fonctionnelle Définir les parcours utilisateurs et scénarios d’usage Formaliser les règles métier et comportements attendus Intégrer les mécanismes de gestion des limites de l’IA (incertitude, erreurs, hallucinations) Concevoir des expériences utilisateur robustes et sécurisées 4. Coordination des prérequis Exprimer les besoins en données et en bases de connaissances Contribuer à la formalisation des exigences de traçabilité et d’usage Collaborer avec les équipes techniques pour clarifier les besoins fonctionnels Assurer l’alignement entre les différentes parties prenantes 5. Recette fonctionnelle Définir la stratégie de tests (cas nominaux, limites, scénarios sensibles) Préparer et exécuter les phases de recette Suivre les anomalies et piloter leur résolution Contribuer aux décisions de go / no-go 6. Amélioration continue et industrialisation Collecter les retours utilisateurs et identifier les axes d’amélioration Alimenter le backlog d’évolution Capitaliser sur les retours d’expérience Contribuer à la standardisation des pratiques (copilots, agents, RAG)
Freelance

Mission freelance
Consultant Corporate Finance (Lyon)

SQLI
Publiée le
Data management

6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients dans le secteur d'éléctroménager, je suis à la recherche d'un consultante corporate finance. Le rôle du corpo Finance : • Gestion de projet avec la capacité de coordonner efficacement diverses parties prenantes en tant que Business & Développeurs. • Collecte des exigences du côté commercial. • Rédaction de spécifications fonctionnelles, garantissant une documentation claire et précise. • Aider les développeurs avec les tests initiaux. • Soutenir les utilisateurs avec des tests d’acceptation, des formations, etc. Le candidat doit avoir des connaissances commerciales significatives dans les sujets de vente. La familiarité avec SAP BW ou SQL, permettant une interaction avec les outils d’analyse de données et de reporting, serait un avantage.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5853 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous