Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 724 résultats.
Freelance

Mission freelance
Ingénierie Méthodes & Data Analyst (Production Data & Master Data)

Mon Consultant Indépendant
Publiée le
Data analysis

6 mois
540-590 €
Paris, France
Profil recherché : Ingénierie Méthodes & Data Analyst (Production Data & Master Data) Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Freelance

Mission freelance
OP / Analytics Engineer (Consultant Data expérimenté)

OUICODING
Publiée le

1 mois
420-500 €
Paris, France
2) Missions principales (responsabilités) Analyse & modélisation - Réaliser des analyses complexes sur les données et produire des insights actionnables via des méthodologies statistiques. - Concevoir/porter des modèles de données métiers (expertise de la modélisation). - Posture "Conseil" & interface métier - Traduire les besoins métier en exigences techniques, tout en les challengeant et en étant force de proposition. Communiquer avec pédagogie auprès d'équipes techniques et métiers ; animer la communauté de data analystes. Delivery BI / dataviz / UX - Concevoir des rapports pertinents à partir des données analysées. - Porter des propositions UX/UI (wireframes, maquettes, personae) et proposer des visualisations avancées (ex. D3.js). Gouvernance & patrimoine data Rédiger/maintenir les bonnes pratiques de modélisation et développement. Maintenir la connaissance du patrimoine de données et des publications de reporting associées. Développer l'offre Streamlit et maintenir un cadre UX/UI Data ; assurer une veille produit Power BI. Expertise / administration / industrialisation - Administrer le service Power BI (et le "parc"), consolider les métriques d'usage et les données catalogue. - Auditer / optimiser du code (Power BI, SQL, Streamlit) et maintenir le CI/CD Power BI. Sécurité S'approprier et intégrer les exigences Cybersécurité dans les pratiques et livrables.
CDI

Offre d'emploi
ALTERNANCE - Assistant Ingénieur data et chimie (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Python

Pantin, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
ALTERNANCE - Assistant(e) Communication Data H/F

█ █ █ █ █ █ █
Publiée le

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Expert Data Scientist – IA Générative & Computer Vision (F/H)

CELAD
Publiée le

1 an
300-360 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Clermont-Ferrand - Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Expert.e Data Scientist – IA Générative & Computer Vision pour intervenir chez un de nos clients. Contexte : Vous avez envie d’utiliser l’IA pour résoudre des problèmes très concrets liés à la mobilité ? Pour renforcer l’équipe, nous recherchons un.e Expert.e Data Scientist – IA Générative & Computer Vision, capable de concevoir des modèles avancés et de contribuer à l’industrialisation de solutions innovantes. Votre rôle s’articule autour de plusieurs axes : Concevoir des modèles d’IA à fort impact : - Développer des briques d’algorithmes pour nos modèles prédictifs - Concevoir, tester et améliorer les modèles en assurant la traçabilité des expérimentations et des performances. - Définir et suivre les indicateurs permettant de mesurer les progrès et éviter les régressions. Faire avancer nos projets en IA générative et systèmes agents : - Contribuer au développement de solutions basées sur les LLM, VLM et systèmes agents. - Participer aux choix techniques : modèles, frameworks (LangChain, LangGraph, MCP, etc.). - Identifier quand l’usage d’agents est pertinent en tenant compte de la latence, du coût et des performances. Aller du prototype à l’industrialisation : - Construire des POC et prototypes, puis accompagner leur passage à l’échelle. - Veiller à l’interopérabilité des outils pour limiter les silos de données et maximiser l’impact des solutions. Contribuer à la vision et à l’innovation : - Faire de la veille sur les innovations en IA et mobilité. - Proposer de nouvelles approches ou opportunités technologiques. - Collaborer avec des partenaires externes : laboratoires, universités, start-ups. Travailler avec l’écosystème produit : - Échanger avec les équipes internes et les clients pour comprendre leurs besoins. - Partager vos analyses et résultats avec des interlocuteurs techniques et non techniques.
Freelance
CDI

Offre d'emploi
🔎 Data Engineer – Python / Spark / Databricks / AWS

Hexateam
Publiée le
AWS Cloud
Python
Spark Streaming

1 an
Paris, France
Mission : Data Engineer Confirmé – Python / Spark / Databricks / AWS Dans le cadre de l’évolution d’une plateforme Data centralisée, nous recherchons un Data Ingénieur confirmé pour intervenir sur le développement et l’optimisation de pipelines de données dans un environnement Big Data et Cloud AWS. Stack technique : Python • Spark • Databricks • SQL AWS (S3, Airflow, Glue, CloudWatch) Git • CI/CD • Agile / Scrum ✅ Profil recherché : Expérience confirmée en Data Engineering Bonne maîtrise de Spark / Databricks Expérience Cloud AWS
Freelance
CDI

Offre d'emploi
Data Domain Manager

VISIAN
Publiée le
Data governance

1 an
40k-45k €
400-660 €
Paris, France
Tâches attendues Autour du DDM : Préparation et animation des sessions d'interactions et ateliers DDM (Support & CR) Animation de la communauté DDM au fil de l'eau (méthodologie, outillage…) Pilotage des points de suivi - Management des DDM et sponsor (Support & CR) Coordination de la montée en compétence des DDM sur les axes de la gouvernance data (roadmap, feedback, plan d'actions …) Coordination avec les autres initiatives Groupe et intra-groupe (supports, notes de réunions) Autour du Data Product : Construction d'un Kit/book de déploiement des data products auprès des producteurs et consommateurs (méthodologie, documentation …) Animation de meetings de vulgarisation (Support & CR) Préparation et organisation d'un Meet Up d'acculturation (jalon mai 2026)
Freelance
CDI

Offre d'emploi
Data Scientist

VISIAN
Publiée le
Machine Learning
Python
SQL

1 an
40k-45k €
140-480 €
Paris, France
Mission La mission d'une institution financière majeure est de contribuer à une croissance responsable et durable par un financement de l'économie dans le respect des plus hauts standards éthiques, en particulier dans les domaines de l'anti-blanchiment d'argent, de la lutte contre le terrorisme, et de la lutte contre la fraude et l'ingénierie sociale. L'optimisation des services opérationnels via la science des données représente une opportunité majeure pour notre entreprise de se démarquer sur le marché. Descriptif du Poste Assurer la recherche de données et la mise au point de modèles performants afin d'assister de nombreuses équipes de la banque commerciale dans leur effort d'identification et d'analyse des comportements suspects. Déployer et intégrer ces modèles dans les infrastructures et flux de travail de l'entreprise en assurant un impact positif et maîtrisé. Profil Recherché Nous cherchons un profil capable de développer et intégrer des solutions avancées de data science appliquée à des données structurées en priorité. Des compétences en traitement du langage naturel (NLP traditionnelle, voire GenAI) seraient un plus permettant de proposer à nos clients internes des fonctionnalités différenciantes et l'évolution en interne du profil vers d'autres projets. Ce profil doit connaître en détail le fonctionnement de nombreux algorithmes d'apprentissage, supervisé comme non supervisé, et être en pleine possession des méthodologies d'évaluation de modèles. Idéalement, le candidat devrait avoir une expérience pratique dans des projets similaires et démontrer une capacité à traduire un problème concret en problème mathématique au moyen des données. Une excellente maîtrise de Python et de SQL est en outre nécessaire. Des compétences de type "soft skills" seront également incontournables, comme la gestion de projet, une écoute de qualité avec les interlocuteurs métier ainsi qu'une bonne communication, et un goût de la collaboration et le partage des connaissances, notamment avec les autres data scientists et les équipes techniques et opérationnelles (MLE, MLOPS, OPS).
Freelance

Mission freelance
DATA ENGINEER AZURE - SNOWFLAKE

CHOURAK CONSULTING
Publiée le
Apache Airflow
Azure
Azure Data Factory

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Confirmé/Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
CDI

Offre d'emploi
Expert Data Scientist – IA Générative & Computer Vision (F/H)

CELAD
Publiée le

38k-42k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Clermont-Ferrand - Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Expert.e Data Scientist – IA Générative & Computer Vision pour intervenir chez un de nos clients. Contexte : Vous avez envie d’utiliser l’IA pour résoudre des problèmes très concrets liés à la mobilité ? Pour renforcer l’équipe, nous recherchons un.e Expert.e Data Scientist – IA Générative & Computer Vision, capable de concevoir des modèles avancés et de contribuer à l’industrialisation de solutions innovantes. Votre rôle s’articule autour de plusieurs axes : Concevoir des modèles d’IA à fort impact : - Développer des briques d’algorithmes pour nos modèles prédictifs - Concevoir, tester et améliorer les modèles en assurant la traçabilité des expérimentations et des performances. - Définir et suivre les indicateurs permettant de mesurer les progrès et éviter les régressions. Faire avancer nos projets en IA générative et systèmes agents : - Contribuer au développement de solutions basées sur les LLM, VLM et systèmes agents. - Participer aux choix techniques : modèles, frameworks (LangChain, LangGraph, MCP, etc.). - Identifier quand l’usage d’agents est pertinent en tenant compte de la latence, du coût et des performances. Aller du prototype à l’industrialisation : - Construire des POC et prototypes, puis accompagner leur passage à l’échelle. - Veiller à l’interopérabilité des outils pour limiter les silos de données et maximiser l’impact des solutions. Contribuer à la vision et à l’innovation : - Faire de la veille sur les innovations en IA et mobilité. - Proposer de nouvelles approches ou opportunités technologiques. - Collaborer avec des partenaires externes : laboratoires, universités, start-ups. Travailler avec l’écosystème produit : - Échanger avec les équipes internes et les clients pour comprendre leurs besoins. - Partager vos analyses et résultats avec des interlocuteurs techniques et non techniques.
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API

3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Freelance

Mission freelance
Consultant SAP Master Data -MM/SD

KN CONSULTING
Publiée le
Master Data Management (MDM)
SAP MM
SAP SD

3 mois
400-700 €
Auvergne-Rhône-Alpes, France
Nous recherchons actuellement un Consultant Freelance SAP Master Data MM/SD pour intervenir dans le cadre d’un projet stratégique de conversion vers S/4HANA . La mission porte principalement sur la gestion et la qualité des données de référence (Master Data) , avec un focus important sur la préparation, l’exécution et le suivi des tests de non-régression afin de garantir l’intégrité des données après la conversion. L’objectif est d’assurer une transition fiable vers S/4HANA , en sécurisant les données Master Data et en contribuant activement aux phases de test et de validation du projet. ⚠️ Point essentiel pour le client : nous recherchons un profil autonome sur le paramétrage et à l’aise avec les aspects techniques de base , notamment sur les Business Partners et les interfaces.
CDI

Offre d'emploi
Data Engineer – GCP (H/F)

CELAD
Publiée le

45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, dans le secteur bancaire. L’enjeu : structurer et industrialiser l’écosystème Data & ML sur Google Cloud Platform. Vous intervenez à la fois sur l’architecture, le build, le run et la structuration des bonnes pratiques. Industrialiser les pipelines data sur l’écosystème GCP Gérer les montées de version des services managés Garantir performance, capacité et fiabilité Développer des pipelines en Python Exploiter et optimiser BigQuery Mettre en place des pratiques CI/CD adaptées aux projets data Structurer l’industrialisation des modèles de Data Science Gestion des IAM, droits d’accès et conformité Sécurisation des environnements Encadrement des accès aux données de production anonymisées Suivi des incidents Amélioration continue des livrables Gestion des évolutions techniques avec les éditeurs
CDI

Offre d'emploi
Analyste data transport (F/H/X)

Talents Finance
Publiée le

35k-55k €
Paris, France
Vos missions : Préparer un plan de travail pour corriger et optimiser les données liées au transport, afin d’assurer leur fiabilité Collecter et centraliser les données notamment liées au transport, nécessaires à l’optimisation de l’ERP de l’entreprise Saisir, mettre à jour, vérifier la cohérence, contrôler la qualité des données Catégoriser et structurer les données pour faciliter leur analyse et exploitation stratégique Créer et mettre à jour des manuels de gestion de données Participer à la création d'un système d'analyse de la qualité des données notamment liées au transport Analyser des données simples existantes et rechercher des écarts de données Modéliser les bases de données et en assurer les mises à jour régulières, pour répondre aux besoins évolutifs Collaborer directement avec les utilisateurs finaux, pour comprendre leurs besoins spécifiques et construire une relation de confiance Autres informations : Département : Technologie de l'information Type de contrat : Contrat à durée indéterminée (CDI), Temps plein Durée du contrat : indéterminée Date de début : dès que possible Horaire : 8H00-12H00 et de 12H50-16H50 du lundi au jeudi et 8H00-12H00 et de 12H50-15H50 le vendredi (soit un total de 39H par semaine) Localisation du poste : Nogent-sur-Seine, Aube (10), Grand Est, France - proche Romilly-sur-Seine (10), Troyes (10), Sézanne (51), Montereau-Fault-Yonne (77), Nangis (77), Provins (77) et Sens (89), 54 min direct de Paris en train Déplacement : à Nogent-sur-Seine Télétravail : non Poste ouvert aux personnes en situation de handicap
Freelance

Mission freelance
Data Engineer Azure / IA

Sapiens Group
Publiée le
Azure
Azure DevOps
Databricks

12 mois
400-450 €
Lille, Hauts-de-France
Ingénierie Data Concevoir et développer des pipelines de données (ETL / ELT) . Collecter, transformer et intégrer des données provenant de différentes sources (API, bases de données, fichiers, streaming). Mettre en place et optimiser des flux de données robustes et scalables . Garantir la qualité, la fiabilité et la traçabilité des données . Concevoir et maintenir des modèles de données adaptés aux usages analytiques. Plateforme et outils Data Développer des solutions sur des plateformes Big Data et Cloud (ex : Databricks). Automatiser les workflows et déploiements via CI/CD (Azure DevOps) . Optimiser les performances des traitements Python et SQL . Participer à la mise à disposition des données pour les outils de visualisation et de reporting (Power BI) . Intelligence Artificielle appliquée à la Data Utiliser des outils d’IA pour assister le développement (génération et optimisation de code). Mettre en place des processus automatisés d’analyse et de transformation de données basés sur l’IA. Contribuer à l’intégration de modèles d’IA ou de Machine Learning dans les pipelines de données. Utiliser l’IA pour la documentation automatique, la détection d’anomalies et l’analyse exploratoire des données . Collaboration et méthodologie Travailler en méthodologie Agile / Scrum . Collaborer avec les équipes Data, BI, Data Science et métiers . Participer aux rituels Agile (daily, sprint planning, rétrospective). Contribuer aux bonnes pratiques de gouvernance et de gestion des données .
1724 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous