L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 676 résultats.
Mission freelance
Ingénierie Méthodes & Data Analyst (Production Data & Master Data)
Mon Consultant Indépendant
Publiée le
Data analysis
6 mois
540-590 €
Paris, France
Profil recherché : Ingénierie Méthodes & Data Analyst (Production Data & Master Data) Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Mission freelance
Data Engineer Senior H/F
Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks
60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Mission freelance
Consultant développement et support ESB Boomi
CAT-AMANIA
Publiée le
Apache Kafka
Boomi
Data integrity
1 an
100-460 €
Lille, Hauts-de-France
Intégrée dans le sous domaine Value Chain engineering Cross, notre équipe Data Exchange est chargée de la gestion des échanges de données. En plus de permettre au SI de communiquer entre les différents domaines de l’entreprise et d’assurer le maintien en conditions opérationnelles de nos plateformes, nous prenons en charge les nouveaux besoins flux et travaillons sur l’optimisation des échange pour répondre techniquement de la manière la plus cohérente aux besoins utilisateurs. nous recherchons un consultant développement et support expérimenté sur notre ESB Boomi. Autonome, rigoureux, organisé, méthodique et aimant travailler en équipe. Vous nous accompagnerez sur : L’analyse et le support (N3) de nos incidents La prise en charge et la réalisation de développements de flux (création, évolution, mapping et configuration de flux) Les tâches d’exploitation sur nos plateformes (arrêts / redémarrage de serveurs, connexions, composants, flux, ..) La participation aux projets techniques L’accompagnement de nos utilisateurs Le suivi de l’activité au travers nos outils de monitoring La rédaction et la mise à jour de nos documentations techniques La participation active à tous les points de stand up et autres La participation au roulement d’astreinte
Mission freelance
POT9017 - Un Chef de Projet Senior SAP - Pilotage stream MRO à Niort
Almatek
Publiée le
SAP
6 mois
Niort, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients, Un Chef de Projet Senior SAP - Pilotage stream MRO à Niort La mission consiste à piloter le stream métier MRO, en lien direct avec les équipes de maintenance, la DSI interne et les sites internationaux (UK/US). Les enjeux : gouvernance projet, consolidation des besoins, data cleansing/migration, préparation des UAT, qualité et conformité EN9100/PART145. Compétences recherchées : Expertise SAP PM/CS/MRO (SRV?05 idéalement) Pilotage projet SAP (10+ ans) Connaissance des processus MRO Idéalement : expérience aéronautique / contraintes qualité Anglais courant Disponibilité pour travailler on?site à Niort
Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics
Ela Technology
Publiée le
Machine Learning
Python
SQL
6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Mission freelance
Data Product Manager
DEVIK CONSULTING
Publiée le
Analyse
Data visualisation
ERP
1 an
500-750 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Data Product Manager afin de piloter le projet migration client sur le volet Data & Visualisation L’objectif étant de construire un nouveau modèle de BDD et reporting basé sur S/4HANA ainsi que d’évaluer les impacte sur les systèmes legacy. Tâches principales Organiser l’étude et collecter les éléments auprès de l’ensemble des parties prenantes Comprendre les ambitions, enjeux et objectifs métiers Organiser et animer des ateliers avec les équipes métiers Collecter l’ensemble des besoins métiers nécessaires à l’étude Documenter l’architecture fonctionnelle Réaliser la modélisation des données / concevoir les couches métiers (Silver layer) Coordonner les contributeurs Data as a Service (Architecte technique, Data Engineers, BI Engineers) Documenter la valeur de la solution Préparer le budget et le planning build/run Formaliser les propositions finales de passage en projet (« Go to project ») Compétences demandées Analyse de données : Expert ERP : Expert Data Modeling : Expert Power BI : Confirmé SAP : Expert Communication : Expert SQL : Expert Data : Expert Langues Français : Courant Anglais : Courant Requis Lieu : Paris
Mission freelance
Lead Développeur Fullstack - Niort
CAT-AMANIA
Publiée le
Angular
Java
Javascript
1 an
Niort, Nouvelle-Aquitaine
Nous recherchons un Lead Développeur Full Stack (H/F) afin d’accompagner les équipes de développement dans un environnement Agile . Vous interviendrez sur des projets stratégiques avec un rôle à la fois technique et de leadership auprès des équipes. Vos missions Au sein d’une équipe fonctionnant en méthodologie Agile (Scrum / Kanban) , vous aurez pour principales responsabilités : Participer à la conception technique et à l’architecture des applications Encadrer et accompagner les équipes de développement Garantir la qualité du code et le respect des bonnes pratiques de développement Participer activement au développement des fonctionnalités Réaliser les revues de code et accompagner la montée en compétences des développeurs Contribuer aux choix technologiques et aux évolutions d’architecture Collaborer avec les Product Owners, Scrum Masters et équipes métiers Participer à l’amélioration continue des pratiques de développement (qualité, performance, sécurité) Assurer la maintenance et l’évolution des applications Environnement technique Stack principale : Backend : Java Frontend : React ou Angular Outils et pratiques associés : Architecture API / microservices Git / GitLab CI/CD (Jenkins ou équivalent) Docker / environnements conteneurisés Tests unitaires et d’intégration Jira / outils de gestion Agile
Mission freelance
Data Engineer - IA (Bordeaux)
Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT
12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Mission freelance
DBA PostgreSQL / Redis (Niort 79)
AKERWISE
Publiée le
PostgreSQL
1 an
Niort, Nouvelle-Aquitaine
Dans le cadre de l’exploitation et de l’évolution de sa plateforme de stockage de données, un grand acteur du secteur assurantiel recherche un ingénieur bases de données orienté PostgreSQL et automatisation . Le consultant interviendra au sein d’un collectif agile dédié aux infrastructures de données , dans une équipe multidisciplinaire travaillant sur plusieurs technologies de bases de données et de stockage. La mission se déroule sur site à Niort avec jusqu’à 3 jours de télétravail par semaine Missions principales Gestion des habilitations et des accès Gestion et création de comptes techniques Administration des droits utilisateurs à la maille base / schéma Analyse et correction des problématiques de droits Gestion des données et des environnements Rafraîchissement d’environnements à partir de sauvegardes Copie de données entre environnements (dev, préproduction, production) Mise en œuvre et évolution de scripts existants Paramétrage et gestion de configurations (yaml, SQL) Gestion des sauvegardes et mises à jour associées Administration et exploitation des bases Création et décommissionnement de bases ou schémas Analyse des impacts lors des opérations de décommissionnement Vérification et maintien de la cohérence des droits après création Maintien en condition opérationnelle et développement Maintien en condition opérationnelle de la plateforme de données Tests de non-régression des outils de la plateforme Développement ou évolution d’outillages internes (Python, PL/pgSQL, scripts) Automatisation des opérations d’exploitation Livrables attendus Rédaction de dossiers d’expertise Déclaration et suivi des changements Réalisations techniques et mises en production Maintien en condition opérationnelle des serveurs Production de scripts d’automatisation
Mission freelance
Data Quality Analyst H/F
OUICODING
Publiée le
1 mois
200-420 €
Paris, Île-de-France
La mission consiste à garantir la fiabilité et l'exactitude des données métiers en mettant en place des processus de validation et en corrigeant les anomalies détectées. Missions principales : -Identifier, analyser et corriger les erreurs dans les données (notamment liées aux chaudières). -Mettre en place des règles de validation et des indicateurs de qualité des données. -Automatiser les processus de contrôle et de correction. -Collaborer avec les équipes techniques et métiers pour assurer l'intégrité des données. -Développer des outils et scripts pour surveiller la qualité des données. -Documenter les méthodologies et bonnes pratiques de gestion des données. -Proposer des améliorations pour réduire les erreurs de données.
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Consultant IA / DATA
Tritux France
Publiée le
Data analysis
Data science
IA Générative
3 ans
Île-de-France, France
Apporter une expertise technique et produire des livrables sur les deux initiatives Low Code - No Code et Data Access ; API du plan stratégique de l'IT CIB. Expertise techniques data, API, Low Code - No Code, Citizen dev. Project management. Stratégie IT, Change et Transformation Contexte Vous rejoignez l’équipe Data & Innovation au sein de l’IT Transversale de Corporate ; Investment Banking. Nous travaillons à la réalisation de projets de data sciences (Data Analytics ; Visualization, Generative AI et Machine Learning) pour les métiers bancaires de la CIB afin d’explorer au maximum les opportunités business. Si vous êtes passionné par la Data Science et l'innovation technologique, vous serez heureux de rejoindre un environnement dynamique, exigeant et bienveillant au plus près du métier de la CIB.
Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles
TS-CONSULT
Publiée le
Azure
Scikit-learn
1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
Mission freelance
Data Analyst senior (H/F)
Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
JIRA
Microsoft Power BI
2 ans
400-460 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analyst senior (H/F) à Hauts-de-France, France. Les missions attendues par le Data Analyst senior (H/F) : Analyse et modélisation • Analyser les besoins métiers et fournir des recommandations basées sur les données. • Mener des analyses exploratoires pour détecter des tendances et opportunités. Production d’outils d’aide à la décision • Développer des dashboards et outils de visualisation interactifs. • Standardiser les processus de gouvernance des données sur les fronts data. Stratégie et gouvernance • Définir les bonnes pratiques en matière d’accès aux données (Report, Dashboard, Self Service Data…) • Assurer la conformité des analyses aux standards définis par l’entreprise. Accompagnement des équipes • Sensibiliser les équipes métiers à l’exploitation des données. • Former les collaborateurs aux outils de visualisation et d’analyse. Compétences • Analyse : Exploration de données, modélisation prédictive, segmentation. • Techniques : SQL, Python, R, Power BI. • Gouvernance : Qualité des données, standardisation. • Communication : Vulgarisation des résultats analytiques. • Expérience utilisateur : UX/UI, storytelling, accessibilité, Recueils feedback, Design System Indicateurs de performance • Taux de réutilisation des analyses. • Temps moyen de mise en production. • Impact des analyses sur la prise de décision. • Qualité et adoption des outils de visualisation. Data Analyste avec 4 à 5 ans d’expérience minimum dans le domaine de la Supply Chain Solides compétences dans l’analyse, la structuration des données mais également dans la production de KPI et tableaux de bord Capacité à travailler en interaction forte avec les équipes Métiers et Contrôle de Gestion Modalités · Présence sur site obligatoire du lundi au mercredi Environnement technique Cloud & Data : GCP (BigQuery, Dataform) DataViz : PowerBI Gouvernance & Qualité : DataGalaxy Documentation & Pilotage : Confluence, JIRA (Scrum)
Offre d'alternance
Data Engineer (Databricks /Azure)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Big Data
CI/CD
Châtillon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5676 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois