Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 707 résultats.
Offre d'emploi
Data Analyst Power BI (F/H)
CELAD
Publiée le
38k-45k €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Power BI pour intervenir chez un de nos clients du secteur bancaire . Voici un aperçu détaillé de vos missions : - Accompagner l’équipe DATA dans la gestion du CHANGE (projets et évolutions) et du RUN (MCO) des applications BI - Contribuer à la mise en œuvre de la feuille de route DATA de la DSI en apportant votre expertise technique - Réaliser des extractions de données issues du système décisionnel et des différentes sources métiers - Concevoir et maintenir des tableaux de bord et reportings BI pour les équipes métier - Travailler en étroite collaboration avec la squad Data et les différents interlocuteurs techniques et fonctionnels - Participer à l’amélioration continue des solutions BI et à l’optimisation des processus d’analyse de données - Assurer la fiabilité et la cohérence des données utilisées dans les outils décisionnels
Offre d'emploi
DATA ANALYSTE DATASCIENCE SENIOR
KEONI CONSULTING
Publiée le
Data analysis
Python
SQL
18 mois
40k-45k €
400-550 €
Gradignan, Nouvelle-Aquitaine
CONTEXTE Nous recherchons pour notre client un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ . Fort d'une expérience DATA, le prestataire devra également montrer une appétance particulière dans le domaine fonctionnel MISSIONS - Mise en oeuvre de cas d'usage métiers par croisement de la donnée ( ciblage , analyse de donnée ou datascience ) - Développement et maintenance de produits DATA réutilisables - Publication des résultats d'analyse avec de la DATAVIZ - Respect des normes et bonnes pratiques au sein de l'équipe - Accompagnement et acculturation des équipes métiers ou autres" Définition des prestations attendues : Prestation d'analyse DATA et DATASCIENCE Préciser la technologie ou les certifications attendues : Python, Pyspark,SQL,Dataviz, Datascience " Livrables attendus "Programme DATA sous plateforme DATA Dataviz Présentation PPT de resultats d'etude Environnement technique - technologique "Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports) Compétences techniques attendues Connaissances en environnement BIG DATA ( python , Pyspark) Requêtage SQL Exposition des données par DATAVIZ Experience en analyse DATA et projet de DATAscience
Mission freelance
DevOps AI Construire des application
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Nanterre, Île-de-France
Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé TJM: Selon profil Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentationDescription détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps
Mission freelance
SAP MASTER DATA
KUBE Partners S.L. / Pixie Services
Publiée le
SAP
6 mois
Paris, France
Je cherche activement un consultant SAP Master Data,côté production, dans le cadre de la construction d'un core modele. Pour la phase de cadrage, design et conception : démarrage ASAP Tâches Base article et non article Fiche info achats Fiche info fournisseurs Nomenclature production Gamme de production Costing Migration avec interfaces PLM vers SAP basées sur des Idocs et LSMW Lien avec metier Leadership Compétences requises : Master Data SAP (min 5 ans exp) Expérience conception générale indispensable, paramétrage, custo Orienté best practice Langues : français et anglais mandatory
Mission freelance
Data Analyst Power BI (F/H)
CELAD
Publiée le
1 an
450-479 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Power BI pour intervenir chez un de nos clients du secteur bancaire . Voici un aperçu détaillé de vos missions : - Accompagner l’équipe DATA dans la gestion du CHANGE (projets et évolutions) et du RUN (MCO) des applications BI - Contribuer à la mise en œuvre de la feuille de route DATA de la DSI en apportant votre expertise technique - Réaliser des extractions de données issues du système décisionnel et des différentes sources métiers - Concevoir et maintenir des tableaux de bord et reportings BI pour les équipes métier - Travailler en étroite collaboration avec la squad Data et les différents interlocuteurs techniques et fonctionnels - Participer à l’amélioration continue des solutions BI et à l’optimisation des processus d’analyse de données - Assurer la fiabilité et la cohérence des données utilisées dans les outils décisionnels
Mission freelance
Data Product Manager
DEVIK CONSULTING
Publiée le
Analyse
Data visualisation
ERP
1 an
500-750 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Data Product Manager afin de piloter le projet migration client sur le volet Data & Visualisation L’objectif étant de construire un nouveau modèle de BDD et reporting basé sur S/4HANA ainsi que d’évaluer les impacte sur les systèmes legacy. Tâches principales Organiser l’étude et collecter les éléments auprès de l’ensemble des parties prenantes Comprendre les ambitions, enjeux et objectifs métiers Organiser et animer des ateliers avec les équipes métiers Collecter l’ensemble des besoins métiers nécessaires à l’étude Documenter l’architecture fonctionnelle Réaliser la modélisation des données / concevoir les couches métiers (Silver layer) Coordonner les contributeurs Data as a Service (Architecte technique, Data Engineers, BI Engineers) Documenter la valeur de la solution Préparer le budget et le planning build/run Formaliser les propositions finales de passage en projet (« Go to project ») Compétences demandées Analyse de données : Expert ERP : Expert Data Modeling : Expert Power BI : Confirmé SAP : Expert Communication : Expert SQL : Expert Data : Expert Langues Français : Courant Anglais : Courant Requis Lieu : Paris
Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics
Ela Technology
Publiée le
Machine Learning
Python
SQL
6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Offre d'emploi
Alternance - Data Analyst / Data Engineer F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
Numpy
Bordeaux, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Consultant développement et support ESB Boomi
CAT-AMANIA
Publiée le
Apache Kafka
Boomi
Data integrity
1 an
100-460 €
Lille, Hauts-de-France
Intégrée dans le sous domaine Value Chain engineering Cross, notre équipe Data Exchange est chargée de la gestion des échanges de données. En plus de permettre au SI de communiquer entre les différents domaines de l’entreprise et d’assurer le maintien en conditions opérationnelles de nos plateformes, nous prenons en charge les nouveaux besoins flux et travaillons sur l’optimisation des échange pour répondre techniquement de la manière la plus cohérente aux besoins utilisateurs. nous recherchons un consultant développement et support expérimenté sur notre ESB Boomi. Autonome, rigoureux, organisé, méthodique et aimant travailler en équipe. Vous nous accompagnerez sur : L’analyse et le support (N3) de nos incidents La prise en charge et la réalisation de développements de flux (création, évolution, mapping et configuration de flux) Les tâches d’exploitation sur nos plateformes (arrêts / redémarrage de serveurs, connexions, composants, flux, ..) La participation aux projets techniques L’accompagnement de nos utilisateurs Le suivi de l’activité au travers nos outils de monitoring La rédaction et la mise à jour de nos documentations techniques La participation active à tous les points de stand up et autres La participation au roulement d’astreinte
Offre d'emploi
Consultant Junior Data Strategy F/H
COEXYA
Publiée le
35k-45k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Dans un monde où l'innovation est un levier de performance, la transformation numérique ne se limite plus à l'adoption de nouvelles technologies. Elle repose sur des stratégies data claires, une gouvernance des données structurée, et une capacité à aligner les enjeux métiers, organisationnels et technologiques. Chez Coexya Consulting, nous sommes convaincus que la donnée est un actif stratégique au service de la transformation des organisations. Pour accompagner la croissance de notre practice Data Strategy, nous recherchons un Consultant Junior Data Strategy F/H, désireux de développer une expertise en gouvernance des données, data management et accompagnement des métiers. CE QUE L'ON VOUS PROPOSE En lien avec le responsable opérationnel de la practice Data Strategy, vos missions sont les suivantes : - Contribuer aux missions de conseil en Data Strategy et Data Gouvernance auprès de nos clients, de la phase de cadrage jusqu'à l'opérationnalisation. - Participer à la définition de cadres de gouvernance des données. - Contribuer aux diagnostics de maturité data, à l'identification des irritants métiers et à la construction de feuilles de route data. - Intervenir sur des sujets de Data Management : catalogage, glossaires métiers, métadonnées, qualité des données, référentiels MDM. - Participer à l'animation d'ateliers métiers. - Produire des livrables de conseil. - Contribuer au développement de l'offre Data Strategy. - Participer ponctuellement aux avant-ventes : contribution aux propositions commerciales, supports de soutenance.
Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles
TS-CONSULT
Publiée le
Azure
Scikit-learn
1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
Offre d'emploi
Data Analyst - Data Scientist
VISIAN
Publiée le
IA
Machine Learning
Natural Language Processing (NLP)
1 an
40k-45k €
400-670 €
Île-de-France, France
🎯 Mission principale Au sein d’une organisation spécialisée dans la data et les solutions de paiement, vous contribuez à la mise en place de projets décisionnels et Big Data en collaboration avec les équipes métiers et IT. 🧩 Responsabilités principales Contribuer à des projets décisionnels et Big Data. Participer à l’animation d’ateliers et de groupes de travail avec les utilisateurs et équipes techniques. Recueillir et analyser les besoins métiers. Concevoir et développer des reportings décisionnels : définition d’indicateurs statistiques, qualité et financiers Réaliser des analyses exploratoires de données. Rédiger la documentation projet : spécifications fonctionnelles et techniques cahiers de tests et de recette Participer aux phases de validation et de recette. Former et accompagner les utilisateurs finaux.
Mission freelance
Chef de projet Data H/F Freelance Poitiers (86)
Wekey
Publiée le
Gestion de projet
6 mois
460-500 €
Poitiers, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes chef de projet Data H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à poitiers. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage & Analyse Métier Recueillir et comprendre les besoins des Directions Métiers. Identifier les enjeux fonctionnels et les traduire en exigences claires. Animer les ateliers de conception et les comités Projet. Modélisation & Architecture Fonctionnelle Concevoir et modéliser les structures Data : Data Lake, Datamarts métiers, modèles relationnels. Définir les règles de gestion : déduplication, qualité, normalisation, RGPD… Rédaction & Spécifications Rédiger l’ensemble des livrables : contrats d’interface, spécifications fonctionnelles et techniques. Garantir la qualité, la pertinence et la cohérence documentaire. Pilotage & Coordination Organiser, suivre et orchestrer les projets Data end-to-end. Piloter une équipe transverse : Data Engineers & Data Managers. Réaliser les recettes fonctionnelles et s’assurer de la conformité. Accompagnement & Acculturation Aider les métiers à monter en compétence sur les solutions Data mises à disposition. Diffuser les bonnes pratiques, contribuer à l'amélioration continue. Participer à l’animation de la communauté Data. Engagement & Qualité Garantir le respect des engagements coûts / délais / qualité. Contribuer à l’évolution des méthodologies internes de la Data Factory.
Mission freelance
Service Delivery Manager – Plateforme DATA / IA
KatchMe Consulting
Publiée le
SLA
6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data
Hexateam
Publiée le
AWS Cloud
Databricks
Python
36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1707 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois