Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 816 résultats.
Mission freelance
POT8930 - Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes
Almatek
Publiée le
JIRA
6 mois
340-400 €
Auvergne-Rhône-Alpes, France
Almatek recherche pour l'un de ses clients, Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes . Description Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité. Compétences requises Techniques (obligatoires) Développement Python avancé. Connaissance des modèles et usages IA (machine learning, IA générative, observabilité IA). Traitement et préparation de données (ETL/ELT). Maîtrise Power BI et outils de dataviz. Usage outillé des chaînes DevOps / CI-CD (GitLab, pipelines). Environnement et outils attendus GitLab CI / Placide Confluence / JIRA Plateformes Data & IA GitHub Copilot (usage expert)
Offre d'emploi
Développeur Data Python SQL Shell Spark
KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python
18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Offre d'emploi
Chef de Projet Data / Delivery Master
CAT-AMANIA
Publiée le
Microsoft Excel
12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Chef de Projet Data / Delivery Master pour le compte de notre client, acteur majeur dans le secteur des assurances . Au sein du Data Office , vous intégrerez le service Référentiels , dont la mission est de maintenir et de faire évoluer les référentiels stratégiques de l’entreprise (référentiel Personne, Véhicule, Immobilier). Vous jouerez un rôle central dans la coordination et l’accompagnement des équipes projets Data , en assurant la livraison des initiatives dans le respect des délais, des coûts et des standards de qualité, tout en faisant le lien entre les équipes techniques et les parties prenantes métiers. Présence demandée : 3 jours par semaine sur site à Niort. Vos missions principales 1. Rôle PMO au sein du service Suivi budgétaire des projets Saisie et suivi des collaborateurs dans l’outil Clarity 2. Pilotage des projets Data Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison) Coordonner des équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI projets et proposer des plans d’actions correctifs 3. Gestion de la qualité et des délais Garantir la livraison des projets dans les délais impartis et selon les exigences de qualité Veiller au respect des bonnes pratiques Data (Data Gouvernance, sécurité, conformité) 4. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective) Favoriser une culture d’amélioration continue et de collaboration 5. Communication et gestion des parties prenantes Assurer une communication fluide entre équipes techniques, métiers et partenaires Préparer et animer les comités de suivi (COPIL, comités opérationnels) Gérer les attentes et les demandes d’évolution 6. Optimisation des processus Identifier et mettre en œuvre des axes d’amélioration des processus de delivery Automatiser et optimiser les flux de travail pour renforcer l’efficacité opérationnelle
Offre d'emploi
Lead Data Scientist / ML & AI Engineer full remote F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch
Marseille, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
POT8904 - Un Data Engineer Spark/Scala sur Bordeaux
Almatek
Publiée le
Dataiku
6 mois
190-410 €
Bordeaux, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients Un Data Engineer Spark/Scala sur Bordeaux. Afin de renforcer l'équipe de développement, on recherche un Data Engineer expérimenté et connaissant les technos suivantes : Solutions utilisées : -Socle Big Data (OI1) : *Compute : Yarn *Storage: HDFS (avec chiffrement pour C3), Hive *Sécurité des données: Ranger, Ranger KMS, Ldap, Kerberos Frameworks/langage/outils utilisés : -MoveNAStoHDFS -Moteur d'ingestion v2 -Spark Scala -Dictionnaire de données -Socle Data Science : *DataiKu Automation Frameworks/langage/outils utilisés: -Spark 3 -HQL Localisation : Bordeaux + 2 à 3 jours de présence sur site requise
Mission freelance
Data Analytics– Power BI (Pilotage Financier & RH)
Atlas Connect
Publiée le
Analyse financière
BI
Comptabilité
3 mois
480-560 €
Paris, France
Dans le cadre d’un projet stratégique à fort impact, notre équipe Data Analytics renforce ses capacités pour concevoir un outil de pilotage financier et RH qui deviendra la référence au niveau groupe. Ce projet structurant est mené en collaboration directe avec le CFO, la DRH et le contrôle de gestion. 🧩 Missions Rattaché(e) à l’équipe Data Analytics, vous interviendrez sur : 🔹 Conception & déploiement Concevoir et développer un dashboard Power BI avancé Mettre en place un outil de pilotage consolidé : P&L, budgets, forecasts Structurer un modèle de données robuste et scalable 🔹 Data engineering & modélisation Intégrer des données multi-sources (comptabilité, RH, paie) Concevoir des modèles de données complexes Développer des mesures avancées en DAX Garantir la qualité, la cohérence et la fiabilité des données 🔹 Collaboration métier Travailler en lien direct avec : CFO DRH Contrôle de gestion Traduire les besoins métiers en indicateurs actionnables Accompagner les utilisateurs dans la prise en main de l’outil
Mission freelance
Consultant Senior (H/F) – Stream Lead Master Data SAP FMS
HOXTON PARTNERS
Publiée le
Master Data Management (MDM)
6 mois
Paris, France
Projet international de transformation SAP, visant la migration d’une solution existante vers SAP Fashion Management (SAP FMS) dans un environnement SAP S/4HANA , avec de forts enjeux de structuration de la Master Data et de déploiement d’un core model . Missions principales Piloter le stream Master Data dans le cadre de la migration vers SAP FMS Contribuer à la définition et au déploiement du core model Master Data Concevoir et sécuriser les processus de création et gestion des articles Prendre en charge la Master Data Production (articles, gammes, nomenclatures) Piloter les activités de migration de données (mapping, reprise, contrôles) Coordonner les flux d’intégration avec des systèmes tiers via des solutions de type middleware
Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)
STORM GROUP
Publiée le
AI
Machine Learning
Python
3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
Mission freelance
Workday Data Analyst (FINS & PSA)
INVESTIGO
Publiée le
450-500 £GB
Angleterre, Royaume-Uni
We are seeking an experienced Workday Finance & PSA Data Analyst to support the implementation of Workday Financials (FINS) and Professional Services Automation (PSA). The role will be responsible for end-to-end data analysis, validation, reconciliation, and reporting, ensuring the accuracy, consistency, and quality of financial and PSA data throughout the implementation lifecycle. Required Skills & Experience Demonstrated experience in a Workday Finance Data Analyst, Workday PSA Data Analyst, or comparable role. Strong hands-on expertise with Workday Financials and Workday PSA. Solid understanding of financial and PSA data structures, including customers, suppliers, projects, transactions, revenue, and costs. Proven ability to perform detailed data analysis, validation, and reconciliation. Experience supporting data conversion activities and testing phases within Workday implementations. Exceptional attention to detail, paired with strong analytical and problem-solving skills. Ability to thrive in fast-paced, delivery-driven environments and manage competing priorities effectively. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Mission freelance
Platform Reliability Engineer SRE & DevOps
Codezys
Publiée le
Azure Data Factory
Azure DevOps Services
Datadog
12 mois
390-500 €
Versailles, Île-de-France
Contexte et approche : La mission s’inscrit dans une démarche SRE et DevOps, avec une intégration à l’équipe Plateforme pour garantir fiabilité, exploitabilité et qualité des microservices. Principales responsabilités : Assurer l’intégration et l’exploitation opérationnelle des applications de la plateforme. Vérifier la conformité des livraisons selon les standards (nommage, logs, documentation, monitoring). Améliorer la documentation des releases. Définir et suivre des indicateurs de fiabilité (SLI/SLO), error budgets, en lien avec les équipes de développement. Configurer et maintenir dans Datadog les dashboards, règles d’alerting, runbooks, et améliorer l’observabilité. Diagnostiquer en profondeur les applications (.NET, PHP, JavaScript) via logs, traces et métriques (Datadog APM/Logs/RUM). Automatiser l’exploitation par la configuration d’autoscaling, health probes, politiques de redémarrage et procédures de failover. Conduire des post-mortems après incidents, documenter et piloter les actions correctives. Mettre à jour et optimiser les pipelines de déploiement dans Azure DevOps. Maintenir et faire évoluer les Helm charts pour le déploiement sur Kubernetes (AKS). Intégrer SonarQube dans les processus de livraison pour renforcer la qualité du code. Collaborer avec les tech leads, développeurs et QA pour intégrer les tests automatisés en CI/CD et renforcer la résilience des services. Assurer un support de niveau 3 sur les services de la plateforme et participer aux analyses post-incident.
Mission freelance
Développeur Salesforce confirmé – Environnement CIB / Transformation Data
CAT-AMANIA
Publiée le
Salesforce
2 ans
400-490 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation des systèmes d’information liés à la chaîne de financement (Front, Risk, Ops), nous recherchons un(e) Développeur Salesforce confirmé(e) pour renforcer une équipe Digital Front Financing. Ce programme vise à moderniser et consolider les fondations data et applicatives supportant les activités de financement en environnement bancaire d’investissement. Démarrage : avril Mission longue durée Vos missions Au sein d’une équipe transverse en interaction avec les équipes IT (Risk, Data, Ops) et les Product Owners métier, vous serez amené(e) à : Développer et configurer des solutions sur la plateforme Salesforce Implémenter des fonctionnalités spécifiques pour les utilisateurs Front Office Participer aux ateliers avec les parties prenantes afin de comprendre et affiner les besoins Estimer les charges de développement associées aux exigences exprimées Contribuer aux phases de tests (stabilité, performance, scalabilité) Rédiger la documentation technique et fonctionnelle Garantir la qualité et la robustesse des solutions livrées Vous interviendrez dans un environnement structuré, à forte exigence de qualité et de coordination transverse. Environnement Programme de transformation stratégique Interaction avec équipes Risk, Data, Ops Méthodologie projet structurée Environnement bancaire d’investissement
Mission freelance
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN
Inventiv IT
Publiée le
Apache Kafka
Apache Spark
Business Process Model and Notation (BPMN)
6 mois
550-630 €
Lyon, Auvergne-Rhône-Alpes
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN - Maîtrise des formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) - Réalise les études de cadrage pour l’architecture Data en s’appuyant sur une expertise des technologies clés - Stockage (SQL/NoSQL, Data Lake, Data Warehouse) - Traitement (ETL, Spark, Kafka) - Restitution (BI, dashboards) - Exploration et référentiels (catalogues, gouvernance) Télétravail : 3 jours max par semaine
Offre d'emploi
Lead Cloud Engineer Data & AI
Groupe Aptenia
Publiée le
AWS Cloud
DevSecOps
MLOps
6 mois
Occitanie, France
Lead Cloud Engineer Data & IA pour un programme R&D d’envergure. Conception, automatisation et exploitation de plateformes cloud AWS enterprise, sécurisées et scalables pour soutenir des cas d’usage Data, ML, MLOps et IA. Déploiement de landing zones, pipelines Data/MLOps et Infrastructure-as-Code. Intégration de la sécurité by-design, de la conformité GxP/GDPR et d’une posture audit-ready. Leadership technique, animation de communautés d’ingénierie et collaboration étroite avec équipes data, produit, sécurité et compliance.
Mission freelance
Consultant BI Sénior- Développeur Data / Décisionnel – Teradata (H/F)Nantes
Argain Consulting Innovation
Publiée le
Microstrategy
SQL
Teradata
12 mois
400-550 €
Nantes, Pays de la Loire
Description de la mission Dans le cadre d’un projet décisionnel, vous intervenez sur la conception, le développement et le maintien de solutions de traitement de données au sein d’un environnement datawarehouse. Vous participez à la mise en œuvre de flux de chargement, d’extraction et de restitution des données, ainsi qu’à la création d’indicateurs et de reportings à destination des utilisateurs métiers. 🎯 Vos missions principales Rédiger et maintenir des user stories liées aux solutions de traitement de données. Développer et tester des traitements de chargement et de transformation. Mettre en place les tests unitaires et garantir la qualité des livrables. Déployer les développements sur les différents environnements. Assurer le bon fonctionnement des solutions en production. Produire la documentation technique associée. Participer aux phases d’analyse, d’estimation et d’amélioration continue. Contribuer aux rituels agiles de l’équipe projet. ⚙️ Activités attendues Développement de flux d’intégration et d’exposition de données sur plateforme Teradata / datawarehouse. Conception d’indicateurs de pilotage et de reportings décisionnels. Suivi des évolutions et maintien de la cohérence des solutions. Optimisation des traitements et amélioration des performances. Accompagnement des utilisateurs dans la compréhension et l’appropriation des solutions. 🧰 Compétences techniques requises Expertise SQL, particulièrement sur le SGBD Teradata. Maîtrise de MicroStrategy (couche sémantique). Bonne maîtrise Shell / commandes Unix. Maîtrise des principes CI/CD : Git, pratiques de release. Connaissance Datastage (Director et Designer). Connaissances environnements HOST et Eclipse. Connaissances Stambia (XDI). Notions Jenkins et Artifactory. Bonne compréhension des méthodes Agiles (Scrum notamment). Utilisation d’outils de suivi type Jira, Xray. Connaissance du domaine bancaire ou marketing appréciée. 🤝 Compétences humaines Bonne communication écrite et orale. Capacités rédactionnelles et animation de réunions. Esprit d’équipe, collaboration et écoute. Rigueur et sens des responsabilités dans le suivi des activités en production.
Mission freelance
Lead Product Owner – Securities Research Data/AI Platform H/F
Comet
Publiée le
Azure
Bloomberg
IA
128 jours
900-1k €
Paris, France
Nous recherchons un(e) Lead Product Owner pour piloter la conception et la livraison à l’échelle industrielle de produits innovants, centrés sur l’IA et les données, pour la franchise de Recherche en Valeurs Mobilières côté vente (sell-side). Vous orchestrerez une équipe interfonctionnelle (Analystes de Recherche, Ventes, Corporate Access, Data Scientists/Ingénieurs, UI/UX et ingénieurs full-stack) afin de créer des services sécurisés, multilingues et prêts pour le client, améliorant la portée, la qualité et la monétisation de la recherche. Périmètre du produit : trois piliers 1. Production augmentée par l’IA pour les Analystes de Recherche Génération et assemblage de documents de recherche multilingues avec supervision humaine. Capacités clés : ingestion et templating de documents, traduction/adaptation du ton, sourcing de données, suggestions de mise à jour de modèles, résumés factuels avec citations et validation. 2. Engagement client augmenté par l’IA pour les Ventes Agents intégrés pour réduire le temps de préparation et augmenter le temps consacré aux clients et à l’analyse à forte valeur ajoutée. Capacités clés : récupération sécurisée de données internes et externes, requêtes conversationnelles, préparation ciblée de matériel client, automatisation du flux de capture d’alpha, intégration avec CRM et outils collaboratifs. 3. Monétisation & expérience client Transformation de la propriété intellectuelle en revenus récurrents via différents formats : ensembles de données, abonnements, contenus générés par IA (chatbots, podcasts, vidéos, etc.). Capacités clés : empaquetage de données, génération de contenu multi-format, analyse de l’utilisation et de la monétisation, distribution conforme aux droits. Contexte technologique : Modernisation d’une plateforme mixte : systèmes existants (CRM, portail web de Recherche) et nouvelles solutions IA (Azure RAG, Microsoft Copilot, plateformes de données et IA). Livraison de produits RAG/LLM/Agents à l’échelle avec garde-fous, observabilité et contrôle des coûts. Responsabilités clés : Définir la feuille de route 3 ans et quantifier la valeur via OKRs. Concevoir des expériences RAG/agents, automatiser les flux, sécuriser les données et superviser la qualité humaine. Intégrer les flux de données, assurer la conformité des licences et collaborer avec les équipes Juridique/Conformité. Gérer le backlog, rédiger les PRD, définir les SLOs, livrer de manière itérative et soutenir le lancement des offres client.
Offre d'emploi
Expert Data Snowflake / Azure (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet stratégique de mise en place d’un MVP Data, nous recherchons un Expert Data Snowflake / Azure, avec une forte culture Data Engineering et Cloud. Vos missions : Participer à la conception et à l’implémentation de l’architecture Data basée sur Snowflake et Azure Contribuer aux choix d’architecture cloud, data et infrastructure Développer et optimiser les pipelines de données (ingestion, transformation, modélisation) Travailler sur les aspects performance, sécurité et scalabilité Collaborer étroitement avec les équipes projet et les partenaires impliqués dans l’implémentation Intégrer les bonnes pratiques DevOps / DataOps Environnement technique : Snowflake Microsoft Azure Concepts Cloud & Architecture Data Infrastructure & DevOps (CI/CD, automatisation, monitoring…) Outils Data Engineering
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1816 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois