L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 407 résultats.
Offre d'emploi
Développeur Python / front office
AVA2I
Publiée le
C#
Docker
Gitlab
1 an
Île-de-France, France
Au sein d’une DSI d’un grand groupe bancaire international, l’équipe IT conçoit, développe et maintient les systèmes d’information dédiés aux activités de marchés. Un département orienté métier est en charge des applications liées aux produits de Taux, Change, Crédit et produits structurés. Dans ce cadre, une équipe de structuration souhaite renforcer ses capacités techniques afin de répondre aux besoins du Front Office, notamment pour le développement d’outils Python via une plateforme interne de type Sandbox. 🎯 Objectif de la mission Contribuer à la conception et au développement d’un framework Python Open Source permettant aux utilisateurs Front Office de créer et déployer leurs propres outils sur une plateforme Sandbox. 🛠️ Missions principales Développer un framework / toolkit Python d’accès à la plateforme Sandbox Concevoir et intégrer des connecteurs aux API internes Développer des bibliothèques Python mutualisées Mettre en place un environnement de développement collaboratif (GitLab) Implémenter des pipelines CI/CD Participer à la mise en place d’une infrastructure sécurisée : Machines virtuelles Cloud Base NoSQL (MongoDB) Gérer les mécanismes d’ authentification et d’autorisation Travailler en méthodologie Agile avec une forte proximité métier ⚙️ Environnement technique Langages : Python, C# (.NET Core) DevOps : GitLab, CI/CD Data : MongoDB (NoSQL) Infrastructure : Cloud, Docker, Kubernetes Architecture : APIs, microservices
Offre d'emploi
Architecte DATA CMDB SERVICE NOW
OBJECTWARE
Publiée le
ServiceNow
2 ans
Île-de-France, France
Dans le cadre de la mise en conformité avec les recommandations de la Banque Centrale Européenne (BCE) sur la fiabilité des référentiels IT, notre client engage un programme d’amélioration et de gouvernance de sa CMDB Groupe et de ses référentiels techniques . L’objectif de cette mission est de concevoir et mettre en œuvre une architecture de données robuste et gouvernée , permettant d’assurer la qualité, la cohérence et l’exploitabilité des informations relatives aux actifs IT. Le consultant interviendra au cœur du dispositif pour structurer et améliorer le modèle de données CMDB , industrialiser l’intégration des sources d’inventaire et renforcer la gouvernance des données techniques. Architecture et modélisation des données CMDB Concevoir et optimiser le modèle de données des référentiels IT techniques (Configuration Items, relations et métadonnées). Simplifier et rationaliser les structures existantes afin d’améliorer la lisibilité et la maintenabilité du modèle. Garantir l’évolutivité de l’architecture des données pour intégrer de nouvelles sources d’inventaire et répondre aux besoins futurs. Identification et réconciliation des données Définir et implémenter les règles d’identification et de réconciliation (IRE) au sein de ServiceNow CMDB . Déterminer les clés d’identification des Configuration Items afin d’assurer l’unicité et la cohérence des données. Mettre en place des mécanismes de consolidation des informations issues de multiples sources d’inventaire. Gestion des sources d’inventaire Identifier et qualifier les sources de données techniques alimentant les référentiels IT . Définir les sources de vérité pour chaque type d’information. Cartographier et structurer les flux d’alimentation des référentiels IT . Qualité des données et gouvernance Définir et mettre en œuvre une stratégie de Data Quality pour la CMDB : déduplication fiabilité des données complétude fraîcheur des informations gestion de l’obsolescence. Mettre en place des indicateurs de qualité et des tableaux de bord de suivi . Gouvernance des référentiels IT Appliquer les principes de Master Data Management (MDM) au contexte des référentiels IT. Définir les rôles et responsabilités autour des données (Data Owner, Data Steward). Structurer un cadre de gouvernance des référentiels IT documenté et partagé. Collaboration transverse Travailler en étroite collaboration avec les équipes : ITSM / CMDB ServiceNow Discovery équipes MDM sécurité IT infrastructures et exploitation. Accompagner les équipes responsables des inventaires techniques et outils de découverte . Reporting et produits de données Développer des produits de données exploitant les référentiels IT pour répondre aux besoins de reporting et d’audit. Contribuer à la production d’indicateurs et de tableaux de bord permettant de piloter la qualité et la fiabilité des données.
Offre d'emploi
Data Scientist (NLP / LLM / Agentique) — Projet IA Télécom
TOP TECH
Publiée le
Agent IA
Large Language Model (LLM)
40k-50k €
France
Dans le cadre d’un programme stratégique d’industrialisation d’une solution IA innovante, un grand acteur des télécommunications renforce ses équipes Data. Suite à la mise en production d’une solution de relation client basée sur de l’IA Speech-to-Speech , le client déploie cette technologie sur plusieurs canaux digitaux à grande échelle. 👉 Nous recherchons plusieurs Data Scientists pour accompagner cette montée en charge. 🎯 Vos missions Vous interviendrez sur deux axes clés : 🔍 1. Monitoring & amélioration continue Suivi des performances des modèles en production Analyse des dérives et optimisation continue Mise en place d’indicateurs de qualité et de fiabilité 🧪 2. TestOps & industrialisation IA Conception d’une Test Case Factory automatisée Génération de scénarios de tests via des approches Data Science Validation des nouvelles versions des modèles IA Mise en place de stratégies de tests robustes pour garantir la qualité en production ✔️ Expérience requise : Expérience en NLP / LLM / Agentique (obligatoire pour profils expérimentés) Bonne compréhension des systèmes IA en production Expérience sur des problématiques liées au traitement du texte 🛠️ Compétences techniques Data Science (Python, ML, DL) NLP (Natural Language Processing) LLM (Large Language Models) Mise en production & monitoring de modèles Expérience en automatisation de tests (idéalement TestOps IA) 📍 Contexte Secteur : Télécommunications Projet : Déploiement à grande échelle d’une solution IA conversationnelle Environnement : Innovant, orienté industrialisation et passage à l’échelle
Offre d'emploi
Développeur API Python Citrix CVAD
MGI Consultants
Publiée le
Python
40k-48k €
Paris, France
Présentation de la mission Intitulé du poste : Ingénieur de Production Senior – Automatisation & Cloud Privatif Contexte : Dans le cadre de la refonte des offres Citrix sur un nouvel orchestrateur, le candidat aura pour mission de scripter les APIs et de réaliser les développements nécessaires à cette transformation. Il intégrera un collectif d'experts Citrix, en collaboration directe avec les équipes internes du Groupe. 2. Informations Contractuelles & Logistiques Lieu de réalisation : Paris Rythme de travail : Temps plein (100%) Présence sur site : 3 jours par semaine 3. Missions et Responsabilités Développement & Automatisation : Scripting d'APIs et développement d'outils d'automatisation pour le Cloud privatif (Terraform, Ansible). Ingénierie de Production : Intégration de nouvelles applications, packaging des composants, et définition des règles de gestion des systèmes d'exploitation. Tests Techniques & Recette : Conception de plans de tests, préparation des infrastructures de test, réalisation des diagnostics et rédaction des rapports de GO/NOGO pour la mise en production. Optimisation (FinOps & Performance) : Proposer des solutions pour réduire les coûts et améliorer les performances globales. Sécurité (DevSecOps) : Accompagner le développement selon les meilleures pratiques de sécurité et assurer une veille constante sur les menaces. MCO : Maintien en condition opérationnelle des infrastructures liées aux postes utilisateurs (Télédistribution, Messagerie, Annuaires). 4. Profil Recherché Niveau d'expérience : confirmé Compétences techniques impératives : Scripting PowerShell : Niveau Expert Scripting Python : Niveau Expert Citrix CVAD (Citrix Virtual Apps and Desktops) : Niveau Expert Outils souhaités : Terraform, Ansible (contexte Cloud/Orchestration). Langues : Anglais professionnel impératif. 5. Remarques Le candidat doit être un expert du scripting capable d'interagir avec des infrastructures complexes via du code, comprend les contraintes de la production (diagnostics de dysfonctionnement, packaging, homologation, MCO). Rémunération : 46Ke
Mission freelance
Ingénieur DevOps 5 ans d'expérience min - 2 jours TT
Intuition IT Solutions Ltd.
Publiée le
Ansible
Azure DevOps
Azure Kubernetes Service (AKS)
6 mois
400-530 €
Rouen, Normandie
L’ingénieur Devops aura pour missions principales de : Intégration & déploiement : Installation, administration, Intégration et déploiement de logiciels fonctionnels et techniques sur tous les environnements et SI hébergés par la DNI dans une démarche et en suivant les pratiques DEVOPS Objectif de mise à disposition fluide, qualitative et sécurisée des changements informatiques en collaboration rapprochée avec les membres des équipes de développement et en relais des équipes exploitation Contribue à apporter une vision consolidée des changements Assure la fiabilisation du packaging des releases en collaboration avec les équipes de développement Référent transverse spécifique au projet MGAR/MRH vient renforcer l’activité des DEVOPS sur leur périmètre du POS respectif CICD : Mettre en place les outils d'industrialisation et de déploiement continu multi filières (.Net,, Kubernetes, Data, legacy Cobol) Automatiser, fiabiliser et optimiser les déploiements (via des quality gates) Accompagner les équipes sur les outils mis en place OPS Ingénierie système Garantir l'exploitabilité, fiabilité et la sécurité des applications Piloter la fourniture des environnements et leur maintien en conditions opérationnelles dans le temps Développer des outils de feedback continu Accompagnement Partager les bonnes pratiques DEVOPS Assurer la coordination avec les autres équipes de la DSI pour l'harmonisation des méthodes et des procédures de production Porter et contribuer à l'amélioration de la sécurité de bout en bout
Mission freelance
Chef de Projet/ Data - Success factor (obligatoire) - Full Remote
WorldWide People
Publiée le
SAP SuccessFactors
9 mois
400 €
France
Chef de Projet/ Data - Success factor (obligatoire) EXP : +5 ans Compétences (1 à 3) : ☒ Gestion de projet 2 ☒ Conception de test 2 ☒ analyse de données 3 ☒ rédaction de contrat d’interface 2 ☒ définition de stratégie de recette 2 ☒ Coordination d’acteur 2 ☒ excel 3 ☒ Administration fonctionnelle de Success factor module EC 3 ☐ Outil de requêtage de base de données 3 ☐ Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => · Analyse et correction des erreurs. · Suivi quotidien des flux (API, IC, middleware). · Mise en qualité des échanges de données. Optimisation des flux SF ↔ middleware => · Audit des interfaces existantes. · Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => · Rédaction des specs techniques. · Coordination IT / middleware. · Tests et support post go-live.
Mission freelance
Data engineer (aws / talend / power bi)
Signe +
Publiée le
Microsoft Power BI
12 mois
400-440 €
Grenoble, Auvergne-Rhône-Alpes
contexte de la mission intervention chez un client grenoblois sur des sujets data environnement orienté cloud aws avec exploitation d’un datalake besoin d’un profil capable de couvrir à la fois la data ingénierie et une partie data visualisation missions principales conception, développement et maintenance de pipelines data exploitation et optimisation d’un datalake sur aws traitement, transformation et intégration des données via talend mise à disposition des données pour les équipes métiers création de dashboards et reporting sous power bi participation aux choix techniques et à l’amélioration continue des architectures data environnement technique cloud / data : aws (lambda, athena, glue, step functions, rds, s3) etl : talend data visualisation : microsoft power bi profil recherché expérience significative en data engineering bonne maîtrise de l’écosystème aws data (datalake) solide expérience sur talend (obligatoire) capacité à produire des dashboards power bi autonomie et capacité à intervenir en environnement projet
Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)
CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Offre d'emploi
Scrum Master DATA IA
Le Groupe SYD
Publiée le
12 mois
35k-55k €
350-550 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟Scrum Master Data & IA 📍Lieu : Niort 🏠 Télétravail : 2 jours par semaine 📝Contrat : CDI, Freelance, Portage 👉 Contexte client : Nous recherchons un Scrum Master spécialisé Data & IA pour accompagner l’un de nos clients majeurs du secteur de l’assurance, basé à Niort. Dans un contexte de transformation digitale avancée et de montée en puissance des usages Data/IA, tu rejoindras une organisation en mode produit, articulée autour d’environnements agiles matures (Scrum, SAFe). Ton rôle sera central pour accélérer la délivrance , renforcer la dynamique agile des équipes et garantir un delivery fluide, orienté valeur, sur des projets Data, Analytics et Intelligence Artificielle. Tu auras pour missions de : Garantir le respect des pratiques Scrum et promouvoir les valeurs agiles. Animer l’ensemble des cérémonies : Daily, Sprint Planning, Review, Rétrospectives. Faciliter la collaboration entre Data Scientists, Data Engineers, Product Owners et équipes métiers. Accompagner les équipes dans la compréhension et l’intégration des flux data, des modèles IA/ML et de la chaîne analytique. Aider à la priorisation des sujets avec une approche orientée valeur, ROI et usages opérationnels. Contribuer à la fluidité du delivery pour des produits tels que : modèles prédictifs, NLP/LLM, automatisation IA, cas d’usage data métier. Lever les irritants organisationnels et techniques pour fluidifier la production. Suivre et faire progresser les indicateurs d’équipe : vélocité, qualité, DORA metrics, etc. Coach agile auprès des équipes et des parties prenantes métier. Partenaire du Product Owner pour clarifier le backlog, préparer les sprints, sécuriser le périmètre. Contribuer à la cohésion, la motivation et la montée en compétence de l’équipe.
Offre d'emploi
Développeur Python DevOps GCP (H/F)
STORM GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Jenkins
3 ans
50k-54k €
400-420 €
Île-de-France, France
Contexte : Nous recherchons un/une développeur/développeuse Python DevOps GCP pour renforcer nos équipes. Missions : Vous serez amené(e) à réaliser les tâches suivantes : La mission consiste à participer à la réalisation du projet basée sur Google Cloud Platform, à forts enjeux au sein d'une équipe engagée et experte sur le sujet. Développement et Intégration de solutions Python Spark avec les services data et compute de Google Cloud Platform Participer à des projets avec de fortes contraintes techniques, de sécurité et de performances.
Offre d'emploi
Tech Lead Data Snowflake Lille
Proxiad
Publiée le
Databricks
DBT
Snowflake
48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Mission freelance
Data Model Architect
Phaidon London- Glocomms
Publiée le
Architecture
Data governance
Data quality
6 mois
400-550 €
Arcueil, Île-de-France
Concevoir le modèle de données Salesforce (objets, champs, relations) pour l'ensemble des flux de travail du projet. Définir et appliquer les conventions de nommage et les normes de modélisation. Examiner et valider toutes les demandes de nouveaux objets ou champs personnalisés. Gérer l'évolution du modèle pour l'ensemble des flux de travail, en garantissant la rétrocompatibilité. Concevoir la stratégie de migration et de chargement des données pour les jeux de données existants. Garantir la pleine compatibilité du modèle de données avec Agentforce. Documenter et maintenir le dictionnaire de données du projet. Accompagner les équipes concernant la gestion des hiérarchies, les objets à volume élevé et les structures de comptes complexes.
Mission freelance
Proxy Product Owner Data – Corporate Finance Transformation
Freelance.com
Publiée le
Data management
ERP
P2P
1 an
540-600 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Finance Transformation au sein d’un grand groupe international, la Direction Data recherche un Proxy Product Owner Data pour piloter les initiatives Finance à forte composante data. Le périmètre couvre notamment les processus P2P (Procure-to-Pay) , O2C (Order-to-Cash) ainsi que les projets d’ automatisation des processus Finance dans un environnement structuré et exigeant. Description du poste Rattaché(e) au Data Office Groupe, vous intervenez en véritable interface stratégique entre les équipes Finance, IT et Data . À ce titre, vous : Identifiez et priorisez les initiatives Finance à fort impact data Traduisez les besoins métiers en exigences fonctionnelles et techniques Garantissez l’alignement avec les standards data et l’architecture groupe Validez les modèles de données et les choix d’architecture Contribuez aux cas d’usage d’automatisation (ex : Dataiku ou outil équivalent) Coordonnez les équipes Finance, IT et Data dans une logique transverse Assurez le suivi projet (jalons, risques, dépendances, reporting) Veillez au respect des exigences de gouvernance, qualité et sécurité des données Vous jouez un rôle clé dans la réussite de la transformation en garantissant que la donnée soit pleinement intégrée, exploitée et conforme aux standards du groupe.
Offre d'emploi
Développeur Big Data Expérimenté (H/F)
CITECH
Publiée le
Cloudera
Git
Hadoop
50k-60k €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Développeur Big Data Expérimenté (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. L’objectif de la mission est dans le cadre de la réalisation et la maintenance de développements nécessaires à l'alimentation d’une plateforme, ainsi que la mise en place d'extractions de données et l'accompagnement des utilisateurs finaux. Description du poste 👉 Vous aurez les missions suivantes : 👈 🔸 Développement et maintenance : Assurer l'alimentation du Datalake et faire évoluer les flux en fonction des besoins métiers. 🔸 Conception et architecture : Mettre en place des extractions de données et contribuer à garantir la tenue de la plateforme en environnement opérationnel. 🔸 Support et expertise : Assurer le support de niveau 2, apporter une expertise technique sur l'écosystème Hadoop et réaliser des revues de code. 🔸 Coordination : Collaborer avec la Direction Technique Informatique et la Gouvernance de la Donnée pour le respect et l'évolution des modèles référencés. 🔸 Documentation : Rédiger la documentation technique (spécifications, dossiers d'exploitation, manuels d'installation) et les bilans de tests.
Offre d'emploi
Consultant MSBI
adbi
Publiée le
Azure Data Factory
Azure DevOps
CI/CD
4 mois
40k-48k €
500 €
Île-de-France, France
Le groupe, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet MDM Marketing ou RFE. La mission doit débuter dès que possible pour une durée de 3-4 mois . ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Mission freelance
Data Analyst Confirmé H/F
AGH CONSULTING
Publiée le
Data visualisation
Hadoop
MySQL
6 mois
200-400 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un Data Analyst Confirmé afin d'accompagner la mise en oeuvre de cas d'usage métiers à forte valeur ajoutée, dans un environnement Big Data. A ce titre, vos missions principales seront les suivantes : -Identifier, concevoir et implémenter des cas d'usage métiers basés sur le croisement et l'analyse de données (ciblage, analyses exploratoires, datascience). -Développer et maintenir des produits DATA réutilisables (pipelines, scripts, datasets). -Exploiter les données via des traitements distribués sous environnement Hadoop. -Concevoir et publier des reportings et dashboards Power BI (datasets, dataflows, rapports). -Produire des présentations synthétiques (PPT) des résultats d'analyses. -Garantir le respect des standards, bonnes pratiques et normes DATA. -Accompagner les équipes métiers dans l'exploitation et l'acculturation à la donnée. Livrables attendus : -Programmes DATA industrialisés sous plateforme Big Data -Jeux de données et dataflows Power BI -Tableaux de bord et rapports de datavisualisation -Supports de restitution et présentations des études réalisées Environnement technique : -Plateforme : Hadoop (Cloudera) -Langages : Python, PySpark, SQL -Outils de restitution : Power BI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3407 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois