L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 444 résultats.
Offre d'emploi
Data analyst (F/H)
█ █ █ █ █ █ █
Publiée le
Data management
Blagnac, Occitanie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre premium
Offre d'emploi
Business Analyst / Data (F/H)
Argain Consulting Innovation
Publiée le
Business Analyst
Data analysis
SAP
1 an
40k-45k €
420-450 €
Pays de la Loire, France
Dans le cadre d’un projet autour des flux data et de l’environnement SAP, nous recherchons un Business Analyst / Data Analyst disposant d’une bonne expertise SAP et Talend . Missions Recueillir et analyser les besoins métiers liés aux flux de données Faire le lien entre les équipes métiers, data et l’équipe SAP Challenger les solutions proposées par l’équipe SAP Participer à la conception et à l’optimisation des flux data Réaliser le paramétrage et le développement Talend Contribuer à la documentation et au suivi des évolutions
Offre d'emploi
Data Quality / VBA Developer (H/F)
OMICRONE
Publiée le
Microsoft Access
Microsoft Excel
Microsoft Power BI
2 ans
40k-45k €
400 €
Île-de-France, France
📢 Mission – Data Quality / VBA Developer (H/F) Dans le cadre d’un programme de transformation data au sein d’un grand groupe bancaire, nous recherchons un consultant confirmé en VBA / Data Quality pour intervenir sur des sujets de réconciliation de données et automatisation de processus . 🔹 Missions : Maintenance et évolution de scripts VBA (Excel / Access) Pilotage des processus de réconciliation de données Exécution et suivi de bulk data Administration et migration SharePoint Online Suivi des incidents et amélioration des processus 🔹 Environnement technique : VBA, Excel, Access, SQL, PowerShell, SharePoint Online, ServiceNow, Power BI 📍 Localisation : France (présentiel + télétravail) 📅 Démarrage : Avril 2026 👤 Expérience : 3 ans minimum
Mission freelance
Ingénieur Systèmes Modern Workplace (H/F)
HOXTON PARTNERS
Publiée le
Intune
Office 365
Powershell
6 mois
Paris, France
Dans le cadre d’un programme de transformation du poste de travail, nous recherchons un Ingénieur Systèmes Modern Workplace pour intervenir sur des environnements techniques à forte volumétrie. Vous participerez à l’évolution et à l’optimisation d’infrastructures orientées Cloud et digital workplace. Missions principales Concevoir et faire évoluer l’architecture du poste de travail sous Windows 11 Administrer et optimiser l’environnement Microsoft 365 Gérer et maintenir les infrastructures SCCM / Intune (Endpoint Manager) Réaliser le packaging applicatif et piloter les déploiements Automatiser les tâches et processus via PowerShell Participer aux projets de migration et de modernisation des environnements poste de travail
Mission freelance
Data Gouvernance
Kamatz
Publiée le
Apache Airflow
Collibra
Data governance
6 mois
Lille, Hauts-de-France
Freelance Data Catalog Engineer – Collibra Mission – Data Platform / Data Governance Nous recherchons un(e) Freelance Data Catalog Engineer spécialisé(e) Collibra pour accompagner l’évolution et l’intégration du Data Catalog au sein d’un écosystème data moderne. Vos missions Configuration & développement Collibra Concevoir et implémenter des solutions répondant aux besoins métiers Administrer et configurer le Data Catalog (workflows, assets, modèles) Développer et déployer des workflows adaptés aux cas d’usage Recueillir, analyser et prioriser les besoins utilisateurs Intégration Data Platform Participer à l’intégration du Data Catalog avec les outils de la Data Platform Développer et maintenir les échanges de métadonnées (APIs, connecteurs, crawlers) Configurer les capacités Edge selon les périmètres de collecte Collaborer avec les équipes architecture et data engineering Data Governance & Qualité Contribuer aux initiatives de gouvernance des données Intégrer les indicateurs de qualité (Data Quality Metrics Store) Participer au programme Data Contract Compétences techniques attendues Solide expérience sur Collibra Data Catalog (configuration, administration, workflows) Maîtrise des APIs, connecteurs et intégration de systèmes Bonne compréhension des architectures Data Platform / Data Lake / Data Warehouse Expérience en data governance et gestion des métadonnées Connaissance des outils de data quality est un plus
Offre d'emploi
INGENIEUR DÉVELOPPEMENT PORTAIL IA
GROUPE ALLIANCE
Publiée le
Docker
Kubernetes
LangChain
72k-79k €
Paris, France
ACCROCHE SI TU TROUVES QUE JARVIS MANQUE DE PERSONNALISATION, CETTE ANNONCE EST FAITE POUR TOI ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe passionnée par l’intelligence artificielle Concevoir des solutions innovantes et intelligentes Repousser les limites de l'automatisation et du machine learning Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur Protection Sociale, tu participeras à la conception et la mise en oeuvre des améliorations à apporter au portail IA du client afin de répondre aux besoins de ses utlilisateurs.A ce titre tu seras chargé, en lien avec le chef de projet et l'architecte IA, de mettre en oeuvre les pistes d'améliorations et de les documenter afin de permettre ensuite leur maintenance par les développeurs de l'équipe.Tu seras amené à proposer des pistes techniques ou fonctionnelles d'améliorations, ou a les mettre en oeuvre, suite à des dysfonctionnements ou des manques remontés par les utilisateurs.Tu seras aussi en charge, en lien avec le chef de projet, de versionner la prise en compte des modifications et de veiller au bon déploiement et à la bonne recevabilité par les utilisateurs du portail IA.Cette prestation pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées Données, tu analyseras Modèles d’IA, tu entraîneras Algorithmes performants, tu développeras Les biais et les dérives, tu limiteras Les meilleures pratiques en IA, tu appliqueras Les performances, tu optimiseras Ton expertise, tu partageras Aux évolutions technologiques, tu contribueras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 10ans minimum Expert(e) en Microsoft AZURE AI Habile avec les outils SFEIR RAISE (RAG/GenAI), Visual Studio Code avec Github COPILOT, MS OFFICE Copilot, Python, Langchain, Docker + Kubernetes, LiteLLM + LLM AI Foundry, React, Typescript, TanStack, Microsoft AZURE AI Foundry, LangGraph, RAGAS, LangFuse, FastAPI + Celery/Redis, Serveurs MCP, Pipelines CI/CD (GitHub/Azure DevOps), Docker + Terraform, Microsoft AZURE API Management, Microsoft AZURE AI Foundry AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Offre d'emploi
Analyst Support IT Salle des Marchés
cty
Publiée le
Market data
Support utilisateurs
1 an
40k-65k €
400-650 €
Paris, France
La prestation concernera l'activité de support technique des applications Market Data, Trading, Broker et Contribution, utilisées par les traders de la salle des marchés Fixed Income. En contact permanent avec la salle de marché, vous interviendrez principalement sur les applications de Pre-trade, installées sur les postes de travail des utilisateurs. Vous assistez les utilisateurs dans leur utilisation des applications installées sur leurs postes de travail : • Market data • Applications Broker • Trading A ce titre, vos missions principales sont : - Support niveaux 2 et 3 : * Gestion des incidents incluant l'identification de la root cause et les actions de résolution * Gestion de la communication en direction des utilisateurs, du management et des autres équipes IT * Gestion des demandes utilisateurs * Maintien à niveau des architectures de Backup et de PSI de façon continue - Maintenance évolutive * Gestion des évolutions des applications sous gestion. * Choix de la meilleure solution en rapport avec les standards du client * Définition et suivi d’un plan d’action, d’un planning et d’un plan de charge * Mise en place de la solution en coordination avec les autres équipes IT (réseau, serveurs, Citrix, …) * Pilotage du déploiement à Paris et à l’international
Offre d'emploi
Ingénieur DevOps GCP RUN & Automatisation H/F
Le Groupe SYD
Publiée le
CI/CD
Powershell
12 mois
48k €
480 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur DevOps GCP RUN & Automatisation H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : Flexible 📝 Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur de la distribution / retail , engagé dans la modernisation, la fiabilisation et l’uniformisation de ses environnements applicatifs. Tu interviens au sein d’un écosystème hybride mêlant infrastructures legacy Windows , plateformes on‑premises , environnements GCP , et un parc national de magasins en production avec de forts enjeux de disponibilité. Aux côtés du Lead DevOps déjà en place, tu renforces l’équipe sur la partie RUN , la maintenance, l'amélioration continue et la mise sous contrôle des plateformes existantes, tout en participant aux chantiers d’automatisation et de modernisation. Tu auras pour missions de : Assurer le RUN , la maintenance et la fiabilisation des plateformes applicatives Windows existantes (legacy & production magasins). Mettre à jour, maintenir et optimiser les bases SQL Server utilisées en production et en salle de recette. Gérer les déploiements de packages applicatifs Windows sur les environnements distribués. Automatiser les opérations récurrentes et contribuer à la montée en maturité DevOps. Intervenir sur des environnements GCP , participer aux déploiements et aux évolutions cloud. Participer à la résolution d’incidents, à l’analyse des problématiques et à la continuité de service. Travailler en étroite collaboration avec le Lead DevOps pour assurer la cohérence globale des pipelines et des bonnes pratiques. 🧰 Stack technique : OS & Infra : Windows Server, environnements legacy, production magasins, virtualisation. Databases : SQL Server. CI/CD & Automatisation : PowerShell, scripts d’automatisation, pipelines CI/CD. Cloud : GCP (Compute, CI/CD Cloud, services managés). Autres environnements : plateformes hybrides (on‑prem / cloud), environnements distribués multipoints, salles de recette & production.
Mission freelance
Directeur de projet IA
SURICATE IT
Publiée le
AI
Direction de projet
Large Language Model (LLM)
1 an
Paris, France
🚀 Mission Directeur de Projet IA 📍 Localisation : Paris centre ⏳ Durée : Longue ⚡ Démarrage : ASAP 🌍 Anglais : fluide 🎯 Profil : 10 Minimum 🧠 Contexte de la mission Dans le cadre d’un programme stratégique autour de l’IA générative , vous interviendrez en tant que Directeur de Projet pour piloter un dispositif innovant à forte visibilité. Ce programme vise à concevoir et déployer plusieurs solutions avancées : 🔎 Outils de veille augmentée en temps réel 🤖 Moteur de recherche multimodal (texte, image, vidéo) basé sur des architectures RAG ✍️ Assistant intelligent pour la production et transformation de contenus Le projet est mené en mode consortium avec plusieurs partenaires technologiques et s’inscrit dans un environnement exigeant mêlant innovation, data et produits digitaux. 🎯 Vos missions 🧩 Pilotage global du programme Piloter l’ensemble des volets du projet (planning, budget, risques, qualité) Assurer le respect des jalons et des livrables Mettre en place les indicateurs de suivi et proposer des actions correctives 🤝 Coordination des partenaires Animer un écosystème multi-acteurs (startups, experts techniques, métiers) Organiser et piloter les comités projets Faciliter les arbitrages techniques et organisationnels 👥 Management des équipes & métiers Coordonner les équipes techniques et fonctionnelles Animer les ateliers de cadrage et de spécifications Garantir l’alignement avec les enjeux métier et produit ⚙️ Intégration & delivery Superviser l’intégration des briques IA dans les environnements existants Piloter les phases de tests, validation et mise en production Garantir la qualité des solutions livrées 📊 Reporting & gouvernance Assurer le reporting interne et externe Produire les éléments de suivi projet et de pilotage stratégique Gérer les interactions avec les parties prenantes institutionnelles 🏢 Environnement Organisation structurée avec interactions multiples (tech, produit, métier) Travail en collaboration étroite avec des équipes expertes Présence régulière sur site + échanges fréquents à distance
Mission freelance
Senior Data Product Manager – Group Data Platform / Data Mesh H/F
ADSearch
Publiée le
Architecture
Data Mesh
Production
3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre de l’accélération de sa transformation Data à l’échelle Groupe, notre client recherche un(e) Senior Data Product Manager pour piloter de manière stratégique et très opérationnelle la conception, la mise en œuvre et le déploiement de sa plateforme Data Self-Service Groupe , fondée sur les principes du Data Mesh . Il s’agit d’un rôle clé, orienté build et exécution , avec une forte responsabilité sur la livraison concrète , l’ industrialisation et l’ adoption à grande échelle de la plateforme au sein des différents domaines métiers. Le/la candidat(e) devra être capable de définir une vision produit claire tout en la traduisant en une plateforme robuste, scalable et prête pour la production , utilisée à l’échelle de l’entreprise. Mission principale Concevoir, construire, déployer et opérer la plateforme Data Mesh Groupe (appelée Group Data Platform – GDP ) comme un produit interne , en garantissant : sa livraison technique son adoption à l’échelle de l’entreprise son excellence opérationnelle son amélioration continue Responsabilités principales 1. Product Management orienté usage & amélioration continue Vos missions Recueillir et formaliser les besoins utilisateurs ainsi que les exigences plateforme Définir la vision produit , la proposition de valeur et la roadmap Mesurer l’usage de la plateforme et la valeur créée Améliorer en continu l’ expérience développeur et l’ expérience utilisateur Structurer les boucles de feedback et piloter le backlog d’amélioration Livrables attendus Vision produit et proposition de valeur de la plateforme KPIs de performance, d’usage et d’adoption Mécanismes de feedback utilisateurs et backlog d’amélioration continue Roadmap d’évolution de la plateforme 2. Delivery de la plateforme (responsabilité centrale) Vos missions Définir les capacités de la plateforme : data products pipelines de données gouvernance observabilité accès self-service Définir et faire appliquer les standards techniques et les patterns d’architecture Prendre des décisions techniques concrètes et valider les solutions de manière opérationnelle Garantir une plateforme industrialisée, réutilisable et scalable Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme 3. Architecture Cloud & Infrastructure Vos missions Coordonner la conception et l’exploitation de l’architecture cloud et hybride avec le Group Data Architect Coordonner avec la Group Data Delivery Team l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Garantir les exigences de sécurité , de conformité et de gouvernance Livrables attendus Blueprint d’architecture cloud (en collaboration avec le Group Data Architect) Cadre de sécurité et de gestion des accès Principes d’intégration hybride / on-premise 4. Pilotage de la delivery & exécution Vos missions Piloter l’ensemble du cycle de delivery de la plateforme Définir le backlog produit et le processus de priorisation Organiser les releases et les déploiements en production Suivre la performance, la fiabilité et la disponibilité de la plateforme Identifier et gérer les risques, incidents et sujets techniques critiques Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et processus de gestion de versions Tableaux de bord de suivi de delivery SLA / indicateurs de fiabilité et de performance de la plateforme 5. Déploiement & adoption dans les domaines métiers Vos missions Déployer la plateforme dans les différents domaines métiers Accompagner les équipes domaines dans la création de data products Mettre en œuvre le modèle opérationnel Data Mesh Structurer et accompagner l’onboarding des équipes Lever les freins opérationnels à l’adoption Livrables attendus Framework et processus d’onboarding des domaines Guidelines sur le cycle de vie des data products Playbooks d’accompagnement des équipes métiers / domaines KPIs d’adoption et d’usage Supports de formation et documentation d’onboarding 6. Documentation, standardisation & gouvernance Vos missions Documenter les capacités, standards et processus de la plateforme Garantir l’alignement avec la Federated Computational Data Governance du Groupe Structurer les bonnes pratiques de mise en œuvre Livrables attendus Référentiel de documentation de la plateforme Standards techniques et guidelines d’implémentation Framework de gouvernance et de conformité Playbooks de bonnes pratiques 7. Communication opérationnelle & reporting exécutif Vos missions Communiquer sur l’avancement, l’impact et la valeur de la plateforme Produire un reporting régulier à destination des instances de gouvernance et du management Aligner les parties prenantes métier, IT et Data Livrables attendus Executive Project Dashboard Tableaux de bord de performance de la plateforme Présentations pour les comités de pilotage / steering committees Suivi des décisions, risques et points bloquants 8. Promotion interne & évangélisation Vos missions Promouvoir la valeur de la plateforme à l’échelle de l’organisation Soutenir les initiatives d’adoption interne Fédérer une communauté autour de la plateforme Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations de la plateforme et portefeuille de cas d’usage
Offre d'emploi
Ingénieur SRE / DevOps
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
Ansible
Azure
Bash
12 mois
40k-45k €
300-400 €
Bordeaux, Nouvelle-Aquitaine
Conception, participation à la définition de l’architecture et déploiement de l'infrastructure OnPremise et Cloud Conception & développement de scripts et APIs techniques Configuration de middlewares Analyser les anomalies sur les environnements de pré-production/ staging et de production Définition des critères d’exploitabilité d’un applicatif S’assurer de la mise en place des critères de sécurité définis par le client Être garant, de la mise en place de l'exploitabilité des applicatifs déployés en production (smokeTest, supervision, alerting, fiches consignes, KPI…), en suivant les critères d’exploitabilité définis par la communauté devops Effectue le suivi de la qualité de la production (performances, incidents) conformément au contrat de service Accompagne les projets d’un domaine d’activité en tant que spécialiste de la production : vérification du respect des critères d’exploitabilité Élabore, réalise et fiabilise les plans d’ordonnancement des traitements de production Automatiser les tâches manuelles automatisables, répétables et sans valeur ajoutée Conception et construction des usines de déploiement logiciels Maintien en condition opérationnelle des usines de déploiement logiciels existantes et des APIs associées, des outillages et infrastructures transverses Réaliser de l'astreinte, notamment lors d'alertes en HNO Travailler en mode agile dans les squads de développement (le mode agile ne doit pas empêcher le ticket JIRA) Diffuser la connaissance et les bonnes pratiques devops, notamment en participant et en animant des communautés de pratiques Devops. Documenter Être force de proposition dans l'amélioration des techniques d'industrialisation et d’automatisation, grâce à de la veille technologique Communication avec les autres équipes IT du groupe Support aux équipes de développement et d'exploitation
Mission freelance
Data Engineer - IA (Bordeaux)
Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT
12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Offre d'emploi
Data Analyst Sénior
Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse
1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Mission freelance
Product Owner IA Générative
Nicholson SAS
Publiée le
Agent IA
Agile Scrum
Large Language Model (LLM)
9 mois
400 €
Lille, Hauts-de-France
Contexte : Dans le cadre d'une transformation digitale majeure, un leader de la distribution omnicanale lance un Shopping Agent basé sur l'IA . L'objectif est révolutionnaire : permettre à chaque client de trouver son produit idéal en moins de 5 minutes grâce à une expérience conversationnelle et prédictive. 🎯 Vos Missions En tant que garant de la vision produit, vous orchestrez la création de cet assistant intelligent. Votre rôle se décline en trois piliers : 1. Vision et Cadrage Stratégique Définir et porter la stratégie globale pour garantir la désirabilité et l’efficacité de l’assistant. Rédiger le cahier des charges fonctionnel en mettant l'accent sur les capacités agentiques . Concevoir le design détaillé des parcours (agent principal et agents de services spécialisés). 2. Expertise Métier & Product Management Priorisation : Animer les sessions d’arbitrage pour définir et piloter le MVP. Roadmap : Construire la trajectoire de développement IT (focus T1) en synergie avec les services prioritaires. Différenciation : Consolider l'argumentaire de vente de l'IA en intégrant les insights des meilleurs vendeurs terrain pour enrichir la base de connaissances. 3. Coordination & Déploiement Orchestrer les interactions entre les différents pôles : Digital, Data/IA, et IT. Assurer le suivi des livrables et la fluidité du parcours client de bout en bout. 👤 Profil Recherché Expérience : Minimum 5 ans en Product Ownership, avec une expérience significative sur des projets IA Générative ou LLM . Compétences clés : * Maîtrise du cycle de vie produit (Agilité, Scrum). Capacité à traduire des besoins "métier" complexes en spécifications techniques pour l'IA. Forte culture UX orientée conversationnel. Soft Skills : Leadership, esprit de synthèse et capacité à naviguer dans un écosystème multi-acteurs. 📅 Modalités Pratiques Lieu : Lille (Rythme hybride : 3 jours/semaine obligatoires sur site). Tarif (TJM) max : 400 € Date de démarrage : ASAP Durée de la mission : Jusqu'au 31/12/2026 (Mission longue visibilité).
Mission freelance
Service Delivery Manager – Plateforme DATA / IA
KatchMe Consulting
Publiée le
SLA
6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Mission freelance
Database Engineer
HAYS France
Publiée le
Ansible
Cloud
Linux
1 an
Lille, Hauts-de-France
Dans le cadre du renforcement de son pôle Data & IT, notre client recherche un Database Engineer expérimenté pour intervenir sur la performance, la disponibilité et l’évolution de ses systèmes de gestion de bases de données. Le consultant rejoindra les équipes IT, Data Architects et Développement afin d’apporter son expertise sur les environnements SQL, NoSQL et Cloud. Techniques Très bonne maîtrise des bases SQL & NoSQL. Expertise PostgreSQL, Oracle, Opensearch, Redis ou Snowflake. Connaissance des environnements hybrides : On-Premise & Cloud (AWS RDS, Azure SQL, Aiven). Bon niveau en automatisation : Terraform, Ansible, scripts Shell. Compétence en Python, Go ou Java pour le tooling DB. Solides compétences en administration Linux/Windows orientée performance. Connaissances en sécurité des données (chiffrement, audit, accès).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4444 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois