L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 757 résultats.
Offre d'emploi
Consultant·e Customer Technology Advisor – Cloud (GCP), Data & Adoption des Offres
ANAFI CONSULTING
Publiée le
Architecture
Big Data
BigQuery
2 ans
50k-80k €
400-680 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil en transformation technologique et organisationnelle, basé à Paris. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour du Cloud, de la Data, du DevOps et des plateformes IT , en combinant expertise technique, vision produit et accompagnement au changement. Votre rôle Dans le cadre du renforcement d’une équipe dédiée à l’adoption des offres technologiques, nous recherchons un(e) Customer Technology Advisor (Adopt Owner) . Vous serez au cœur de la relation entre les équipes métiers (clients internes) et les pôles technologiques , avec pour objectif de faciliter l’adoption, la compréhension et l’usage des solutions IT (Cloud, Data, plateformes). Votre rôle combine expertise technique, coordination produit et accompagnement des équipes . Vos missions principales Relation & Pilotage Être le point de contact privilégié entre les entités clientes et les équipes technologiques. Collecter, qualifier et prioriser les besoins et irritants métiers . Piloter les demandes , leur suivi et leur traitement. Assurer la co-construction des offres avec les équipes produit. Adoption & Acculturation Accompagner les équipes dans l’ adoption des nouvelles offres et fonctionnalités . Animer des présentations, ateliers, webinars et sessions d’acculturation. Apporter un premier niveau de support technique et de conseil. Promouvoir les offres et faciliter leur appropriation. Expertise & Innovation Participer à l’ expérimentation de nouvelles technologies (sandbox, POC). Être référent sur les technologies Data, Cloud et bases de données . Contribuer aux roadmaps produits et aux décisions stratégiques (comités, arbitrages). Identifier les impacts techniques, organisationnels et métiers des évolutions. Suivi & Qualité Suivre les indicateurs d’adoption et de performance des offres . Assurer la cohérence entre services délivrés et niveaux de service attendus . Remonter les dysfonctionnements et contribuer à l’amélioration continue. Environnement technique Big Data & NoSQL : Data Lakehouse, Cloudera, Teradata, MongoDB Bases de données : PostgreSQL, Oracle, MySQL, SQL Server, Redis Cloud Public (GCP) : BigQuery, Firestore Environnements Data, streaming et architectures distribuées
Offre d'emploi
Ingénieur Linux embarqué Yocto / Ansible (F/H)
CELAD
Publiée le
45k-50k €
Grenoble, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Grenoble - Expérience de 5 ans minimum Et si vous deveniez la référence Linux embarqué d’une plateforme industrielle stratégique ? Vous aimez quand ça compile proprement. Vous aimez comprendre un existant, le challenger et construire quelque chose de robuste. Et surtout, vous aimez quand votre travail devient un standard utilisé par plusieurs équipes. Ici, vous ne venez pas “faire du Yocto”. Vous venez industrialiser une distribution Linux embarquée et accompagner des projets dans leur migration vers une base sécurisée, maintenable et conforme aux standards groupe. Concrètement ? - Vous structurez une plateforme technique qui servira de socle à plusieurs produits. - Vous intervenez sur des sujets à fort impact : sécurité, reproductibilité, stratégie d’update, industrialisation. - Vous devenez le point d’appui des équipes projets sur les sujets Yocto. Pourquoi avons-nous besoin de vous ? Aujourd’hui, plusieurs environnements Linux embarqués (souvent sous Ubuntu) doivent migrer vers une distribution Yocto robuste et sécurisée. L’objectif est clair : - standardiser, sécuriser et industrialiser une plateforme de notre client, - accompagner les équipes dans cette transition, - garantir des builds reproductibles et exploitables en production. Votre rôle est stratégique : vous posez les fondations techniques qui seront utilisées à long terme. Ce que vous allez réellement faire : Vous intervenez sur toute la chaîne d’industrialisation de la plateforme Linux embarquée : - Analyser l’existant (environnements Linux, scripts Ansible) pour définir une stratégie de migration structurée vers Yocto - Concevoir l’architecture cible (image Yocto, layers, recettes, intégration des services) en intégrant dès le départ les enjeux de sécurité et de stratégie d’update. - Implémenter et industrialiser : développement de recettes, intégration systemd, adaptation BSP, Docker embarqué, génération d’images reproductibles. - Intégrer et valider sur cible matérielle : build complet, flash, debug, conformité sécurité. - Documenter et transmettre : formalisation des pratiques, accompagnement des équipes, montée en compétence sur Yocto. Votre objectif : livrer une base Linux embarquée robuste, sécurisée, reproductible et exploitable à l’échelle industrielle.
Mission freelance
Chef de Projet Transverse
DEVIK CONSULTING
Publiée le
Active Directory
Azure
Firewall
1 an
550-700 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Chef de Projet Transverse Workplace (CTO) pour piloter et coordonner plusieurs projets stratégiques liés à l’infrastructure, au cloud et aux environnements utilisateurs, en assurant la continuité des initiatives déjà engagées. Tâches principales Cadrer les projets : recueillir les besoins, organiser des ateliers, formaliser les objectifs, définir le périmètre, les livrables et les priorités. Construire et suivre la roadmap projet : planning, jalons, ressources nécessaires, dépendances, plan de charge. Coordonner les équipes techniques (Workplace, Cloud, Réseau, Sécurité, IAM, partenaires externes) et assurer l’alignement transversal. Piloter l’exécution opérationnelle : suivi des actions, animation des comités, gestion des points bloquants et arbitrages. Assurer la gestion des risques : identifier les risques techniques/sécurité/organisationnels, proposer des plans de mitigation et suivre leur résolution. Suivre le budget et le reporting : assurer un reporting régulier auprès du management CTO sur l’avancement, les KPIs, les alertes et les décisions à prendre. Garantir la conformité : s’assurer que les projets respectent les standards d’architecture, les règles de sécurité et les cadres de gouvernance client. Documenter les procédures, choix techniques, processus de migration et plans de déploiement. Accompagner le changement : support à la mise en production, coordination des phases de test, formation et adoption utilisateurs. Projets concernés Modernisation de l’architecture Azure (Landing Zone, firewall, tiering model) Déploiement de Windows 365 pour les utilisateurs internes Mise en place d’un VDI Windows 365 pour les partenaires Transformation IAM partenaires (AD / Entra ID / RBAC / accès conditionnels) Lieu : Paris
Mission freelance
Ingénieur de Production cloud
MLMCONSEIL
Publiée le
Ansible
DevOps
Grafana
1 an
100-490 €
Rouen, Normandie
Pour le besoin de notre client, nous sommes à la recherche d'un un profil ingénieur de production CLOUD expérimenté Profil demandé : SysOps, intégrateur CLOUD ou DevOps Construction des environnements (Terraform) sur un cluster OpenStack Déploiement automatisé des outils (Ansible) Mise en place de pipelines CI/CD (Jenkins, GitLab, Sonar, Nexus) Supervision et suivi des systèmes d'exploitation (Prometheus, Grafana, Loki) Échanges réguliers avec les développeurs des applications ... ... ... ... ... ... ...
Offre d'emploi
Data Engineer H/F
HN SERVICES
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI
45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Data Engineer expérimenté à sénior pour intervenir sur un projet Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Data, vous serez intégré.e à une squad dédiée à la création d’une infrastructure robuste pour le produit DATA. Vous participerez à la conception et au développement de processus d’ingestion, de transformation et d’exposition des données sur la plateforme Google Cloud Platform (GCP). Vous collaborerez étroitement avec d’autres équipes pour : Mettre en place les jobs d’ingestion et de préparation des données. Développer des pipelines de données performants et maintenables. Exploiter les outils de l’écosystème cloud : Composer, dbt, BigQuery. Contribuer à l’amélioration continue des capacités de livraison du produit DATA. Environnement technique : GCP BigQuery, Linux, Python, SQL, dbt, Composer.
Mission freelance
QA Analyst Integration (H/F)
ADSearch
Publiée le
Business Analyst
Cash Management
IA
3 mois
La Défense, Île-de-France
Objectifs et livrables En tant qu’ QA Analyst , vous serez responsable de garantir l’intégration fluide des différents composants et systèmes logiciels. Vous travaillerez en étroite collaboration avec les équipes de développement, les Train Managers, les chefs de projet, les Business Analysts et d’autres parties prenantes afin d’identifier les problèmes d’intégration et d’assurer la qualité et la fiabilité de nos produits logiciels. Responsabilités principalesPlanification des tests Élaborer des plans de test et des stratégies complètes pour les tests d’intégration. Définir les objectifs, le périmètre et les critères de réussite des tests. Identifier et prioriser les cas de test en fonction des risques et des impacts. Exécution des tests Exécuter des tests d’intégration pour valider l’interaction entre différents modules logiciels. Réaliser des tests manuels et automatisés afin d’assurer une couverture complète. Simuler des scénarios réels pour tester le comportement du système dans diverses conditions. Gestion des anomalies Identifier, documenter et suivre les anomalies à l’aide d’outils de gestion des bugs. Collaborer avec les équipes de développement pour reproduire et résoudre les incidents. Vérifier les correctifs et effectuer des tests de régression afin de garantir la résolution des problèmes. Automatisation Mettre en œuvre et maintenir des tests d’intégration automatisés à l’aide des outils internes disponibles. Améliorer en continu la couverture et l’efficacité de l’automatisation. Collaboration Travailler étroitement avec les équipes de développement pour comprendre les points d’intégration et les dépendances. Participer aux revues de conception et de code en apportant une perspective QA. Communiquer efficacement avec les Product Managers, développeurs et autres parties prenantes. Reporting Fournir des rapports de test détaillés et des indicateurs aux parties prenantes. Suivre et communiquer l’avancement, la couverture et les résultats des tests. Signaler en temps opportun les risques et problématiques au management. Amélioration continue Améliorer continuellement les processus et méthodologies de test. Se tenir informé des meilleures pratiques du secteur et des technologies émergentes. Encadrer les ingénieurs QA juniors et partager les connaissances au sein de l’équipe.
Offre d'emploi
Ingénieur DevOps / Cloud – OpenStack / Docker / Ansible
TOHTEM IT
Publiée le
45k-55k €
Paris, France
Contexte de la mission Dans le cadre d’un projet pour le ministère de l’Intérieur , nous recherchons un Ingénieur DevOps expérimenté afin de renforcer les activités d’intégration, d’exploitation et de transformation cloud des applications. La mission s’inscrit dans un environnement technique exigeant et sécurisé, avec des enjeux autour de l’automatisation des déploiements, de la supervision des applications et de la migration vers les plateformes cloud du ministère . Le consultant interviendra en étroite collaboration avec les équipes de développement et d’exploitation afin de garantir la qualité des livraisons applicatives et la stabilité des environnements. Missions principales Réceptionner et contrôler les packages applicatifs livrés par les équipes de développement Installer les applications à l’aide des outils du ministère ( Forge DTNUM , Ansible ) Maintenir et faire évoluer les procédures et dossiers d’installation Participer à la construction des versions applicatives Assister les équipes de développement dans la gestion des évolutions et des releases Analyser et qualifier les anomalies détectées en phase de recette Participer à l’ exploitation et au traitement des incidents en production Contribuer à la migration vers les plateformes cloud du ministère (PI Gen2 / PI Native) Veiller au respect des normes de sécurité et des bonnes pratiques OPS Livrables attendus Mise à jour et partage de la documentation technique Contribution au partage de connaissances avec la communauté OPS Suivi des activités via les outils de pilotage ( JIRA, Kanban ) Mise en place de solutions de supervision et monitoring Gestion et suivi des demandes d’ouverture de flux réseau Déploiement et maintien d’outils d’observabilité (Prometheus, Grafana) Environnement technique Systèmes & Réseaux Linux ( Debian ) Administration système avancée Cloud & Conteneurisation OpenStack OpenShift Docker Podman Infrastructure as Code Ansible Terraform Terragrunt Bases de données & Middleware PostgreSQL Redis Kafka Consul Etcd Supervision & Observabilité Elasticsearch Prometheus Grafana AlertManager NodeExporter Pratiques DevOps CI/CD Automatisation des déploiements Revue de code Documentation technique
Mission freelance
Expert Réseau & Sécurité – Fortinet / Automatisation (H/F)
Freelance.com
Publiée le
Ansible
F5
Fortinet
1 an
450-500 €
Toulouse, Occitanie
Dans le cadre d’un renforcement d’équipe, nous recherchons un Expert Réseau & Sécurité pour une mission longue durée au sein d’un environnement Datacenter critique à forte exigence de disponibilité et de performance. Il s’agit d’un poste orienté infrastructures de sécurité (build, run, design, automatisation) — hors gestion des politiques de sécurité. Vos missions Au sein d’une équipe experte, vous interviendrez sur : Build / Run / Design Expertise N3 sur Firewalls Fortinet (architecture, déploiement, MCO, troubleshooting avancé) Automatisation des infrastructures (playbooks, pipelines, industrialisation) Intégration des infrastructures de sécurité dans un écosystème réseau complexe Contribution aux évolutions d’architecture Maintien en Conditions Opérationnelles Supervision et traitement des incidents/problèmes Gestion des changements et opérations HNO Participation aux astreintes (≈ 1/semaine par trimestre) Permanences hebdomadaires Gouvernance & Amélioration Continue Application et contrôle des standards de sécurité Participation aux audits internes / externes Mise en conformité et suivi des recommandations Rédaction de guides et standards Veille technologique & propositions d’optimisation (performance, qualité, coûts)
Mission freelance
Responsible AI Analyst
ESENCA
Publiée le
GenAI
Large Language Model (LLM)
MLOps
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Responsible AI Lead Position dans l’organisation Le/la Responsible AI Analyst contribue à la mise en œuvre opérationnelle du dispositif d’IA responsable. Il/elle intervient sur l’analyse des risques, la conformité, les contrôles et la traçabilité des systèmes d’intelligence artificielle tout au long de leur cycle de vie. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Fonctions conformité (DPO, RSSI, juridique) Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, agents, etc.) Cabinets spécialisés (audit, conformité, IA) Mission Le/la Responsible AI Analyst met en œuvre les exigences de gouvernance, de conformité et de gestion des risques des systèmes d’intelligence artificielle. Il/elle s’assure que chaque cas d’usage respecte les cadres réglementaires et les standards internes, en produisant les analyses, contrôles et documentations nécessaires. Responsabilités principales 1. Gouvernance et conformité IA Appliquer la politique d’usage de l’IA Contribuer à la classification des cas d’usage selon leur niveau de risque Mettre en œuvre les standards de documentation et de versioning Assurer la traçabilité des éléments clés (prompts, sources, modèles, décisions) Préparer les éléments pour les revues conformité (juridique, DPO, sécurité) 2. Analyse des risques IA Réaliser les analyses de risques par cas d’usage Identifier les risques : biais, hallucinations, dérive, sécurité, incohérences métier Classifier les systèmes selon leur criticité Formaliser les exigences de conformité associées 3. Contrôles et tests IA Exécuter les tests non fonctionnels : robustesse biais sécurité hallucinations dérive Documenter les résultats et remonter les non-conformités Contribuer à la préparation des décisions de validation (go / no-go) 4. Documentation et audit Contribuer à la documentation réglementaire des systèmes IA Maintenir les preuves, logs et éléments de conformité Préparer les éléments nécessaires aux audits Assurer la cohérence et la complétude des dossiers 5. Supervision en production Suivre les incidents IA après déploiement Mettre à jour les indicateurs de conformité et de risque Contribuer aux revues périodiques (performance, fiabilité, dérive) Participer à l’amélioration continue des dispositifs de contrôle 6. Traçabilité et registre IA Mettre à jour le registre des systèmes IA Maintenir la journalisation (logs, décisions, prompts) Garantir la conformité des mécanismes de traçabilité Contribuer à l’évolution des standards de traçabilité 7. Suivi de la consommation IA Suivre les usages et la consommation des ressources IA Identifier les usages non conformes ou excessifs Alerter en cas d’écart par rapport aux règles définies Contribuer au pilotage de l’efficience des usages IA 8. Application des politiques IA Appliquer les politiques et guidelines IA Contribuer à leur mise à jour Participer à la sensibilisation des équipes Promouvoir les bonnes pratiques d’IA responsable
Mission freelance
Database Engineer
HAYS France
Publiée le
Ansible
Cloud
Linux
1 an
Lille, Hauts-de-France
Dans le cadre du renforcement de son pôle Data & IT, notre client recherche un Database Engineer expérimenté pour intervenir sur la performance, la disponibilité et l’évolution de ses systèmes de gestion de bases de données. Le consultant rejoindra les équipes IT, Data Architects et Développement afin d’apporter son expertise sur les environnements SQL, NoSQL et Cloud. Techniques Très bonne maîtrise des bases SQL & NoSQL. Expertise PostgreSQL, Oracle, Opensearch, Redis ou Snowflake. Connaissance des environnements hybrides : On-Premise & Cloud (AWS RDS, Azure SQL, Aiven). Bon niveau en automatisation : Terraform, Ansible, scripts Shell. Compétence en Python, Go ou Java pour le tooling DB. Solides compétences en administration Linux/Windows orientée performance. Connaissances en sécurité des données (chiffrement, audit, accès).
Mission freelance
Data Engineer / Développeur Python Cloud
Intuition IT Solutions Ltd.
Publiée le
Python
6 mois
Toulouse, Occitanie
Mission Assurer le maintien en conditions opérationnelles des applications existantes, qu’il s’agisse de prototypes ou de solutions déjà déployées en production, en garantissant leur stabilité, performance et disponibilité. Concevoir, développer et faire évoluer des solutions de traitement de données couvrant l’ensemble de la chaîne : collecte, transformation, stockage, agrégation et restitution. Participer à la définition des besoins techniques, à la rédaction des spécifications et à la conception des architectures applicatives et data. Développer et maintenir des services, APIs et outils internes en Python, dans un environnement cloud AWS industrialisé. Mettre en place, optimiser et superviser des pipelines data fiables et robustes, en veillant à la qualité, l’intégrité et la traçabilité des données. Intervenir en support technique avancé pour analyser, diagnostiquer et résoudre les incidents ou anomalies applicatives et data. Accompagner les équipes lors des déploiements et assurer l’assistance aux utilisateurs internes. Rédiger et maintenir la documentation technique (spécifications, procédures, scripts, guides d’exploitation). Participer aux rituels Agile, au suivi des tickets, au reporting d’avancement et à l’amélioration continue des processus et outils. Garantir le respect des standards techniques, de sécurité, de qualité et de conformité propres à l’environnement industriel du client.
Offre d'alternance
Data Scientist Gen AI (H/F)
█ █ █ █ █ █ █
Publiée le
Deep Learning
Python
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Business Analyst Data
VISIAN
Publiée le
Agile Scrum
Business Analyst
MySQL
1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Offre d'emploi
Lead QA Python Back-end middleware + IA + Anglais
EXteam
Publiée le
IA
Python
QA
3 ans
40k-45k €
400-550 €
Île-de-France, France
Le département ITMS (IT Market Services) est essentiel au bon fonctionnement des services de marché. Il est responsable des aspects techniques des plateformes de négociation, supervisant l'ensemble du processus, de la fonctionnalité du système à l'expérience utilisateur. Son expertise couvre un large éventail de services. ITMS est également reconnu pour son engagement en faveur de l'amélioration continue et de l'innovation. Au sein d'ITMS, nos équipes Intégration et Gestion des mises en production sont au cœur de la fourniture de logiciels fiables et de haute qualité. Ensemble, nous veillons à l'harmonie des différents composants logiciels et à la fluidité de leur déploiement, du développement aux tests, jusqu'à la production. Équipe Intégration : Notre équipe Intégration se consacre à l'identification et à la résolution des problèmes tels que les problèmes de compatibilité, les erreurs de communication et la corruption de données, afin de garantir une intégration optimale. Nous nous efforçons de réduire les risques en détectant les problèmes au plus tôt, évitant ainsi des corrections coûteuses ultérieurement. Notre équipe vérifie que les comportements fonctionnels et techniques des interfaces sont conformes aux normes de conception et de spécification, renforçant ainsi la confiance dans la qualité de ces interfaces grâce à des tests rigoureux. Nous sommes experts dans la détection des défauts avant qu'ils ne deviennent des problèmes majeurs et nous nous assurons que tous les composants interagissent de manière transparente. De plus, notre équipe utilise des tests de régression d'intégration automatisés pour garantir que les modifications n'affectent pas les interfaces, les composants ou les systèmes existants. Objectifs et livrables En tant qu'analyste qualité intégration, vous serez responsable de l'intégration fluide des différents composants et systèmes logiciels. Vous travaillerez en étroite collaboration avec les équipes de développement, les responsables de formation, les chefs de projet, les analystes fonctionnels et les autres parties prenantes afin d'identifier les problèmes d'intégration et de garantir la qualité et la fiabilité de nos produits logiciels. Principales responsabilités : Planification des tests : Élaborer des plans et des stratégies de test complets pour les tests d'intégration. Définir les objectifs, le périmètre et les critères de réussite des tests. Identifier et prioriser les cas de test en fonction des risques et de l'impact. Exécution des tests : Exécuter les tests d'intégration pour valider l'interaction entre les différents modules logiciels. Effectuer des tests manuels et automatisés pour assurer une couverture exhaustive. Simuler des scénarios réels pour tester le comportement du système dans diverses conditions. Gestion des anomalies : Identifier, documenter et suivre les anomalies à l'aide d'outils de suivi des bogues. Collaborer avec les équipes de développement pour reproduire et résoudre les problèmes. Vérifier les correctifs et effectuer des tests de régression pour garantir la résolution des problèmes. Automatisation : Mettre en œuvre et maintenir des tests d'intégration automatisés à l'aide des outils internes disponibles. Améliorer en continu la couverture et l'efficacité de l'automatisation. Collaboration : Travailler en étroite collaboration avec les équipes de développement pour comprendre les points d'intégration et les dépendances. Participer aux revues de conception et de code pour apporter une perspective d'assurance qualité. Communiquer efficacement avec les chefs de produit, les développeurs et les autres parties prenantes. Rapports : Fournir des rapports de test détaillés et des indicateurs aux parties prenantes. Suivre et rendre compte de l'avancement, de la couverture et des résultats des tests. Signaler rapidement les risques et les problèmes à la direction. Amélioration continue : Améliorer en continu les processus et les méthodologies de test. Se tenir informé(e) des meilleures pratiques du secteur et des technologies émergentes. Encadrer les ingénieurs QA juniors et partager ses connaissances au sein de l'équipe. Compétences : Maîtrise des outils d'automatisation des tests. Solide compréhension du cycle de vie et des méthodologies de développement logiciel. Excellentes aptitudes à la résolution de problèmes et à l'analyse. Excellentes aptitudes à la communication et à la collaboration. Collaborer avec les analystes fonctionnels pour comprendre les besoins métiers et s'assurer qu'ils sont fidèlement reflétés dans les plans et cas de test. Fournir un retour d'information aux analystes fonctionnels sur les problèmes d'intégration potentiels et suggérer des améliorations. Capacité à travailler dans un environnement dynamique et exigeant. Capacité à travailler efficacement en équipe et à collaborer avec des équipes pluridisciplinaires. Sens aigu du détail pour identifier les problèmes d'intégration subtils. Maîtrise de Python pour le scripting et l'automatisation. Bonne connaissance des systèmes d'exploitation Linux et de leurs commandes. Capacité à effectuer une analyse des causes profondes des anomalies et des problèmes. Excellentes compétences en gestion du temps pour gérer plusieurs tâches et respecter les délais. Flexibilité pour s'adapter à l'évolution des exigences et des technologies. Minimum de 3 ans d'expérience en test d'applications back-end/middleware. Anglais courant. L'expérience en test d'applications bancaires ou de courtage (marché au comptant et/ou dérivés) est un critère de sélection. Connaissance et utilisation d'outils d'IA pour la création ou l'amélioration des processus de test.
Mission freelance
POT9027 - Un expert stockage sur Lyon
Almatek
Publiée le
Git
6 mois
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, un expert stockage sur Lyon. La mission est principalement orientée sur l’expertise stockage / sauvegarde : - Intervenir en tant qu’expert Stockage / Sauvegarde en appui des équipes internes - Dans le cadre du Maintien en Condition Opérationnelle des solutions, administrer les infrastructures, intervenir dans le diagnostic et la résolution des problèmes - Gérer les performances, les seuils d’alertes, l’organisation et l’optimisation des ressources du domaine - Gérer les incidents et problèmes liés au stockage / sauvegarde - Rédiger et mettre à jour les procédures d’administration et de support - Mettre à jour et diffuser les tableaux de bord - Faire des préconisations permettant d’améliorer les performances générales, la capacité à rendre le service, la robustesse et la sécurité des solutions - Faire des propositions pour améliorer l’administration des solutions (Powershell et Bash, SAN Switch et le zoning, baies de stockage Netapp (NAS) et baies de sauvegarde EMC Datadomain, logiciel Netbackup) - MCO et évolution des PRA / PCA (réplication, scripting, …) sur les environnements NAS et Block au niveau stockage - Assurer une veille technologique sur les périmètres concernées Connaissances appréciées - Environnements Purestorage FlashArrayX et IBM Flashsytem - Appliance Veritas Flex - stockage objet / CSI k8s / git ansible - être force de proposition - Autonomie - Aisance rédactionnelle (sans IA)
Mission freelance
Assurance - Data Management
FINAX Consulting
Publiée le
Data management
6 mois
550-700 €
Paris, France
Consultant Senior en Data Management – Gouvernance Data (Assurance) Consultant freelance en Data Management Nous recherchons un consultant Senior en Data Management pour le compte d’un de nos clients assurance dans le cadre d’un projet de renforcement de la gouvernance Data et de montée en compétence des équipes métiers. Contexte Dans un contexte de structuration des pratiques Data et d’accélération de la maturité des Data Domains Managers, la mission vise à constituer un pool d’experts capables d’intervenir à la fois sur les dimensions opérationnelles, méthodologiques et pédagogiques du Data Management, au sein d’un environnement exigeant et régulé. Rôles et responsabilités Contribuer à l’identification, à la structuration et à la valorisation des données clés de l’organisation, en lien avec les équipes métiers et Data. Mettre en place et maintenir une documentation de données fiable et exploitable (dictionnaires, métadonnées, référentiels), alignée avec les standards de gouvernance. Définir et piloter des indicateurs de qualité des données, analyser les écarts et accompagner les actions d’amélioration. Accompagner les Data Domains Managers dans l’appropriation des outils et des pratiques de Data Management, notamment via Collibra. Concevoir et animer des dispositifs de montée en compétence (supports, guides, ateliers) favorisant l’autonomie des équipes et la diffusion des bonnes pratiques. Intervenir en appui sur des initiatives Data structurantes afin de sécuriser les délais, la qualité et la cohérence globale du dispositif de gouvernance. Compétences requises Expertise confirmée en Data Management et Data Governance, acquise dans des environnements complexes et régulés. Maîtrise des outils de catalogage et de gouvernance des données, idéalement Collibra. Solide expérience en qualité des données (définition des règles, suivi des indicateurs, plans d’amélioration). Capacité à produire une documentation claire, structurée et orientée métiers. Forte aisance relationnelle et capacité pédagogique pour accompagner et faire monter en compétence des interlocuteurs non techniques. Autonomie, rigueur et capacité à évoluer dans un contexte assurance. Détails de la mission Démarrage : 16/02/26 Durée : 5.5 mois (jusqu'au 31/07/26) Lieu : Paris Statut : Consultant indépendant / freelance
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5757 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois