L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 689 résultats.
Offre d'emploi
Tech Lead IA (F/H)
CELAD
Publiée le
47k-49 999 €
Toulouse, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Toulouse - Au moins 5 ans d’expérience Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Tech Lead IA pour intervenir au sein de notre structure, au sein de notre centre d’expertise d’intelligence artificielle. Contexte : Vous êtes à l’aise avec les modèles de Machine Learning et de Deep Learning… mais surtout, vous savez pourquoi vous les utilisez, comment les évaluer et comment les faire tenir en production ? On devrait se parler. Vous intervenez comme référent technique sur vos sujets IA, avec une vraie responsabilité sur la partie projet et architecture. L’objectif n’est pas seulement de “faire des modèles”, mais de concevoir des solutions IA robustes, utiles et exploitables dans la durée. Voici un aperçu détaillé de vos missions : *Concevoir, entraîner et déployer des modèles en environnement réel * Définir des protocoles d’évaluation rigoureux, alignés sur les enjeux métier *Anticiper les problématiques de biais, variance, déséquilibre de données, bruit, dérive * Mettre en place du monitoring et optimiser performance & coûts * Contribuer activement aux choix d’architecture *Découper les problématiques complexes en étapes priorisées et actionnables
Mission freelance
NetDevOps automatisation
Mindquest
Publiée le
Ansible
API REST
AWS Cloud
1 an
400-550 €
Saint-Denis, Île-de-France
Intégrer l’équipe NetDevOps afin de contribuer à l’automatisation des infrastructures réseau et à l’amélioration de l’efficacité opérationnelle. Automatisation réseau Développement de playbooks Ansible pour automatiser les configurations réseau. Administration et orchestration des déploiements via AWX . Développement de scripts Python pour automatiser les processus et intégrer des APIs réseau. Gestion des infrastructures Administration et optimisation de serveurs Linux hébergeant les outils de la plateforme. Gestion et maintenance des environnements techniques associés. Gestion d’inventaire et documentation Configuration et administration de Netbox (IPAM, inventaire des équipements, documentation). Intégration de Netbox avec les outils d’automatisation (Ansible, Python). Maintien de la cohérence entre inventaire logique et physique. Automatisation de la mise à jour des données d’inventaire. Monitoring et observabilité Mise en place de la collecte de logs et métriques via Vector . Création de dashboards Grafana pour le monitoring des infrastructures réseau. Mise en place d’alerting automatisé et reporting. Analyse des performances et optimisation continue. Industrialisation des opérations Consolidation des architectures d’automatisation réseau basées sur AWX et Ansible . Industrialisation des déploiements réseau (ACL, syslog, automatisations associées). Structuration des workflows d’exploitation automatisés. Contribution à la normalisation des pratiques réseau. Infrastructure et conteneurisation Déploiement d’applications sur AWS / EKS . Conteneurisation des outils NetDevOps avec Docker . Gestion d’environnements avec Docker-compose . Automatisation des déploiements et mise à l’échelle des solutions. Accompagnement des équipes Support aux équipes d’exploitation dans l’appropriation des outils et des processus. Participation à l’évolution de la plateforme vers des mécanismes d’exploitation avancée basés sur l’analyse des données collectées .
Offre d'emploi
Architecte Kafka
LEVUP
Publiée le
Apache Kafka
AWS Cloud
12 mois
Liège, Belgique
Dans le cadre de la conception et de l’évolution de plateformes applicatives et data orientées temps réel , nous recherchons un Architecte Kafka AWS capable d’intervenir de bout en bout (end-to-end / endzone) : de l’architecture backend et streaming jusqu’à l’intégration avec les applications frontend. Le poste s’inscrit dans des environnements cloud AWS à forts enjeux de performance, de scalabilité et d’intégration SI. Rôle & responsabilitésArchitecture globale (End-to-End) Concevoir l’ architecture applicative et data de bout en bout Garantir la cohérence entre : Frontend (Angular) Backend (.NET) Streaming & intégration (Kafka) Infrastructure AWS Être le référent architecture sur le périmètre fonctionnel et technique Kafka & intégration Concevoir et mettre en œuvre des architectures événementielles basées sur Apache Kafka Définir les patterns d’intégration : Event-driven Pub/Sub CDC (Change Data Capture) Mettre en place Kafka Connect, Schema Registry, MirrorMaker Accompagner les équipes sur la modélisation des événements et contrats de données Environnement AWS Déployer et opérer Kafka sur AWS (Amazon MSK ou équivalent) Concevoir l’architecture cloud : VPC, IAM, sécurité, réseaux EC2 / EKS selon les besoins Intégrer Kafka avec les services AWS (S3, Lambda, bases de données, etc.) Backend – .NET Concevoir des API et services backend en .NET Définir les standards d’architecture (clean architecture, microservices) Garantir performance, sécurité et maintenabilité Intégrer les flux Kafka côté backend Frontend – Angular Définir les principes d’architecture frontend Angular Assurer la bonne intégration avec les API et les flux temps réel Travailler sur l’expérience utilisateur dans des applications data-driven Qualité & gouvernance Mettre en place les bonnes pratiques : Sécurité Monitoring Logging Résilience Documenter les architectures Participer aux revues techniques et d’architecture Accompagner et guider les équipes de développement Compétences techniques requisesStreaming & intégration Apache Kafka (expert) Kafka Connect, Schema Registry Architectures event-driven Formats : JSON, Avro, Protobuf Cloud & DevOps AWS (très bonne maîtrise) Amazon MSK CI/CD Infrastructure as Code (Terraform, CloudFormation) Backend .NET / C# APIs REST Microservices Frontend Angular Intégration frontend / backend Notions UX appréciées Profil recherché Formation ingénieur ou équivalent Expérience confirmée en architecture end-to-end Solide expérience sur Kafka en production À l’aise dans des environnements complexes et multi-équipes Capacité à dialoguer aussi bien avec les développeurs que les métiers Atouts appréciés Expérience grands comptes Connaissances data (Spark, Flink, etc.) Certifications AWS / Kafka Sens du produit et de l’expérience utilisateur
Offre d'emploi
Lead data (H/F)
Amiltone
Publiée le
40k-45k €
Villeurbanne, Auvergne-Rhône-Alpes
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
Mission freelance
DATA INGENIEUR STAMBIA DBT SNOWFLAKE
HAYS France
Publiée le
DBT
Semarchy
Snowflake
3 ans
100-400 £GB
Lille, Hauts-de-France
Missions principales Le/la Data Engineer interviendra sur un périmètre large comprenant notamment : 🔹 Ingénierie de données Conception, développement et optimisation de pipelines de données. Intégration et transformation de données via Stambia et DBT . Modélisation et alimentation d’entrepôts de données dans Snowflake . Mise en place de bonnes pratiques de développement (versioning, tests, CI/CD). 🔹 Industrialisation & performance Maintenance, optimisation et monitoring des jobs ETL/ELT. Amélioration continue des performances Snowflake et des modèles DBT. Renforcement de la qualité, de la fiabilité et de la documentation des flux. 🔹 Collaboration & expertise Travail en étroite collaboration avec les équipes Data, Finance et Supply. Analyse des besoins métiers et traduction en solutions techniques. Participation à la roadmap Data (évolutions, migrations, outils). 💼 Compétences techniques recherchéesCompétences indispensables Stambia (développement de mappings, process, intégration). DBT (modèles, tests, documentation, sources, exposures). Snowflake (modélisation, optimisation, SQL avancé). Maîtrise des concepts ETL/ELT, data modelling, gestion de la qualité. Compétences appréciées (nice-to-have) Tableau Software (lecture + compréhension des besoins côté viz). Streamlit (petites apps internes pour exposer des données). Connaissance de la Data Vault ou d’architectures modernes DataOps. Sensibilité aux environnements agiles. 👤 Profil recherché 3 à 5 ans d’expérience minimum en tant que Data Engineer. Capacité à être rapidement opérationnel·le sur des sujets variés. Bonne communication et autonomie. Volonté d’intervenir sur des problématiques Finance & Supply.
Offre d'emploi
Développeur Typescript
VISIAN
Publiée le
Big Data
TypeScript
User acceptance testing (UAT)
1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de ses dispositifs de Conformité, un de nos client recherche un Développeur TypeScript pour intervenir sur des applications construites au sein d'un écosystème de plateforme de données. La mission s'inscrit dans un environnement à forte criticité métier, notamment autour de la Détection de la Délinquance Financière, avec des enjeux liés à l'exploitation de la donnée, à la restitution d'informations sensibles et à l'amélioration des outils utilisés par les équipes conformité, contrôle et investigation. Le consultant participera au développement de solutions applicatives et de widgets métiers permettant de faciliter l'analyse, le pilotage et la visualisation de données en lien avec les dispositifs de surveillance et de détection.
Offre d'emploi
Développeur C# .NET
CAT-AMANIA
Publiée le
Azure
C#
36 mois
40k-60k €
400-580 €
Île-de-France, France
· consultant développeur Microsoft Azure justifiant d’une expérience minimale de 5 ans Prestation en environnement Azure ( idéalement compétences en dev Dotnet/ C# .Net · Connaissances environnement Azure et des outils annexes (GitHub, outils de dev Cloud ..) · Support pour development en C# (idéalement) · Support pour migration d’Oracle (idéalement) · Expert migration (non SAAS) : migration d’ applications internes/upgrade de Framework · Administration Azure (hosting, Securité..) Maitrise de l’ Anglais Capacité de travail en équipe : avec le technical owner, l’architecte central Azure/network, l’équipe Sécurité, le développeur en charge de la maintenance de l’application
Mission freelance
Développeur Front Angular (H/F)
Insitoo Freelances
Publiée le
Angular
AWS Cloud
2 ans
400-520 €
Lyon, Auvergne-Rhône-Alpes
Les missions attendues par le Développeur Front Angular (H/F) : Descriptif de la mission : Activités de développement (front) Build & Run, de la conception à la réalisation jusqu’au maintien en conditions opérationnelles : Analyse et conception : rédaction des documentations techniques, participation aux ateliers de conception Développement de la solution : Concevoir, développer, tester et déployer la solution Tests et qualité au fil des sprints Rituels Agile (Daily, Planning, Review, Rétrospective…) Déploiement et Maintenance : assurer la correction des bugs et assurer la disponibilité du service Assistance lors de la mise à niveau des tests automatisés Playwright Veille technologique et amélioration continue : Proposition d’évolutions techniques ou d’innovations utiles à la valeur produit, capitalisation sur les retours d’expérience pour améliorer en continu les pratiques de l’équipe Accompagnement techniquement les développeurs : revue de code, pair programming, aide à la montée en compétences. Angular / HighCharts / Jira / Confluence Obligatoire : AWS Certified Cloud Practitioner / AWS Certified Cloud Developer
Mission freelance
Data Product Manager – Data & BI Platform
Comet
Publiée le
Microsoft Power BI
1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Mission freelance
Data Manager / Data Steward
Codezys
Publiée le
Data management
Data quality
Lean
12 mois
Rennes, Bretagne
Nous recherchons un profil capable de renforcer notre équipe de Data Management afin de soutenir la réalisation de nos engagements concernant nos offres de services dans ce domaine. Cette personne accompagnera également nos parties prenantes métier dans leurs projets liés à la gestion des données. ENJEUX La mission vise à garantir le succès des initiatives métier portant sur le catalogage des données et leur nettoyage, en particulier lors de projets de transformation majeurs. OBJECTIFS Contribuer à l’enrichissement et au renforcement de notre offre de services en Data Management (méthodologies, outils, formations, accompagnement au changement…) Faciliter la collaboration entre les équipes (Data, IT, architecture, métier) autour de la gestion des données (catalogage, qualité, documentation, sécurité, modélisation…) Professionnaliser et accompagner la montée en compétences des Data Owners, Data Stewards et Data Custodians concernant leurs rôles liés à la qualité des données Participer à l’amélioration de la culture Data au sein de l’organisation Le périmètre technique englobe : Data Gouvernance Data Management Data Quality DAMAS Méthodologies Lean et Agile Outil Blueway MyData Catalogue Tout le système d’information, incluant SIO et legacy Intelligence artificielle Objectifs et livrables Les prestations attendues, non exhaustives, comprennent : Cataloguage de données : réalisation de projets de documentation métier et technique, intégration dans l’outil My Data Catalog Data Quality Management : audits de qualité, propositions de plans de remédiation Accompagnement au changement, formation et sensibilisation Data : formation à l’utilisation de My Data Catalog, accompagnement individuel ou collectif (1 à 1, ateliers) Communication : création et diffusion de newsletters, publications sur l’intranet Participation à des réunions de communauté : Data Owners, Data Stewards, Data Custodians Les livrables attendus comprennent : Les catalogues de données dans l’outil My Data Catalog Les résultats des audits de qualité des données Supports de formation sur les outils et méthodologies de Data Management Newsletter ou autres publications destinées à la communication interne
Offre d'emploi
Ingénieur Devops Senior
Lùkla
Publiée le
Amazon Elastic Compute Cloud (EC2)
Apache Kafka
Apache Maven
2 ans
45k-55k €
450-550 €
La Défense, Île-de-France
Nous recherchons un(e) Ingénieur DevOps Senior. Véritable pivot technique, vous serez le point de contact privilégié pour les sujets opérationnels de déploiement, de gestion d'infrastructure et d'automatisation. Vous évoluerez dans un écosystème complexe (grands comptes) et collaborerez étroitement avec les Product Owners, les Architectes, les Tech Leads et les équipes d'exploitation pour garantir la stabilité et la performance de nos plateformes Pilotage de l’Infrastructure & Déploiement Gestion Cloud (AWS) : commissionnement et décommissionnement des ressources (EC2, RDS, ELB/ALB, S3). CI/CD & automatisation : maintenir et faire évoluer la chaîne Jenkins (jobs, pipelines). Piloter la migration vers GitLab CI. Gestion applicative : installation des composants (JRE, PHP, Apache, PostgreSQL) et déploiement des applications (configuration Zuul). Infrastructure as Code (IaC) : préparation des playbooks Ansible et des Helm Charts pour l'orchestration Kubernetes. Maintien en Condition Opérationnelle (MCO) Analyse & résolution : diagnostic d'incidents de production et optimisation des performances (RAM, CPU, FS, transactions). Garant des process : veiller au respect des bonnes pratiques (Git flow, Nexus) et gérer les ouvertures de flux inter-plateformes. Sécurité & documentation : maintenir à jour les dossiers de configuration, d’exploitation et les images Docker. Collaboration & Conseil Alerter les équipes projets sur les risques de configuration ou de performance. Assurer l'interface avec les équipes d'infrastructure centrales lors des phases critiques de mise en production. Environnement Technique Cloud & Orchestration : AWS (S3, RDS, API Gateway), Docker, Kubernetes (EKS). CI/CD & Qualité : Jenkins, GitLab CI, Maven/NPM, Git, Sonar, Nexus. Observabilité : ELK Stack. Data & Middleware : Kafka (Event-Driven), PostgreSQL 16, Apache, Nginx, Tomcat. Langages & Scripts : Groovy (pipelines), Java (8/17), Helm, Liquibase, Flyway, REST. Sécurité : SSL, OAuth2, SSO, PingID/PingAM.
Offre d'emploi
Développeur Talend / Java (Bordeaux)
CAT-AMANIA
Publiée le
API REST
Azure
Java
3 mois
40k-50k €
100-400 €
Bordeaux, Nouvelle-Aquitaine
En tant que Développeur, vous viendrez renforcer l'équipe en charge de la maintenance évolutive et corrective des logiciels RH. Vos principales missions seront de : - Contribuer à la conception des solutions techniques en respect des guidelines technologiques (analyses techniques, études…) - Participer à l’affinage du backlog, l’évaluation de la complexité, la conception, l’écriture des US et des spécifications - Participer pro-activement à l’ensemble des cérémonies agiles - Contribuer aux ateliers d’amélioration continue, à la veille technologique, aux partages de compétences dans le but d’améliorer l’expertise collective - Ecrivre, debugger, documenter, exécuter le code source et le déployer - Participer à la définition de la stratégie de tests (unitaires, assemblage, tests en charge…) et réaliser, a minima, les tests unitaires Vous êtes responsable de la qualité du produit. Pour ce faire vous adoptez les pratiques d’excellence dans le développement logiciel : clean code, refactoring, BDD, TDD, pair programing, revues de code, automatisation des tests… et embarquez au plus tôt lors du développement les contraintes de déploiement et d’exploitation.
Mission freelance
Chef de projet DATA avec une forte expertise en finance & Procurement Data
ARKAMA CS
Publiée le
Data analysis
Finance
SAP
3 mois
Île-de-France, France
Chef de projet DATA avec une forte expertise en finance & Procurement Data. Démarrage immédiat Lieu IDF + télétravail Durée 3 mois renouvelables, projet long Si ce projet vous intéresse, pouvez-vous svp nous faire parvenir les informations suivantes ? Votre date de disponibilité Votre taux journalier Votre lieu d’habitation Votre résumé sous format Word Niveau d’anglais Pour les sociétés, merci de préciser si votre consultant est salarié de votre société Senior Business Analyst / Project Manager (BA/PM) - Procurement Spend Analytics Tool (building & implementation Report to both Procurement business (tool owner) & Information Management Office (project management) Profil sénior (+10 years) Anglais courant indispensable Profil Ce rôle demande une forte expertise en finance & Procurement Data, ERP and/or procurement suite tool, spend classification methodologies, Data analytics/manipulation, business requirements writing, and project/stakeholder management. Connaissance de SAP, including invoices, accounting, and procurement suites/tools (Ariba, etc.) Compétences en DATA manipulation and proficient in handling large-scale transactional datasets Project Management - animation d’ateliers Forte compréhension en IT architecture, including data storage solutions and hyperscale platforms (Google Cloud Platform, SAP BW) Demonstrated experience in procurement analytics, spend analysis, spend classification, strategic sourcing, and procurement transformation initiatives Adept at building and implementing spend categorization and spend analytics tools Rôle Le client recherche un Project leader / Business Analyst/Data Analyst to participate in the Procurement Spend Analysis tool development. The Lead Business Analyst will have to manage the implementation of Procurement spend consolidation, categorization and visualization in collaboration with Business and IT. L’objectif est de remplacer une SAAS solution with an in-house solution. Vous serez responsable for data preparation, spend classification using taxonomy, leading the tool development with IT/Business, governance setup and change management to ensure successful deployment and measurable business impact. There are huge expectations from Procurement Top Management. Le Business (Product) Analyst est le pont entre le Business department and the development teams of the client IT Development organization and contributes to the client business strategy by translating business needs into sustainable products and services. On one hand, the Business (Product) Analyst ensures the right quality of the products and services already in place and on the other hand plays a key role in developing new products and services. Le Business (Product) Analyst travaille avec le business and IT stakeholders afin d’identifier, analyzer, communicate, and validate the needs for change in business processes and information systems. They are responsible for managing issues, evaluating and proposing solutions to meet expressed needs, and enabling the business organization to achieve its objectives. The Business (Product) Analyst operates under security and regulatory constraints, with a constant focus on economic optimization, while ensuring social impact and convergence of the client information systems.
Offre d'emploi
Chef de Projet Data / Flux (F/H)
CELAD
Publiée le
50k-55k €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de piloter des projets stratégiques autour de la data et des plateformes SI ? Dans le cadre de l’évolution de ses plateformes, l’un de nos clients grands comptes renforce son centre de solution métier dédié aux Flux Data et recherche un.e Chef.fe de Projet pour piloter plusieurs chantiers structurants. Vous interviendrez dans un environnement technique riche, en coordination avec les équipes SI, les DevSecOps et les différentes parties prenantes. Voici un aperçu détaillé de vos missions : - Piloter des projets de migration d’outils collaboratifs vers des environnements Cloud - Superviser le déploiement d’une plateforme d’API Management - Identifier les différents chantiers et sous-chantiers liés aux projets - Construire la timeline projet et les jalons clés - Suivre l’avancement des travaux et gérer les incidents éventuels - Coordonner les phases de recette et TNR avec les équipes métiers - Contribuer à la définition des stratégies de tests - Assurer la communication projet auprès des équipes SI - Suivre le budget, les charges et les délais - Identifier et gérer les risques et retards potentiels - Piloter les études autour des plateformes ETL, Bus de Services et solutions d’autorisation - Accompagner les ESN et experts techniques en charge des études - Organiser les ateliers de recueil des besoins et de restitution - Superviser la production et la validation des livrables - Challenger les études produites et proposer des axes d’amélioration - Assurer la coordination avec les équipes DevSecOps et les différentes parties prenantes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5689 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois